banner

Blog

Dec 10, 2023

OpenAI setzte kenianische Arbeitskräfte für weniger als 2 US-Dollar pro Stunde ein: Exklusiv

Inhaltswarnung: Diese Geschichte enthält Beschreibungen von sexuellem Missbrauch

ChatGPT wurde bei seiner Veröffentlichung im vergangenen November als eine der beeindruckendsten technologischen Innovationen des Jahres 2022 gefeiert. Der leistungsstarke Chatbot mit künstlicher Intelligenz (KI) kann Texte zu fast jedem Thema generieren, von einem Shakespeare-Sonett, das im Stil von Megan Thee Stallion neu interpretiert wurde, bis hin zu komplexen mathematischen Theoremen, die in einer Sprache beschrieben werden, die ein Fünfjähriger verstehen kann. Innerhalb einer Woche hatte es mehr als eine Million Nutzer.

Der Schöpfer von ChatGPT, OpenAI, befindet sich Berichten zufolge derzeit in Gesprächen mit Investoren, um Mittel im Wert von 29 Milliarden US-Dollar zu beschaffen, einschließlich einer potenziellen Investition von 10 Milliarden US-Dollar durch Microsoft. Damit wäre OpenAI, das 2015 in San Francisco mit dem Ziel gegründet wurde, superintelligente Maschinen zu bauen, eines der wertvollsten KI-Unternehmen der Welt.

Doch die Erfolgsgeschichte ist nicht nur eine Folge der Genialität des Silicon Valley. In seinem Bestreben, ChatGPT weniger giftig zu machen, hat OpenAI ausgelagerte kenianische Arbeitskräfte eingesetzt, die weniger als 2 US-Dollar pro Stunde verdienen, wie eine TIME-Untersuchung ergab.

Die Arbeit war für OpenAI von entscheidender Bedeutung. Der Vorgänger von ChatGPT, GPT-3, hatte bereits eine beeindruckende Fähigkeit gezeigt, Sätze aneinanderzureihen. Der Verkauf war jedoch schwierig, da die App auch dazu neigte, gewalttätige, sexistische und rassistische Äußerungen auszustoßen. Dies liegt daran, dass die KI mit Hunderten Milliarden Wörtern trainiert wurde, die aus dem Internet stammen – einem riesigen Speicher menschlicher Sprache. Dieser riesige Trainingsdatensatz war der Grund für die beeindruckenden sprachlichen Fähigkeiten von GPT-3, aber vielleicht auch sein größter Fluch. Da Teile des Internets voller Toxizität und Voreingenommenheit sind, gab es keine einfache Möglichkeit, diese Abschnitte der Trainingsdaten zu löschen. Selbst ein Team aus Hunderten von Menschen hätte Jahrzehnte gebraucht, um den riesigen Datensatz manuell zu durchforsten. Nur durch den Aufbau eines zusätzlichen KI-gestützten Sicherheitsmechanismus wäre OpenAI in der Lage, diesen Schaden einzudämmen und einen alltagstauglichen Chatbot zu entwickeln.

Mehr lesen: KI-Chatbots werden immer besser. Doch ein Interview mit ChatGPT zeigt ihre Grenzen auf

Um dieses Sicherheitssystem aufzubauen, orientierte sich OpenAI an den Vorgaben von Social-Media-Unternehmen wie Facebook, die bereits gezeigt hatten, dass es möglich ist, KIs zu entwickeln, die giftige Sprache wie Hassrede erkennen und dabei helfen können, diese von ihren Plattformen zu entfernen. Die Prämisse war einfach: Füttere eine KI mit gekennzeichneten Beispielen von Gewalt, Hassrede und sexuellem Missbrauch, und dieses Tool könnte lernen, diese Formen der Toxizität in freier Wildbahn zu erkennen. Dieser Detektor würde in ChatGPT integriert, um zu prüfen, ob er die Toxizität seiner Trainingsdaten widerspiegelt, und um sie herauszufiltern, bevor sie den Benutzer erreichen. Es könnte auch dabei helfen, toxischen Text aus den Trainingsdatensätzen zukünftiger KI-Modelle zu entfernen.

Um diese Etiketten zu erhalten, schickte OpenAI ab November 2021 Zehntausende Textschnipsel an eine Outsourcing-Firma in Kenia. Ein Großteil dieses Textes schien aus den dunkelsten Winkeln des Internets entnommen worden zu sein. Einige davon beschrieben Situationen in anschaulichen Einzelheiten wie sexuellen Missbrauch von Kindern, Sodomie, Mord, Selbstmord, Folter, Selbstverletzung und Inzest.

Der Outsourcing-Partner von OpenAI in Kenia war Sama, ein in San Francisco ansässiges Unternehmen, das Mitarbeiter in Kenia, Uganda und Indien beschäftigt, um Daten für Silicon-Valley-Kunden wie Google, Meta und Microsoft zu kennzeichnen. Sama vermarktet sich selbst als „ethisches KI“-Unternehmen und behauptet, dazu beigetragen zu haben, mehr als 50.000 Menschen aus der Armut zu befreien.

Die von Sama im Auftrag von OpenAI beschäftigten Datenetikettierer erhielten je nach Dienstalter und Leistung einen Nettolohn zwischen etwa 1,32 und 2 US-Dollar pro Stunde. Für diese Geschichte hat TIME Hunderte Seiten interner Sama- und OpenAI-Dokumente, einschließlich der Gehaltsabrechnungen der Arbeiter, überprüft und vier Sama-Mitarbeiter interviewt, die an dem Projekt gearbeitet haben. Aus Sorge um ihren Lebensunterhalt sprachen alle Mitarbeiter unter der Bedingung, anonym zu bleiben.

Die Geschichte der Arbeiter, die ChatGPT ermöglicht haben, bietet einen Einblick in die Bedingungen in diesem wenig bekannten Teil der KI-Branche, der dennoch eine wesentliche Rolle bei den Bemühungen spielt, KI-Systeme für den öffentlichen Gebrauch sicher zu machen. „Trotz der grundlegenden Rolle, die diese Datenanreicherungsexperten spielen, zeigt eine wachsende Zahl von Forschungsergebnissen, mit welchen prekären Arbeitsbedingungen diese Arbeitnehmer konfrontiert sind“, sagt die Partnership on AI, eine Koalition von KI-Organisationen, zu der OpenAI gehört. „Dies könnte das Ergebnis von Bemühungen sein, die Abhängigkeit der KI von dieser großen Arbeitskraft zu verbergen, während man die Effizienzgewinne der Technologie feiert. Außer Sichtweite ist auch außer Sinn.“ (OpenAI gibt die Namen der Outsourcer, mit denen es zusammenarbeitet, nicht bekannt, und es ist nicht klar, ob OpenAI bei diesem Projekt neben Sama auch mit anderen Datenkennzeichnungsfirmen zusammengearbeitet hat.)

In einer Erklärung bestätigte ein OpenAI-Sprecher, dass Sama-Mitarbeiter in Kenia zu einem Tool beigetragen haben, das das Unternehmen zur Erkennung toxischer Inhalte entwickelte und das schließlich in ChatGPT integriert wurde. In der Erklärung heißt es auch, dass diese Arbeit zu den Bemühungen beigetragen habe, toxische Daten aus den Trainingsdatensätzen von Tools wie ChatGPT zu entfernen. „Unsere Mission ist es, sicherzustellen, dass künstliche allgemeine Intelligenz der gesamten Menschheit zugute kommt, und wir arbeiten hart daran, sichere und nützliche KI-Systeme zu entwickeln, die Voreingenommenheit und schädliche Inhalte begrenzen“, sagte der Sprecher. „Die Klassifizierung und Filterung schädlicher [Texte und Bilder] ist ein notwendiger Schritt, um die Menge an gewalttätigen und sexuellen Inhalten in Trainingsdaten zu minimieren und Tools zu schaffen, die schädliche Inhalte erkennen können.“

Auch wenn sich die Tech-Wirtschaft insgesamt in Erwartung eines Abschwungs verlangsamt, versuchen Investoren, Milliarden von Dollar in „generative KI“ zu stecken, den Sektor der Tech-Industrie, in dem OpenAI unangefochtener Marktführer ist. Computergenerierte Texte, Bilder, Videos und Audio werden die Art und Weise, wie zahllose Branchen ihre Geschäfte abwickeln, verändern, glauben die optimistischsten Investoren, und die Effizienz überall steigern, von den kreativen Künsten über das Recht bis hin zur Computerprogrammierung. Aber die Arbeitsbedingungen von Datenetikettierern offenbaren einen dunkleren Teil dieses Bildes: dass KI bei allem Glamour im globalen Süden oft auf versteckte menschliche Arbeit angewiesen ist, die oft schädlich und ausbeuterisch sein kann. Diese unsichtbaren Arbeiter bleiben am Rande, auch wenn ihre Arbeit zu milliardenschweren Industrien beiträgt.

Mehr lesen: KI hat beim Schreiben dieses Stücks geholfen. Es könnte Rassismus enthalten

Ein Sama-Mitarbeiter, der mit dem Lesen und Beschriften von Texten für OpenAI beauftragt war, sagte gegenüber TIME, er habe unter wiederkehrenden Visionen gelitten, nachdem er eine anschauliche Beschreibung eines Mannes gelesen hatte, der in Gegenwart eines kleinen Kindes Sex mit einem Hund hatte. „Das war Folter“, sagte er. „Sie werden die ganze Woche über eine Reihe solcher Aussagen lesen. Wenn es Freitag wird, wird es Ihnen schon schwerfallen, über dieses Bild nachzudenken.“ Der traumatische Charakter der Arbeit führte schließlich dazu, dass Sama im Februar 2022, acht Monate früher als geplant, seine gesamte Arbeit für OpenAI absagte.

Von TIME überprüfte Dokumente zeigen, dass OpenAI Ende 2021 drei Verträge mit Sama im Gesamtwert von rund 200.000 US-Dollar unterzeichnet hat, um Textbeschreibungen von sexuellem Missbrauch, Hassreden und Gewalt zu kennzeichnen. Etwa drei Dutzend Arbeiter wurden in drei Teams aufgeteilt, von denen sich eines auf jedes Thema konzentrierte. Drei Mitarbeiter sagten gegenüber TIME, von ihnen werde erwartet, dass sie pro Neun-Stunden-Schicht zwischen 150 und 250 Textpassagen lesen und beschriften. Diese Schnipsel können zwischen etwa 100 und weit über 1.000 Wörtern umfassen. Alle vier von TIME befragten Mitarbeiter gaben an, durch die Arbeit seelische Narben erlitten zu haben. Obwohl sie berechtigt waren, an Sitzungen mit „Wellness“-Beratern teilzunehmen, gaben alle vier an, dass diese Sitzungen aufgrund der hohen Anforderungen an eine höhere Produktivität bei der Arbeit wenig hilfreich und selten seien. Zwei gaben an, dass ihnen nur die Möglichkeit gegeben wurde, an Gruppensitzungen teilzunehmen, und einer sagte, dass ihre Bitten, stattdessen Einzelgespräche mit den Beratern zu führen, von der Geschäftsleitung von Sama wiederholt abgelehnt worden seien.

In einer Erklärung sagte ein Sama-Sprecher, es sei „falsch“, dass Mitarbeiter nur Zugang zu Gruppensitzungen hätten. Die Mitarbeiter hätten sowohl Anspruch auf Einzel- als auch auf Gruppensitzungen mit „professionell ausgebildeten und lizenzierten Psychotherapeuten“, sagte der Sprecher. Diese Therapeuten seien jederzeit erreichbar, fügte der Sprecher hinzu.

In den Verträgen hieß es, dass OpenAI Sama für die Arbeit einen Stundensatz von 12,50 US-Dollar zahlen würde, was zwischen dem Sechs- und Neunfachen des Betrags entsprach, den die Sama-Mitarbeiter des Projekts pro Stunde mit nach Hause nahmen. Nach Angaben von drei Sama-Mitarbeitern erhielten die Agenten, die jüngsten Datenetikettierer, die die Mehrheit der drei Teams ausmachten, ein Grundgehalt von 21.000 Kenia-Schilling (170 US-Dollar) pro Monat. Aufgrund der expliziten Art ihrer Arbeit erhielten sie außerdem monatliche Prämien im Wert von rund 70 US-Dollar und eine Provision für die Erfüllung wichtiger Leistungsindikatoren wie Genauigkeit und Geschwindigkeit. Ein Agent, der in Neun-Stunden-Schichten arbeitet, könnte damit rechnen, einen Gesamtlohn von mindestens 1,32 US-Dollar pro Stunde nach Steuern zu erhalten, der sich auf bis zu 1,44 US-Dollar pro Stunde steigern würde, wenn er alle seine Ziele übertraf. Qualitätsanalysten – erfahrenere Etikettierer, deren Aufgabe es war, die Arbeit der Agenten zu überprüfen – könnten bis zu 2 US-Dollar pro Stunde mit nach Hause nehmen, wenn sie alle ihre Ziele erreichten. (In Kenia gibt es keinen allgemeinen Mindestlohn, aber zum Zeitpunkt der Beschäftigung dieser Arbeitnehmer betrug der Mindestlohn für eine Rezeptionistin in Nairobi 1,52 US-Dollar pro Stunde.)

In einer Erklärung sagte ein Sama-Sprecher, die Arbeiter seien aufgefordert worden, 70 Textpassagen pro Neun-Stunden-Schicht zu beschriften, nicht bis zu 250, und dass die Arbeiter zwischen 1,46 und 3,74 Dollar pro Stunde nach Steuern verdienen könnten. Der Sprecher lehnte es ab, zu sagen, welche Jobrollen Gehälter im oberen Bereich dieser Spanne verdienen würden. „Der Satz von 12,50 US-Dollar für das Projekt deckt alle Kosten ab, wie Infrastrukturkosten sowie Gehälter und Sozialleistungen für die Mitarbeiter und ihre voll engagierten Qualitätssicherungsanalysten und Teamleiter“, fügte der Sprecher hinzu.

Weiterlesen: Lustige KI-Apps gibt es derzeit überall. Aber es kommt zu einer Sicherheitsabrechnung

Ein OpenAI-Sprecher sagte in einer Erklärung, dass das Unternehmen keine Produktivitätsziele ausgegeben habe und dass Sama für die Verwaltung der Bezahlung und der psychischen Gesundheit der Mitarbeiter verantwortlich sei. Der Sprecher fügte hinzu: „Wir nehmen die psychische Gesundheit unserer Mitarbeiter und unserer Auftragnehmer sehr ernst. Unser bisheriges Verständnis war, dass [bei Sama] Wellnessprogramme und 1:1-Beratung angeboten wurden und die Arbeitnehmer ohne Strafe von jeder Arbeit zurücktreten konnten.“ Der Kontakt mit expliziten Inhalten wäre begrenzt, und sensible Informationen würden von Mitarbeitern gehandhabt, die speziell dafür geschult wurden.“

In der täglichen Arbeit der Datenkennzeichnung in Kenia tauchten manchmal Randfälle auf, die zeigten, wie schwierig es ist, einer Maschine beizubringen, Nuancen zu verstehen. Eines Tages Anfang März letzten Jahres las ein Sama-Mitarbeiter bei der Arbeit eine explizite Geschichte über Batmans Kumpel Robin, der im Versteck eines Bösewichts vergewaltigt wurde. (Eine Online-Suche nach dem Text zeigt, dass er von einer Online-Erotikseite stammt, wo er von expliziten sexuellen Bildern begleitet wird.) Der Anfang der Geschichte macht deutlich, dass der Sex nicht einvernehmlich ist. Doch später – nach einer anschaulich detaillierten Beschreibung der Penetration – beginnt Robin, sich zu revanchieren. Der mit der Kennzeichnung des Textes beauftragte Sama-Mitarbeiter schien von Robins unklarer Zustimmung verwirrt zu sein und bat die OpenAI-Forscher um Klarstellung, wie der Text zu kennzeichnen sei, wie aus Dokumenten hervorgeht, die TIME eingesehen hat. Sollte die Passage als sexuelle Gewalt eingestuft werden, fragte sie, oder nicht? Die Antwort von OpenAI, falls sie jemals eintraf, wird nicht im Dokument protokolliert; Das Unternehmen lehnte eine Stellungnahme ab. Der Sama-Mitarbeiter reagierte nicht auf eine Interviewanfrage.

Im Februar 2022 vertiefte sich die Beziehung zwischen Sama und OpenAI kurzzeitig, um dann jedoch ins Wanken zu geraten. In diesem Monat begann Sama mit der Pilotarbeit für ein separates Projekt für OpenAI: das Sammeln sexueller und gewalttätiger Bilder – einige davon nach US-amerikanischem Recht illegal –, um sie an OpenAI zu liefern. Die Arbeit mit der Kennzeichnung von Bildern scheint nichts mit ChatGPT zu tun zu haben. In einer Erklärung machte ein OpenAI-Sprecher den Zweck der Bilder, die das Unternehmen von Sama verlangte, nicht näher, sagte jedoch, die Kennzeichnung schädlicher Bilder sei „ein notwendiger Schritt“, um seine KI-Tools sicherer zu machen. (OpenAI entwickelt auch Technologie zur Bildgenerierung.) Laut einem von TIME überprüften Rechnungsdokument lieferte Sama OpenAI im Februar einen Musterstapel von 1.400 Bildern. Einige dieser Bilder wurden dem Dokument zufolge als „C4“ kategorisiert – OpenAIs interne Bezeichnung für sexuellen Missbrauch von Kindern. Dem Rechnungsdokument zufolge befanden sich außerdem „C3“-Bilder (darunter Bestialität, Vergewaltigung und sexuelle Sklaverei) und „V3“-Bilder mit grafischen Details von Tod, Gewalt oder schwerer Körperverletzung. OpenAI zahlte Sama insgesamt 787,50 US-Dollar für das Sammeln der Bilder, wie aus dem Dokument hervorgeht.

Innerhalb weniger Wochen hatte Sama alle seine Arbeiten für OpenAI abgesagt – acht Monate früher als in den Verträgen vereinbart. Das Outsourcing-Unternehmen sagte in einer Erklärung, dass seine Vereinbarung zur Sammlung von Bildern für OpenAI keinen Hinweis auf illegale Inhalte enthielt und dass OpenAI erst nach Beginn der Arbeiten „zusätzliche Anweisungen“ mit Bezug auf „einige illegale Kategorien“ verschickte. „Das Ostafrika-Team äußerte sofort Bedenken gegenüber unseren Führungskräften. Sama beendete sofort das Pilotprojekt zur Bildklassifizierung und kündigte an, dass wir alle verbleibenden [Projekte] mit OpenAI abbrechen würden“, sagte ein Sama-Sprecher. „Die Personen, die mit dem Kunden zusammenarbeiten, haben die Anfrage nicht über die richtigen Kanäle geprüft. Nach einer Prüfung der Situation wurden Einzelpersonen gekündigt und neue Richtlinien und Leitplanken für die Verkaufsprüfung eingeführt.“

In einer Erklärung bestätigte OpenAI, dass es 1.400 Bilder von Sama erhalten hatte, darunter „unter anderem C4-, C3-, C2-, V3-, V2- und V1-Bilder“. In einer Folgeerklärung sagte das Unternehmen: „Wir haben Sama im Rahmen unserer laufenden Arbeit beauftragt, sicherere KI-Systeme zu entwickeln und schädliche Ausgaben zu verhindern. Wir hatten nie vor, Inhalte der Kategorie C4 zu sammeln. Diese Inhalte werden nicht als solche benötigt.“ Eingaben in unsere Vorschulungsfilter und wir weisen unsere Mitarbeiter an, dies aktiv zu vermeiden. Sobald Sama uns mitteilte, dass sie versucht hatten, Inhalte in dieser Kategorie zu sammeln, stellten wir klar, dass es zu einer Fehlkommunikation gekommen war und dass wir diese Inhalte nicht wollten. Und Nachdem wir festgestellt hatten, dass es zu einer Fehlkommunikation gekommen war, haben wir den fraglichen Inhalt weder geöffnet noch angezeigt. Daher können wir nicht bestätigen, ob er Bilder der Kategorie C4 enthielt.“

Die Entscheidung von Sama, die Arbeit mit OpenAI zu beenden, bedeutete, dass sich die Mitarbeiter von Sama nicht mehr mit verstörenden Texten und Bildern auseinandersetzen mussten, hatte aber auch große Auswirkungen auf ihren Lebensunterhalt. Sama-Mitarbeiter sagen, dass sie Ende Februar 2022 zu einem Treffen mit Mitgliedern des Personalteams des Unternehmens eingeladen wurden, wo ihnen die Neuigkeiten mitgeteilt wurden. „Uns wurde gesagt, dass sie [Sama] ihre Mitarbeiter nicht noch einmal solchen [gefährlichen] Inhalten aussetzen wollten“, sagte ein Sama-Mitarbeiter der Textkennzeichnungsprojekte. „Wir antworteten, dass es für uns eine Möglichkeit sei, für unsere Familien zu sorgen.“ Die meisten der rund drei Dutzend Arbeiter wurden ohne den expliziten Content-Bonus von 70 US-Dollar pro Monat in andere, schlechter bezahlte Arbeitsbereiche versetzt; andere verloren ihren Job. Sama lieferte seinen letzten Stapel gekennzeichneter Daten im März an OpenAI, acht Monate vor Vertragsende.

Da die Verträge vorzeitig gekündigt wurden, gaben sowohl OpenAI als auch Sama an, dass die zuvor vereinbarten 200.000 US-Dollar nicht vollständig gezahlt worden seien. OpenAI sagte, die Verträge hätten „im Laufe der Partnerschaft einen Wert von etwa 150.000 US-Dollar“.

Sama-Mitarbeiter geben an, dass ihnen von ihren Vorgesetzten ein weiterer Grund für die Kündigung der Verträge genannt wurde. Am 14. Februar veröffentlichte TIME einen Artikel mit dem Titel Inside Facebook's African Sweatshop. In der Untersuchung wurde detailliert beschrieben, wie Sama Content-Moderatoren für Facebook beschäftigte, deren Aufgaben darin bestanden, Bilder und Videos von Hinrichtungen, Vergewaltigungen und Kindesmissbrauch für nur 1,50 US-Dollar pro Stunde anzusehen. Vier Sama-Mitarbeiter sagten, ihnen sei mitgeteilt worden, dass die Untersuchung den Beschluss des Unternehmens veranlasst habe, seine Arbeit für OpenAI einzustellen. (Facebook sagt, dass es von seinen Outsourcing-Partnern verlangt, „branchenführende Bezahlung, Zusatzleistungen und Support bereitzustellen“.)

Weiterlesen: Im afrikanischen Sweatshop von Facebook

Interne Mitteilungen nach der Veröffentlichung der Facebook-Geschichte, die von TIME überprüft wurden, zeigen, dass Führungskräfte von Sama in San Francisco sich mit den PR-Folgen abmühen, einschließlich der Verpflichtung eines Unternehmens, einer Tochtergesellschaft von Lufthansa, das Beweise für seine Geschäftsbeziehung mit Sama entfernen wollte Website des Outsourcing-Unternehmens. In einer Erklärung gegenüber TIME bestätigte Lufthansa, dass dies geschehen sei, und fügte hinzu, dass ihre Tochtergesellschaft ZeroG daraufhin das Geschäft mit Sama eingestellt habe. Am 17. Februar, drei Tage nach der Veröffentlichung der TIME-Untersuchung, schickte Wendy Gonzalez, CEO von Sama, über Slack eine Nachricht an eine Gruppe von Führungskräften: „Wir werden die Arbeit an OpenAI einstellen.“

Am 10. Januar dieses Jahres ging Sama noch einen Schritt weiter und kündigte an, dass das Unternehmen seine gesamte Arbeit mit sensiblen Inhalten einstellen werde. Das Unternehmen sagte, es werde seinen 3,9 Millionen US-Dollar teuren Content-Moderationsvertrag mit Facebook nicht verlängern, was zum Verlust von etwa 200 Arbeitsplätzen in Nairobi führte. „Nach zahlreichen Gesprächen mit unserem globalen Team traf Sama die strategische Entscheidung, alle Arbeiten zur Verarbeitung natürlicher Sprache und zur Inhaltsmoderation aufzugeben und sich auf Lösungen zur Annotation von Computer-Vision-Daten zu konzentrieren“, heißt es in einer Erklärung des Unternehmens. „Wir haben das vergangene Jahr damit verbracht, mit Kunden an der Umstellung dieser Aufträge zu arbeiten, und der Ausstieg wird im März 2023 abgeschlossen sein.“

Aber die Notwendigkeit, dass Menschen Daten für KI-Systeme kennzeichnen, bleibt bestehen, zumindest vorerst. „Sie sind beeindruckend, aber ChatGPT und andere generative Modelle sind keine Zauberei – sie basieren auf riesigen Lieferketten menschlicher Arbeit und abgekratzter Daten, von denen viele nicht zugeordnet sind und ohne Zustimmung verwendet werden“, schrieb Andrew Strait, ein KI-Ethiker, kürzlich weiter Twitter. „Das sind ernste, grundlegende Probleme, die OpenAI meiner Meinung nach nicht lösen kann.“

Mit Berichterstattung von Julia Zorthian/New York

Schreiben Sie anBilly Perrigo unter [email protected].

Weiterlesen: Weiterlesen: Weiterlesen: In Facebooks afrikanischem Sweatshop Prinz Harry bricht königliche Konvention. Ist Indiens Eisenbahnnetz sicher? Wie die Welt auf KI reagieren muss Elliot-Seite: Die Akzeptanz meiner Trans-Identität hat mich gerettet Texas High Jumper hat fast 1 Million US-Dollar verdient Schuldenobergrenzen-Deal bedeutet für Kreditnehmer von Studienkrediten LGBTQ-Reality-TV Besser werden beim Smalltalk Schreiben Sie an
AKTIE