Wissenschaftler erklären, wie Menschen dem KI-Hype standhalten können und warum dies notwendig ist

BOT oder NICHT? Diese Sonderserie beleuchtet die sich entwickelnde Beziehung zwischen Mensch und Maschine und untersucht, wie Roboter, künstliche Intelligenz und Automatisierung unsere Arbeit und unser Leben beeinflussen.

Illustration: Ein Geschwader grüner Avatare, die von einer roten Hand zurückgehalten werden

Strategische Verweigerung ist eine der Möglichkeiten, dem KI-Hype entgegenzuwirken. (Bigstock Illustration / Digitalista)

Nennen Sie ChatGPT nicht „Chatbot“. Nennen Sie es einen Konversationssimulator. Stellen Sie sich DALL-E nicht als Schöpfer künstlerischer Bilder vor. Betrachten Sie es stattdessen als eine Maschine, die synthetische Medien extrudiert. Vermeiden Sie es tatsächlich, zu denken, dass das, was generative KI tut, tatsächlich künstliche Intelligenz ist.

Das ist Teil der Empfehlung zur Bekämpfung des Hypes um künstliche Intelligenz, von den Autoren eines neuen Buches mit dem Titel „The AI Con.“

„‚Künstliche Intelligenz‘ ist ein von Natur aus anthropomorphisierender Begriff“, erklärt Emily M. Bender, Professorin für Linguistik an der University of Washington, in der neuesten Episode des Fiction Science Podcasts. „Es verkauft die Technologie als mehr, als sie ist – denn anstatt ein System zu sein, das beispielsweise automatisch transkribiert oder die Lautstärke einer Aufnahme automatisch anpasst, ist es ‚künstliche Intelligenz‘, und so könnte es so viel mehr tun.“

In ihrem Buch und im Podcast weisen Bender und ihr Co-Autor Alex Hanna auf die Nachteile des KI-Marketings hin. Sie argumentieren, dass die Vorteile, die KI mit sich bringt, hochgespielt werden, während die Kosten heruntergespielt werden. Und sie sagen, dass die größten Vorteile den Unternehmen zugutekommen, die die Software verkaufen – oder KI als Rechtfertigung für die Abwertung des Status menschlicher Arbeitskräfte nutzen.

„KI wird dir nicht den Job wegnehmen, aber sie wird deinen Job wahrscheinlich beschissener machen“, sagt Hanna, eine Soziologin und Forschungsdirektorin des Distributed AI Research Institute. „Das liegt daran, dass es nicht viele Fälle gibt, in denen diese Tools die Arbeit vollständig ersetzen, aber was sie letztendlich tun, ist … sich vorzustellen, eine ganze Reihe von Aufgaben zu ersetzen, die menschliche Arbeitskräfte erledigen.“

Solche Behauptungen werden oft verwendet, um Entlassungen zu rechtfertigen und die Arbeitnehmer dann „als Gig-Arbeiter wieder einzustellen oder jemanden in der Lieferkette zu finden, der stattdessen diese Arbeit erledigt“, sagt Hanna.

Technik-Manager bestehen typischerweise darauf, dass KI-Tools zu Quantensprüngen in der Produktivität führen werden, aber Hanna verweist auf weniger optimistische Prognosen von Ökonomen wie Daron Acemoglu vom MIT, der im vergangenen Jahr einen Anteil am Nobelpreis für Wirtschaftswissenschaften gewann. Acemoglu schätzt den jährlichen Produktivitätsgewinn durch KI für die nächsten 10 Jahre auf etwa 0,05 %.

Darüber hinaus sagt Acemoglu, dass KI „negative soziale Auswirkungen“ haben kann, einschließlich einer wachsenden Kluft zwischen Kapital- und Arbeitseinkommen. In „The AI Con“ legen Bender und Hanna eine Litanei der negativen sozialen und ökologischen Auswirkungen von KI dar – von einem Verbrauch an Energie- und Wasserressourcen bis hin zur Ausbeutung von Arbeitern, die KI-Modelle in Ländern wie Kenia und den Philippinen trainieren.

Die Autoren von „The AI Con“: Emily Bender (links) ist Professorin für Linguistik an der University of Washington. Alex Hanna (rechts) ist Forschungsdirektorin am Distributed AI Research Institute. (Bender Foto von Susan Doupé; Hanna Foto von Will Toft)

Ein weiteres Anliegen betrifft die Frage, wie literarische und künstlerische Werke zur Schulung von KI-Modellen piratisiert werden. (Vollständige Offenlegung: Mein eigenes Buch, „Der Fall Pluto“, gehört zu den Werken, die zur Schulung von Metas Llama 3 KI-Modell verwendet wurden.) Außerdem gibt es ein bekanntes Problem mit großen Sprachmodellen, die Informationen ausgeben, die plausibel klingen mögen, aber völlig falsch sind. (Bender und Hanna vermeiden es, dies als „Halluzination“ zu bezeichnen, da dieser Begriff das Vorhandensein von Wahrnehmung impliziert.)

Dann gibt es die Probleme rund um algorithmische Voreingenommenheiten aufgrund von Rasse oder Geschlecht. Solche Probleme lassen die Alarmglocken läuten, wenn KI-Modelle verwendet werden, um zu entscheiden, wer eingestellt wird, wer eine Haftstrafe erhält oder welche Gebiete stärker überwacht werden sollten. All dies wird in „The AI Con“ behandelt.

Es ist schwer, in diesem Buch etwas Lobendes über KI zu finden.

„Man wird mich nie sagen hören, dass KI gut ist, und das heißt nicht, dass ich all dieser Automatisierung widerspreche“, sagt Bender. „Es ist nur so, dass ich nicht glaube, dass KI eine Sache ist. Sicherlich gibt es Anwendungsfälle für Automatisierung, einschließlich der Automatisierung von Mustererkennung oder Musterabgleich. … Das ist von Fall zu Fall, oder?“

Zu den zu stellenden Fragen gehören: Was wird automatisiert? Wie wurde das Automatisierungstool gebaut? Wessen Arbeit floss in den Bau dieses Tools ein, und wurden die Arbeitskräfte fair entschädigt? Wie wurde das Tool bewertet, und bildet diese Bewertung die zu automatisierende Aufgabe wirklich ab?

Bender sagt, generative KI-Anwendungen fallen bei ihrem Test durch.

„Eines der nächstgelegenen, das ich fand, ist, nun, der Dialog mit Nicht-Spieler-Charakteren in Videospielen“, sagt Bender. „Man könnte einen lebendigeren Dialog führen, wenn es die synthetische Text-Extrusionsmaschine betreiben könnte. Und es ist Fiktion, also suchen wir nicht nach Fakten. Aber wir suchen nach einer bestimmten Art von Wahrheit in fiktionalen Erlebnissen. Und genau da können die Voreingenommenheiten wirklich zu einem Problem werden – denn wenn die NPCs einfach nur totale Bigotinnen sind, ob subtil oder offen, dann ist das eine schlechte Sache.“

„The AI Con: Wie man den Hype der Big Tech bekämpft und die Zukunft schafft, die wir wollen“, von Emily M. Bender und Alex Hanna. (Cover-Design von Kris Potter für Harper)

Neben der sorgfältigen Wortwahl und dem Hinterfragen der beworbenen Systeme, was sollte getan werden, um den KI-Hype einzudämmen? Bender und Hanna sagen, dass es Raum für neue Vorschriften gibt, die Transparenz, Offenlegung, Rechenschaftspflicht – und die Möglichkeit, Dinge angesichts automatisierter Entscheidungen unverzüglich richtigzustellen – gewährleisten sollen. Sie sagen, ein starkes Regulierungsrahmenwerk zum Schutz personenbezogener Daten, wie die Datenschutz-Grundverordnung der Europäischen Union, könnte dazu beitragen, die Exzesse der Datenerfassungspraktiken einzudämmen.

Hanna sagt, Tarifverhandlungen bieten eine weitere Möglichkeit, KI am Arbeitsplatz in Schach zu halten. „Wir haben gesehen, dass eine Reihe von Organisationen damit großen Erfolg hatten, wie die Writers Guild of America nach ihrem Streik im Jahr 2023“, sagt sie. „Wir haben dies auch von National Nurses United gesehen. Viele verschiedene Organisationen haben Bestimmungen in ihren Verträgen, die besagen, dass sie informiert werden müssen und sich weigern können, mit synthetischen Medien zu arbeiten, und entscheiden können, wo und wann diese im Autorenraum eingesetzt werden, wenn überhaupt, und wo sie an ihrem Arbeitsplatz existieren.“

Die Autoren raten Internetnutzern, sich auf vertrauenswürdige Quellen zu verlassen und nicht auf Textextrusionsmaschinen. Und sie sagen, Nutzer sollten bereit sein, auf „strategische Verweigerung“ zurückzugreifen – das heißt, „absolut nein“ zu sagen, wenn Technologieunternehmen sie bitten, Daten für KI-Blender bereitzustellen oder Daten von diesen zu nutzen.

Bender sagt, es hilft auch, sich über die übertriebenen Behauptungen über KI lustig zu machen – eine Strategie, die sie und Hanna „Ridicule as Praxis“ nennen.

„Es hilft dir dabei, die Gewohnheit zu entwickeln, zu denken: ‚Nein, ich muss deine lächerlichen Behauptungen nicht akzeptieren‘“, sagt Bender. „Und ich finde, sie auszulachen, ist ermutigend.“

Bender und Hanna werden heute um 19:00 Uhr PT in der Elliott Bay Book Company in Seattle und am Dienstag um 19:00 Uhr PT in Third Place Books in Lake Forest Park über „The AI Con“ sprechen. Während der Veranstaltung in Seattle werden sie die Bühne mit Anna Lauren Hoffmann teilen, einer außerordentlichen Professorin an der University of Washington, die sich mit der Ethik von Informationstechnologien befasst. Bei Third Place Books werden Bender und Hanna von Margaret Mitchell begleitet, einer Informatikerin bei Hugging Face, die sich auf maschinelles Lernen und ethisch informierte KI-Entwicklung konzentriert. Den vollständigen Veranstaltungskalender von „The AI Con“ finden Sie hier.

Meine Co-Moderatorin für den Fiction Science Podcast ist Dominica Phetteplace, eine preisgekrönte Autorin, die Absolventin des Clarion West Writers Workshop ist und in San Francisco lebt. Um mehr über Phetteplace zu erfahren, besuchen Sie ihre Website, DominicaPhetteplace.com.

Fiction Science ist in FeedSpots „100 besten Science-Fiction-Podcasts“ enthalten. Die Originalversion dieses Berichts auf Cosmic Log enthält Science-Fiction-Leseempfehlungen von Bender und Hanna. Bleiben Sie dran für zukünftige Episoden des Fiction Science Podcasts über Apple, Spotify, Player.fm, Pocket Casts und Podchaser. Wenn Ihnen Fiction Science gefällt, bewerten Sie den Podcast und abonnieren Sie ihn, um Benachrichtigungen über zukünftige Episoden zu erhalten.

Hauptkategorie:Künstliche Intelligenz

Unterkategorien:KI-EthikRegulierungsrahmenArbeitsmarktauswirkungenTechnologiekritik


Vorheriger:Google | Fehlersuche in RAG-Systemen: Ein Framework zur selektiven Generierung zur Steigerung der RAG-Genauigkeit um 10%

Nächster:ICML 2025 | Trainingsfreie, sofortige Ausrichtung großer Modellpräferenzen

Kurz-URL teilen