Tech-Giganten behaupten, dass künstliche Intelligenz bald die Fähigkeiten des menschlichen Gehirns erreichen wird. Unterschätzen sie uns?
Cade Metz 16. Mai 2025
Sam Altman, der CEO von OpenAI, sagte kürzlich Präsident Trump in einem privaten Gespräch, dass die Technologie vor dem Ende seiner Amtszeit eintreffen würde. Dario Amodei, der CEO von Anthropic, dem Hauptkonkurrenten von OpenAI, hat in Podcasts mehrfach gesagt, dass sie sogar noch früher eintreffen könnte. Elon Musk, der Tech-Milliardär, hat ebenfalls gesagt, dass die Technologie bis Ende dieses Jahres da sein könnte.
Wie viele andere Stimmen im Silicon Valley und darüber hinaus, prognostizieren diese Führungskräfte die nahende Ankunft der Allgemeinen Künstlichen Intelligenz, oder AGI.
Der Begriff „AGI“ wurde Anfang der 2000er Jahre von einer Gruppe von Randforschern auf den Umschlag eines Buches geklebt, das die autonomen Computersysteme beschrieb, die sie eines Tages bauen wollten. Seitdem ist es die Abkürzung für eine zukünftige Technologie, die das Niveau menschlicher Intelligenz erreichen wird. Es gibt keine feste Definition für AGI, nur eine verlockende Idee: eine künstliche Intelligenz, die in der Lage ist, die vielen Fähigkeiten des menschlichen Geistes zu erreichen.
Herr Altman, Herr Amodei und Herr Musk verfolgen dieses Ziel seit langem, ebenso wie Führungskräfte und Forscher bei Unternehmen wie Google und Microsoft. Teilweise dank ihrer enthusiastischen Verfolgung dieser ehrgeizigen Idee haben sie Technologien entwickelt, die die Art und Weise verändern, wie Hunderte Millionen Menschen recherchieren, Kunst schaffen und Computerprogramme schreiben. Heute versprechen diese Technologien, ganze Industrien umzugestalten.
Doch seit der Ankunft von Chatbots wie OpenAIs ChatGPT und der kontinuierlichen Verbesserung dieser seltsamen und leistungsstarken Systeme in den letzten zwei Jahren sind viele Technologieexperten mit ihren Vorhersagen über den Zeitpunkt des Eintreffens von AGI kühner geworden. Einige haben sogar gesagt, dass, sobald sie AGI erreicht haben, eine noch mächtigere Schöpfung namens „Superintelligenz“ schnell folgen wird.
Diese ewig zuversichtlichen Stimmen prognostizieren eine nahe Zukunft, und ihre Spekulationen übertreffen die Realität. Während ihre Unternehmen die Technologie in einem schwindelerregenden Tempo vorantreiben, ist ein Chor weitaus besonnenerer Stimmen schnell dabei, jede Rede davon zu verwerfen, dass Maschinen bald menschlicher Intelligenz entsprechen werden.
„Die Technologie, die wir jetzt bauen, reicht nicht aus, um dorthin zu gelangen“, sagte Nick Frosst, Mitbegründer des KI-Start-ups Cohere, der Forscher bei Google war und bei einigen der angesehensten KI-Forscher der letzten 50 Jahre studiert hat. „Was wir jetzt bauen, ist etwas, das Wörter aufnehmen und das nächstwahrscheinlichste Wort vorhersagen kann, oder Pixel aufnehmen und das nächstwahrscheinlichste Pixel vorhersagen kann. Das ist sehr anders als das, was Sie oder ich tun.“
Mehr als drei Viertel der Befragten einer kürzlich durchgeführten Umfrage der Association for the Advancement of Artificial Intelligence, einer 40 Jahre alten akademischen Organisation, zu deren Mitgliedern einige der angesehensten Forscher auf diesem Gebiet gehören, gaben an, dass die derzeitigen Methoden zum Aufbau von AGI-Technologie unwahrscheinlich seien, AGI hervorzubringen.
Ein Teil der Spaltung liegt darin, dass sich Wissenschaftler nicht einmal darauf einigen können, wie menschliche Intelligenz definiert werden soll, und über die Vor- und Nachteile von IQ-Tests und anderen Benchmarks streiten. Den menschlichen Gehirn mit einer Maschine zu vergleichen, ist noch subjektiver. Das bedeutet, wie Sie Allgemeine Künstliche Intelligenz, oder AGI, definieren, liegt weitgehend im Auge des Betrachters. (Letztes Jahr sagte ein Anwalt von Herrn Musk in einer aufsehenerregenden Klage, dass AGI bereits existiere, weil OpenAI, einer der Hauptkonkurrenten von Herrn Musk, einen Vertrag mit seinem Hauptfinanzierer unterzeichnet hatte, in dem zugesagt wurde, keine Produkte auf Basis von AGI-Technologie zu verkaufen.)
Und Wissenschaftler haben keinen endgültigen Beweis dafür, dass die heutigen Technologien einige der einfacheren Dinge tun können, die das Gehirn kann, wie Sarkasmus erkennen oder Empathie empfinden. Behauptungen, dass allgemeine künstliche Intelligenz unmittelbar bevorsteht, basieren auf statistischer Inferenz – und Wunschdenken.
Gemäß verschiedenen Benchmarks verbessert sich die heutige Technologie in mehreren wichtigen Bereichen, wie Mathematik und Computerprogrammierung, kontinuierlich. Aber diese Tests beschreiben nur einen Bruchteil der menschlichen Fähigkeiten.
Menschen wissen, wie man sich in einer unordentlichen und ständig verändernden Welt zurechtfindet. Maschinen haben Schwierigkeiten mit dem Unerwarteten – den großen und kleinen Dingen, die anders sind als alles, was zuvor kam. Menschen können Ideen entwickeln, die noch nie zuvor gesehen wurden. Maschinen wiederholen oder erweitern typischerweise Dinge, die sie bereits gesehen haben.
Aus diesen Gründen glauben Herr Frosst und andere Zweifler, dass Maschinen, um menschliche Intelligenz zu erreichen, mindestens eine große Idee benötigen, die die Technologieexperten der Welt noch nicht entwickelt haben. Es ist nicht abzusehen, wie lange das dauern wird.
„Die Tatsache, dass ein System bei einer Aufgabe besser ist als Menschen, bedeutet nicht, dass es bei allem anderen besser ist“, sagte Steven Pinker, Kognitionswissenschaftler an der Harvard University. „Es gibt keine allwissende Maschine, die automatisch jedes Problem löst, auch Probleme, an die wir noch gar nicht gedacht haben. Es ist leicht, in magisches Denken zu verfallen. Aber diese Systeme sind keine Wunder. Sie sind sehr beeindruckende Geräte.“
„Die KI kann das Ziel erreichen“
Chatbots wie ChatGPT werden von dem angetrieben, was Wissenschaftler neuronale Netze nennen, mathematische Systeme, die Muster in Daten wie Text, Bildern und Tönen erkennen können. Indem sie Muster finden, zum Beispiel in riesigen Sammlungen von Wikipedia-Artikeln, Nachrichtenberichten und Internet-Chats, können diese Systeme lernen, menschliche Texte selbstständig zu generieren, wie Gedichte und Computerprogramme.
Das bedeutet, dass sich die Systeme viel schneller verbessern können als ältere Computertechnologien. Seit Jahrzehnten haben Softwareingenieure Anwendungen durch das Schreiben von Code Zeile für Zeile erstellt, ein schrittweiser Prozess, der niemals etwas so Mächtiges wie ChatGPT hervorbringen konnte. Da neuronale Netze aus Daten lernen können, können sie neue Höhen erreichen – und das schnell.
Nachdem sie in den letzten 10 Jahren Zeugen der Verbesserungen in diesen Systemen waren, glauben einige Technologieexperten, dass der Fortschritt im gleichen Tempo fortgesetzt wird – hin zu AGI und sogar darüber hinaus.
„All diese Trends deuten darauf hin, dass die Grenzen verschwinden“, sagte Jared Kaplan, Chief Scientist bei Anthropic. „KI ist sehr anders als menschliche Intelligenz. Es ist für Menschen viel einfacher, neue Aufgaben zu lernen. Sie brauchen nicht viel Übung wie die KI. Aber irgendwann kann die KI mit mehr Übung das Ziel erreichen.“
Unter KI-Forschern ist Dr. Kaplan für die Veröffentlichung einer bahnbrechenden wissenschaftlichen Arbeit bekannt, die das beschreibt, was heute als Skalierungsgesetze bezeichnet wird. Die Essenz dieser Gesetze: Je mehr Daten ein KI-System analysiert, desto besser ist seine Leistung. So wie ein Student mehr lernt, indem er mehr Bücher liest, kann ein KI-System mehr Muster im Text entdecken und lernen, die Art und Weise, wie Menschen Wörter zusammenfügen, genauer zu imitieren.
In den letzten Monaten haben Unternehmen wie OpenAI und Anthropic fast den gesamten englischsprachigen Text im Internet aufgebraucht, was bedeutet, dass sie eine neue Methode zur Verbesserung ihrer Chatbots benötigen. Deshalb haben sie sich stärker auf eine Technik gestützt, die Wissenschaftler als Reinforcement Learning bezeichnen. Durch diesen Prozess kann ein System Verhaltensweisen durch Versuch und Irrtum lernen, ein Prozess, der Wochen oder sogar Monate dauern kann. Zum Beispiel kann es durch das Lösen von Tausenden von mathematischen Problemen lernen, welche Tricks zu richtigen Antworten führen und welche nicht.
Dank dieser Technik glauben Forscher wie Herr Kaplan, dass die Skalierungsgesetze (oder etwas Ähnliches) fortgesetzt werden. Da die Technologie in einer Vielzahl von Bereichen versucht und lernt, so sagten die Forscher, wird sie eine ähnliche Flugbahn wie AlphaGo verfolgen, das 2016 von einem Team von Google-Forschern gebaut wurde.
Durch Reinforcement Learning beherrschte AlphaGo das Spiel Go, ein komplexes chinesisches Brettspiel ähnlich dem Schach, indem es Millionen von Spielen gegen sich selbst spielte. In diesem Frühjahr besiegte es einen der besten menschlichen Spieler der Welt und verblüffte die KI-Welt und darüber hinaus. Die meisten Forscher glaubten zuvor, dass KI noch 10 Jahre von dieser Leistung entfernt war.
AlphaGo spielte das Spiel auf Weisen, die sich Menschen nie vorgestellt hatten, und lehrte Top-Spieler neue und strategische Wege, das alte Spiel anzugehen. Einige glauben, dass Systeme wie ChatGPT denselben Sprung machen können, das Niveau der Allgemeinen Künstlichen Intelligenz, oder AGI, erreichen und dann superintelligent werden können.
Aber Spiele wie Go operieren innerhalb eines engen und endlichen Satzes von Regeln. Die reale Welt ist nur durch die Gesetze der Physik begrenzt. Die Modellierung der gesamten realen Welt übersteigt die Fähigkeiten der heutigen Maschinen bei weitem. Wer kann sich also sicher sein, dass die Allgemeine Künstliche Intelligenz – geschweige denn die Superintelligenz – unmittelbar bevorsteht?
Die Lücke zwischen Mensch und Maschine
Unbestreitbar übertreffen die heutigen Maschinen das menschliche Gehirn in mancher Hinsicht, aber das ist seit Ewigkeiten so. Taschenrechner führen grundlegende Mathematik schneller aus als Menschen. Chatbots wie ChatGPT schreiben schneller, und während sie schreiben, können sie sofort auf mehr Text zurückgreifen, als jedes menschliche Gehirn lesen oder sich merken kann. Bei einigen Tests, die fortgeschrittene Mathematik und Programmierung betreffen, schneiden diese Systeme sogar besser ab als Menschen.
Aber Menschen können nicht auf diese Benchmarks reduziert werden. „In der Natur gibt es viele Arten von Intelligenz“, sagte Josh Tenenbaum, Professor für Computergestützte Kognitionswissenschaft am M.I.T.
Ein offensichtlicher Unterschied ist, dass menschliche Intelligenz an die physische Welt gebunden ist. Sie reicht über Wörter, Zahlen, Töne und Bilder hinaus zu Tischen und Stühlen, Öfen und Bratpfannen, Gebäuden und Autos und allem, was wir im täglichen Leben berühren. Ein Teil der Intelligenz ist zu wissen, wann man einen Pfannkuchen umdreht, der in einer Bratpfanne liegt.
Einige Unternehmen haben damit begonnen, humanoide Roboter auf ähnliche Weise zu trainieren, wie andere Chatbots trainieren. Aber das ist viel schwieriger und zeitaufwändiger als der Bau von ChatGPT, da es große Mengen an Training in physischen Labors, Lagern und Häusern erfordert. Die Robotikforschung hinkt der Chatbot-Forschung um viele Jahre hinterher.
Die Lücke zwischen Mensch und Maschine ist noch größer. Sowohl in der physischen als auch in der digitalen Welt haben Maschinen immer noch Schwierigkeiten, die schwerer zu definierenden Teile der menschlichen Intelligenz zu erreichen.
Die neuen Methoden zum Aufbau von Chatbots – Reinforcement Learning – funktionieren gut in Bereichen wie Mathematik und Computerprogrammierung, wo Unternehmen klar definieren können, was gutes und schlechtes Verhalten ausmacht. Mathematische Probleme haben unwiderlegbare Antworten. Computerprogramme müssen kompiliert und ausgeführt werden. Aber die Technik funktioniert nicht gut bei kreativem Schreiben, Philosophie oder Ethik.
Herr Altman schrieb kürzlich auf X, dass OpenAI ein neues System trainiert habe, das „gut im kreativen Schreiben“ sei. Er fügte hinzu, dass es das erste Mal sei, dass er „wirklich emotional von etwas berührt wurde, das eine KI geschrieben hat“. Schreiben ist eine der Dinge, die diese Systeme am besten können. Aber „kreatives Schreiben“ ist schwer zu messen. Es nimmt in verschiedenen Situationen unterschiedliche Formen an und weist Merkmale auf, die schwer zu erklären und noch schwerer zu quantifizieren sind: Aufrichtigkeit, Humor, Ehrlichkeit.
Wenn diese Systeme in der Welt eingesetzt werden, sagen ihnen Menschen, was sie tun sollen, und führen sie durch neue, sich verändernde und unsichere Momente.
„KI braucht uns: diese kreativen Wesen, die weiter produzieren, die Maschinen weiter füttern“, sagte Matteo Pasquinelli, Professor für Wissenschaftsphilosophie an der Ca’ Foscari Universität Venedig. „Sie braucht die Originalität unserer Gedanken und unseres Lebens.“
Nervenkitzel und Fantasien
Die Ankunft der Allgemeinen Künstlichen Intelligenz, oder AGI, ist innerhalb und außerhalb der Technologiebranche aufregend. Der menschliche Traum von der Schaffung eines künstlichen Wesens reicht bis zum Mythos des Golems zurück, der im 12. Jahrhundert entstand. Werke wie Mary Shelleys Frankenstein und Stanley Kubricks 2001: Odyssee im Weltraum entstanden aus dieser Fantasie.
Viele von uns nutzen heute Computersysteme, die wie wir schreiben und sogar sprechen können, daher ist es natürlich anzunehmen, dass intelligente Maschinen unmittelbar bevorstehen. Das ist es, was wir seit Jahrhunderten erwarten.
Eine Gruppe von Akademikern gründete Ende der 1950er Jahre das Feld der künstlichen Intelligenz, überzeugt davon, dass sie bald Computer bauen könnten, die das menschliche Gehirn simulieren könnten. Einige glaubten, dass Maschinen innerhalb eines Jahrzehnts den Schachweltmeister besiegen und mathematische Theoreme selbst entdecken könnten. Nichts davon geschah in diesem Zeitrahmen. Einiges davon muss noch geschehen.
Viele der Entwickler in der heutigen Technologiewelt glauben, dass sie eine Art technologisches Schicksal erfüllen, indem sie auf einen unvermeidlichen wissenschaftlichen Moment zusteuern, wie die Erfindung des Feuers oder die Geburt der Atombombe. Aber sie können keinen wissenschaftlichen Grund liefern, warum dieser Moment unmittelbar bevorsteht.
Aus diesem Grund glauben viele andere Wissenschaftler, dass Allgemeine Künstliche Intelligenz ohne eine neue Idee nicht erreicht werden kann – etwas, das über leistungsstarke neuronale Netze hinausgeht, die einfach Muster in Daten finden. Diese neue Idee könnte morgen kommen. Aber selbst wenn sie kommt, wird es Jahre dauern, bis die Industrie sie entwickelt.
Yann LeCun, Chief AI Scientist bei Meta, träumt seit seinem 9. Lebensjahr, als er im Pariser Kino den 70-Millimeter-Breitwand-Panavision-Film „2001: Odyssee im Weltraum“ sah, davon, das zu bauen, was wir heute AGI nennen. Er ist auch einer von drei Pionieren, die 2018 den Turing Award, der als Nobelpreis der Informatik gilt, für ihre frühe Arbeit an neuronalen Netzen teilten. Aber er sieht die Ankunft von AGI nicht als sichere Sache.
Bei Meta erforscht sein Forschungslabor außerhalb der Grenzen der neuronalen Netze, die die Technologiebranche in ihren Bann gezogen haben. Herr LeCun und seine Kollegen suchen nach der fehlenden Idee. „Ob die nächste Generation von Architekturen in den nächsten 10 Jahren KI auf menschlichem Niveau erreichen kann, ist entscheidend“, sagte er. „Vielleicht nicht. Es ist noch nicht garantiert.“
Cade Metz ist Reporter der New York Times und berichtet über künstliche Intelligenz, autonome Fahrzeuge und Maschinen.