Yuval Noah Harari, Autor von 'Eine Kurze Geschichte der Menschheit': Die Größte Gefahr in der Welt Heute ist, Dass Menschen Einander Nicht Vertrauen, Aber Einer KI Vertrauen, Die Millionen Mal Schneller Evolviert Als Kohlenstoffbasiertes Leben; Wir Lehnen die Wahrheit Ab, Weil Sie Teuer, Komplex und Schmerzhaft Ist

Der offizielle Kanal von Yuval Noah Harari, Autor von „Eine kurze Geschichte der Menschheit“, veröffentlichte diese Woche eine Vorlesung, die er im Frühjahr an der Keiō-Universität in Tokio gehalten hat. Der Moderator war Kohei Itoh, Präsident der Keiō-Universität. Nach dem Zeitpunkt zu urteilen, wurde die Veranstaltung wohl zur Promotion der japanischen Ausgabe seines neuen Buches „Nexus“ organisiert.

图片

Yuval Noah Harari braucht wohl keine weitere Vorstellung. Er ist ein israelischer Historiker, der eine Reihe von Bestsellern geschrieben hat, darunter „Eine kurze Geschichte der Menschheit“, „Homo Deus“ und „21 Lektionen für das 21. Jahrhundert“. In „21 Lektionen für das 21. Jahrhundert“, das vor sechs Jahren erschien, wies er auf drei große globale Bedrohungen hin: Atomkrieg, unkontrollierte Entwicklung der Biotechnologie (einschließlich Gen-Editing, das den Menschen selbst betrifft) und die außer Kontrolle geratene Informationstechnologie (IT)-Netzwerke und künstliche Intelligenz. Im Jahr 2019 über die Bedrohung durch KI zu sprechen, erschien etwas alarmierend, aber im Zeitalter der großen Modelle wirkt es im Rückblick etwas vorausschauend.

In der Vorlesung argumentierte er, dass die nuklearen und biologischen Bedrohungen der damaligen Zeit jetzt weniger riskant erscheinen, aber das KI-Risiko eine viel höhere Priorität hat. Ob er Recht hat oder nicht, Harari ist ein Mann, der seinen Worten Taten folgen lässt; laut öffentlichen Informationen hatte er bis Mai 2021 nie ein Smartphone benutzt. Wie wir bereits sagten, sprechen mehr Menschen über KI-Chancen und weniger über KI-Risiken. Bisher haben wir zu diesem Thema nur Inhalte von Hinton und Yoshua Bengio veröffentlicht.

I. Warum KI zum Thema höchster Priorität geworden ist

图片

Kohei Itoh begann mit der Frage: Warum hat Harari in seinem neuen Buch „Nexus“ den Hauptfokus auf Informationsnetzwerke und KI gelegt, und welche Überlegung lag der Anpassung der Priorität im Vergleich zur ebenfalls disruptiven Biotechnologie und der anhaltenden Bedrohung durch Atomkriege zugrunde?  

Hararis Antwort war sehr klar. Zuerst verglich er KI und Biotechnologie. Obwohl beide dramatische Veränderungen in der Welt bewirken können, übertrifft die Entwicklungsgeschwindigkeit der KI die der Biotechnologie bei weitem. Der revolutionäre Zyklus der Biotechnologie ist lang, weil „die Biologie selbst viel langsamer ist“. Er führte als Beispiel an: Die Modifizierung des menschlichen Genoms, etwa bei einem Säugling, und das Beobachten der Auswirkungen sowie darauf basierende größere Veränderungen in der Zukunft können zwanzig, dreißig oder sogar vierzig Jahre Wartezeit erfordern, um die spezifischen Auswirkungen des neuen genetischen Materials auf menschliches Verhalten, Intelligenz und Psychologie zu bewerten. Daher könnte der „Generations“-Zyklus im Bereich der Biotechnologie, insbesondere wenn es um Menschen geht, 20 bis 30 Jahre betragen. Im Gegensatz dazu ist die Iterationsgeschwindigkeit von KI erstaunlich schnell, „vielleicht nur wenige Tage“. Er stellte fest: „Die digitale Evolution ist millionenfach schneller als die organische Evolution.“ Dies bestimmt, dass die potenziellen Gefahren und Chancen der Biotechnologie zwar nicht zu unterschätzen sind, KI jedoch aufgrund ihrer rasanten Entwicklung dringlicher erscheint.   

Als nächstes verglich Harari KI mit der nuklearen Bedrohung. Er glaubt, dass es hauptsächlich zwei Gründe gibt, sich stärker auf KI zu konzentrieren. Erstens hat der Atomkrieg keinerlei positiven Sinn, daher gibt es auch keine Befürworter. Seit 1945 ist das größte Tabu im internationalen System, dass starke Nationen schwache Nationen nicht einfach nur, weil sie stark sind, angreifen, zu erobern versuchen und zerstören dürfen. Dieses Tabu ist heute gebrochen, aber zumindest ist jedem die Gefahr bewusst, „in einem Atomkrieg gibt es keine Gewinner“.  

KI hingegen ist eine komplexere Herausforderung, da sie enormes positives Potenzial besitzt, was es den Menschen erschwert, ihre potenziellen Bedrohungen vollständig zu erfassen. Harari erwähnte, dass seit den Atombombenabwürfen auf Hiroshima und Nagasaki die Gefahr der Nukleartechnologie für die Menschheit deutlich sichtbar ist und keiner weiteren Erklärung bedarf. Die Gefahr der KI ist jedoch schwer zu fassen, da es sich um eine „außerirdische Bedrohung“ (alien threat) handelt.

Er betonte: Das Kernproblem von KI liegt nicht darin, dass sie böse ist – „sie ist nicht böse“ –, sondern in ihrer „Andersartigkeit“. Sie ist eine Intelligenz, die menschliche Intelligenz in vielerlei Hinsicht übertreffen kann, aber es ist weder menschliche noch organische Intelligenz. Viele Leute fragen, wann KI menschliche Intelligenz erreichen wird, und Hararis Antwort lautet „nie“, weil sie völlig anders ist als wir. Er zog einen geschickten Vergleich: „Das ist, als würde man fragen, wann ein Flugzeug das Flugniveau eines Vogels erreicht. Die Antwort ist nie. Flugzeuge und Vögel sind völlig unterschiedlich; sie fliegen auf unterschiedliche Weise.“ Daher wird KI die menschliche Intelligenz übertreffen, aber im Wesentlichen wird sie andersartig sein, was die Vorhersage ihrer Entwicklung und ihrer Folgen extrem schwierig macht.   

Weiterhin brachte Harari einen zentralen Gedanken über KI auf, der von der breiten Öffentlichkeit am dringendsten verstanden werden muss: „Es ist kein Werkzeug (tool), es ist ein Agent (agent).“ Dies ist die erste Technologie, die die Menschheit je geschaffen hat, die als Agent und nicht nur als Werkzeug agiert. Ob es sich um Atombomben oder um friedliche Kernreaktoren zur Stromerzeugung handelt, sie sind Werkzeuge in menschlichen Händen, und die Menschen entscheiden, wie sie verwendet werden – ob zur Stromerzeugung oder zur Zerstörung von Städten, die Entscheidungsgewalt liegt beim Menschen. Die Reaktoren selbst können keine Entscheidungen treffen, geschweige denn die nächste Generation von Reaktoren oder Bomben erfinden.

Bisher konnten nur Menschen Entscheidungen treffen und neue Ideen entwickeln. KI hingegen ist die erste Technologie, die dies ohne menschliche Hilfe und Intervention tun kann. KI kann eigenständig Entscheidungen treffen. KI-Waffen benötigen keine menschlichen Befehle, um Ziele zu bestimmen, und können sogar neue Waffen und Militärstrategien erfinden. Sie besitzt enormes positives Potenzial, wie die Erfindung neuer Medikamente und die Behandlung von Krebs, aber auch enormes negatives Potenzial. Genau aus diesem Grund hat Harari beschlossen, sich in seinem neuen Buch auf die Geschichte der Informationstechnologie zu konzentrieren, weil er glaubt, dass dies im Moment die größte Herausforderung ist, vor der wir stehen, und in vielerlei Hinsicht sogar die „größte Herausforderung, der sich die Menschheit je gestellt hat“. Tausende von Jahren hat der Mensch die Erde beherrscht, und nichts auf dem Planeten konnte in Bezug auf Intelligenz und Innovationsfähigkeit mit uns konkurrieren. Doch nun ist etwas auf der Erde entstanden, das uns innerhalb weniger Jahre in Intelligenz übertreffen, unser Leben bestimmen und alles von Medikamenten bis Waffen erfinden kann. Das ist die größte Herausforderung.   

II. Kognitive Entwicklung im Laufe eines Jahrzehnts: Von der langfristigen Spekulation zur unmittelbaren Realität

Itoh bemerkte, dass Professor Harari bereits 2015 in seinem Buch „Homo Deus“ Warnungen bezüglich der Informationstechnologie und der Informationsnetzwerke ausgesprochen und ihnen besondere Aufmerksamkeit gewidmet hatte. Er fragte neugierig nach der Entwicklung von Professor Hararis Denken im Vergleich zu seinen Gedanken beim Schreiben von „Homo Deus“ vor einem Jahrzehnt. Wie war seine persönliche intellektuelle Entwicklung über diese zehn Jahre, von einem Historiker und mittelalterlichen Militärexperten hin zur Konzentration auf Informationsnetzwerke und KI?  

Harari gab zu, dass vor zehn Jahren, als er „Homo Deus“ schrieb, noch sehr wenige Menschen über KI sprachen. Natürlich hatten Insider in der Informatik, führende Unternehmen wie Google und Microsoft, bereits einige Trends vorausgesehen, und es gab einige wenige Philosophen wie Nick Bostrom (dessen Buch „Superintelligenz“ 2014 erschien), die sich damit beschäftigten. Aber zu dieser Zeit fühlte es sich an, über KI zu schreiben, als würde man über „etwas sprechen, das vielleicht in Hunderten von Jahren passieren könnte, über einige philosophische Spekulationen, die kaum direkte praktische Auswirkungen auf unser Leben hatten“.  

Heute jedoch ist KI allgegenwärtig, und ihre Entwicklungsgeschwindigkeit ist einfach „schockierend“. Harari erinnerte sich, dass es damals bereits Persönlichkeiten wie Ray Kurzweil gab, die voraussagten, dass bis Ende der 2020er Jahre, etwa 2029, die AGI (Allgemeine Künstliche Intelligenz) entstehen würde, die den Menschen in allen Bereichen übertreffen könnte, nicht nur in engen Bereichen wie Schachspielen oder Autofahren. Selbst Harari selbst dachte, als er Kurzweils Vorhersagen las: „Oh, er übertreibt, es kann nicht 2029 sein.“ Aber jetzt hält Kurzweil immer noch an der Vorhersage von 2029 fest, und er wird sogar als „einer der konservativeren Denker“ betrachtet. Hören Sie sich an, was diejenigen sagen, die die KI-Forschung in großen Unternehmen in China und den USA leiten; sie sprechen davon, AGI innerhalb von einem, fünf Jahren zu erreichen. Der Entwicklungsprozess von KI hat sich deutlich beschleunigt.   

Eine weitere signifikante Veränderung ist, dass alle Hoffnungen auf die Regulierung von KI, auf eine Art Abkommen darüber, jetzt „extrem naiv“ erscheinen. Harari glaubt, insbesondere nach der jüngsten US-Wahl, dass „die Hoffnung, ein globales Abkommen zur Bewältigung der Risiken der KI-Entwicklung zu erreichen, im Grunde zerplatzt ist“.  

Dies führt zu einem riesigen Paradox im Kern der KI-Revolution – dem Paradox des Vertrauens. Wenn Harari mit den Menschen spricht, die die KI-Revolution anführen, wie den Leitern von Unternehmen wie OpenAI, Microsoft, Tencent, Baidu, sowie wichtigen Politikern, stellt er ihnen immer zwei Fragen. Die erste Frage lautet: „Warum entwickeln Sie sich so schnell?“ Harari versteht das enorme positive Potenzial der KI, ist sich aber auch der Risiken bewusst. Deshalb schlägt er vor: „Lassen Sie uns etwas langsamer werden und der menschlichen Gesellschaft Zeit geben. Menschen sind hoch anpassungsfähige Wesen; wir können uns an das Zeitalter der KI anpassen, aber wir brauchen Zeit. Bitte geben Sie uns etwas mehr Zeit.“  

Und die Antworten dieser Führer sind fast identisch: „Wir verstehen, dass es riesige Risiken gibt, die sogar zur Ausrottung der Menschheit führen könnten. Das verstehen wir. Wir sind bereit, langsamer zu werden, aber wir können es nicht. Denn wenn wir langsamer werden und unsere Konkurrenten in anderen Unternehmen, anderen Ländern nicht langsamer werden, werden sie dieses Rennen gewinnen, und dann werden die skrupellosesten Menschen die Welt beherrschen, weil sie diese wunderbare Technologie, die KI, besitzen werden.“ Die Schlussfolgerung lautet: „Weil wir anderen Menschen nicht vertrauen können, müssen wir uns schneller entwickeln.“  

Dann stellt Harari die zweite Frage: „Glauben Sie, dass Sie der von Ihnen entwickelten Superintelligenz-KI vertrauen können?“ Ihre Antwort lautet: „Ja.“ Harari findet das unglaublich: „Die Menschen, die mir eine Minute zuvor gesagt haben, dass sie anderen Menschen nicht vertrauen können, werden plötzlich sehr vertrauensselig, und sie sagen, aber wir können der KI vertrauen.“ Er sagt offen, dass dies einfach „am Rande des Wahnsinns“ ist. Denn was Menschen betrifft, versteht er, warum gegenseitiges Vertrauen schwierig ist, aber immerhin haben wir Tausende von Jahren Erfahrung im Umgang mit anderen Menschen und verstehen ihre Psychologie und Motivationen. Wir kennen das menschliche Verlangen nach Macht gut, aber wir verstehen auch die Mechanismen, die das Streben nach Macht einschränken.

Seit Tausenden von Jahren hat der Mensch gelernt, gegenseitiges Vertrauen aufzubauen. Von der Lebensweise in kleinen Stämmen von Dutzenden von Menschen vor zehn- oder hunderttausend Jahren, die niemandem außerhalb des Stammes vertrauen konnten, bis heute, wo Nationen wie Japan Hunderte von Millionen von Bürgern haben, die einander vertrauen können. Globale Handelsnetzwerke verbinden alle 8 Milliarden Menschen auf der Erde, und die Nahrung, die wir essen, die Kleidung, die wir tragen, die Medikamente, die uns schützen, werden oft von Fremden am anderen Ende der Welt produziert. Auch wenn das Vertrauen in andere immer noch ein riesiges Problem ist, haben wir Erfahrung in diesem Bereich.  

Bei der Superintelligenz-KI haben wir jedoch „keinerlei Erfahrung“. Wir wissen nicht, welche Ziele und Tricks sie entwickeln könnten. Wir wissen nicht, was passiert, wenn Millionen von Superintelligenz-KIs miteinander und mit Millionen von Menschen interagieren. KI sollte nicht als ein großer Computer an einem Ort betrachtet werden, sondern eher als „eine globale Einwanderungswelle“. Er meint: „KI ist eine Welle von Millionen von fremden Einwanderern, die den Menschen die Arbeit wegnehmen werden, die völlig andere Vorstellungen davon haben, wie die Gesellschaft verwaltet werden soll, und die möglicherweise Staaten übernehmen werden. Das sollte die Menschen mehr erschrecken.“  

Daher liegt hier das große Paradox. Die zentrale Frage ist: „Wie können wir Vertrauen unter den Menschen aufbauen, bevor wir Superintelligenz-KI entwickeln?“  

III. Die Vertrauenskluft zwischen Eliten und der Öffentlichkeit: Wessen Elite, wem dient sie?

In Bezug auf Vertrauen führte Itoh weiter aus, dass es nicht nur um das Vertrauen zwischen Menschen und KI-Agenten geht; auch die Vertrauenskluft zwischen den sogenannten „Eliten“ und der „breiten Bevölkerung“ vergrößert sich. Ihn besorgt, inwieweit die Schriften von Professor Harari, die vielleicht eher von der „Elite-Schicht“ gelesen werden, die breite Masse beeinflussen können. Schließlich ist die Überbrückung der Kluft zwischen diesen beiden gespaltenen Gruppen von entscheidender Bedeutung.   

图片

Harari erwiderte, dass, wie viele Spaltungen, die wir in unseren Köpfen erfinden, diese Unterscheidung zwischen „Eliten“ und „dem Volk“ ebenfalls eine „falsche Dichotomie“ ist. Er nennt als Beispiel die reichsten Menschen der Welt, wie Elon Musk, und andere Milliardäre, die selbst Milliardäre sind, aber behaupten, sie seien gegen die Eliten. Harari fragt zurück: „Wenn du keine Elite bist, was ist dann eine Elite? Sind die reichsten Menschen der Welt keine Eliten? All diese Milliardäre, die jetzt die US-Regierung anführen, oh, sie sind keine Eliten. Warum?“ Er ist der Meinung, dass das Wort „Elite“ zu einem negativen Etikett geworden ist, mit dem die Menschen einfach ihre Gegner angreifen.  

Die Wahrheit ist: „Jede Gruppe hat ihre Eliten.“ Harari betont, dass die Führung jeder Gruppe, selbst eines Fußballvereins, Eliten erfordert. In der Gesellschaft wird es immer Menschen geben, die in bestimmten Bereichen talentierter sind oder mehr Macht und Einfluss haben; das ist die Essenz der menschlichen Gesellschaft. Das Problem ist nicht die Existenz von Eliten, sondern vielmehr: „Handelt es sich um eine dienende Elite (serving elite) oder eine egoistische Elite (self-serving elite)?“  

Er erklärte, dass in einer Gruppe, sei sie klein wie ein Freundeskreis oder groß wie ein ganzes Land oder sogar die Welt, wenn die einflussreichsten Personen ihre Macht nur für ihre eigenen Interessen nutzen, dies eine schreckliche Situation wäre. Die ideale Situation ist, dass diejenigen, die in bestimmten Bereichen talentierter, einflussreicher oder mächtiger sind, ihre Fähigkeiten und Macht nicht nur zum persönlichen Nutzen einsetzen, sondern zum Wohlergehen aller. Dies ist das Ziel, das angestrebt werden sollte.  

IV. Die Bildungsmission im Zeitalter der Informationsflut: Von der Wissensvermittlung zur Unterscheidung von Wahrheit

Das Gespräch weitete sich natürlich auf die Rolle der Bildung bei der Bewältigung der Herausforderungen des KI-Zeitalters aus. Itoh erwähnte die von Harari in seinem Buch beschriebene Spaltung zwischen Menschen, die im Cyberraum leben, und denen, die im physischen Raum leben, sowie das Phänomen, dass immer mehr Menschen in den Cyberraum eintauchen und sich daran gewöhnen, fragmentierte Informationen (wie Tweets unter 280 Zeichen) zu erhalten.

Besorgt fragte er: Wie sollten Hochschuleinrichtungen wie Keiō sowie die Grund- und Sekundarbildung auf diese Herausforderung reagieren, um sicherzustellen, dass jüngere Generationen immer noch in der Lage sind, lange Inhalte wie Hararis Bücher zu lesen, die zum Nachdenken anregen und Diskussionen anregen? Welche Rolle spielt die Bildung in dieser Zeit, in der der Informationszugang immer einfacher wird, aber die Fähigkeit zum tiefen Nachdenken herausgefordert ist, bei der Aufrechterhaltung des menschlichen intellektuellen Niveaus?  

Harari wies darauf hin, dass in früheren Zeiten die Kernaufgabe von Bildungseinrichtungen darin bestand, Menschen Informationen zu liefern, da Informationen knapp waren. Er beschrieb Szenarien, in denen Menschen, die in einer abgelegenen Kleinstadt lebten, vielleicht nur eine Bibliothek mit hundert Büchern hatten, was es sehr schwierig machte, überhaupt ein Buch zu bekommen. Jetzt ist die Situation genau umgekehrt; es mangelt den Menschen nicht an Informationen, sondern sie werden von einer Flut von Informationen überwältigt. Der wichtigste Punkt ist zu verstehen: „Information ist nicht Wahrheit (truth).“  

„Wahrheit ist eine sehr seltene Teilmenge der Information“, betonte Harari. Wenn man alle Informationen der Welt betrachtet, ist der Anteil der Wahrheit winzig. Die meisten Informationen sind „Müllinformationen, Fiktion, Fantasie, Lügen und Propaganda usw.“. Die Gründe sind nicht schwer zu verstehen. Erstens: „Wahrheit ist teuer, während Fiktion billig ist.“ Das Verfassen eines Tatsachenberichts erfordert Forschung, Zeit für die Analyse und Überprüfung von Fakten, was Zeit, Mühe und Geld kostet. Fiktion hingegen ist sehr billig; man schreibt einfach alles auf, was einem in den Sinn kommt.   

Zweitens: „Wahrheit ist oft komplex, weil die Realität komplex ist.“ Zum Beispiel ist das Verfassen eines Aufsatzes über Quantenphysik per se komplex. Und die Menschen mögen in der Regel keine komplexen Narrative; sie bevorzugen einfache Geschichten. Fiktion kann so einfach wie nötig gestaltet werden.   

Drittens: „Wahrheit ist oft schmerzhaft.“ Nicht immer, aber einige Teile der Realität sind tatsächlich unangenehm. Auf persönlicher Ebene ist das der Grund, warum Menschen Psychotherapie brauchen – wenn alles an einem selbst so angenehm und interessant wäre, bräuchte man keinen Therapeuten, der uns hilft, schmerzhafte Erinnerungen oder innere schmerzhafte Muster anzuerkennen. Dies gilt auch für ganze Länder; Länder wollen oft bestimmte schmerzhafte Teile ihrer Geschichte oder Gesellschaft nicht zugeben. Daher ist Wahrheit manchmal schmerzhaft, während Fiktion beliebig schön und gefällig gestaltet werden kann.   

In diesem Wettbewerb zwischen „teurer, komplexer und schmerzhafter Wahrheit“ und „billiger, einfacher und verlockender Fiktion“ gewinnt die Fiktion oft, was zu einer Welt voller fiktiver Inhalte führt. Daher besteht die Aufgabe von Institutionen wie Universitäten und Zeitungen nicht mehr nur darin, den Menschen mehr Informationen zu liefern – sie haben bereits zu viele Informationen –, sondern ihnen „eine Methode an die Hand zu geben, die seltenen Juwelen der Wahrheit im Meer der Informationen zu finden und zu wissen, wie man die beiden unterscheidet“.  

Als Historiker lehrt Harari seinen Studenten im Geschichtsunterricht hauptsächlich nicht spezifische historische Fakten aus der Vergangenheit, wie zum Beispiel, in welchem Jahr ein bestimmter König einen anderen König besiegte. Diese Informationen können die Studenten leicht durch Online-Suchen erhalten. Was sie im Geschichtsstudium wirklich lernen müssen, ist: „Wie unterscheidet man zwischen zuverlässigen und unzuverlässigen historischen Quellen?“ Eine Quelle könnte etwas sein, das ich heute im Internet gelesen habe – wie weiß ich, ob ich diesem TikTok-Video vertrauen kann? Eine Quelle könnte auch aus dem Mittelalter stammen, zum Beispiel ein tausend Jahre altes Dokument, das aufzeichnet, dass ein König behauptete, eine Schlacht gewonnen zu haben – wie entscheidest du, ob du das glauben sollst? Denn auch die Menschen vor tausend Jahren haben gelogen, nicht nur die Menschen heute. Das ist das Kernproblem.   

Natürlich wird diese Frage in jeder wissenschaftlichen Disziplin etwas anders aussehen, aber der Schlüssel liegt nicht darin, mehr Informationen zu bekommen, sondern darin, „wie unterscheiden wir zuverlässige Informationen von unzuverlässigen Informationen?“ Das Gleiche gilt für physikalische oder chemische Experimente: Wie weiß ich, ob das Experiment korrekt durchgeführt wurde und die Ergebnisse glaubwürdig sind, oder ob es Probleme gab und die Ergebnisse nicht akzeptiert werden sollten?  

V. Die Dringlichkeit, Vertrauen wiederaufzubauen: Ein Wettlauf gegen die Zeit, bevor die KI ausgereift ist

Itoh erwähnte, dass das Lesen von Hararis neuem Buch „Nexus“ zwar komplexe emotionale Erfahrungen, ja sogar Schmerz, mit sich brachte, ihm aber gleichzeitig Hoffnung gab – dass die Dinge noch nicht irreparabel sind. Die Menschen haben die Fähigkeit zur Selbstkorrektur und zur Zusammenarbeit, und wenn wir genügend Zeit haben, bevor die KI einen bestimmten kritischen Punkt erreicht, können wir vielleicht einen Weg finden, damit umzugehen. Auf dieser Überlegung basierend gründete die Keiō-Universität das „Cross Dignity Center“ mit dem Ziel, Geistes- und Sozialwissenschaftler zusammenzubringen, um diese Herausforderung gemeinsam anzugehen. Anschließend stellte er Harari eine faszinierende hypothetische Frage: „Wenn Sie ein Forscher an unserem Cross Dignity Center wären, was wäre Ihr Forschungsthema?“ und lud Harari herzlich ein, jederzeit beizutreten.  

Hararis Antwort war direkt: „Wie man Vertrauen unter Menschen aufbaut.“ Er glaubt, dies sei das „dringlichste“ Thema, da die Welt derzeit den Zerfall des menschlichen Vertrauens erlebt, und dies geschieht genau zu dem Zeitpunkt, an dem wir Vertrauen am meisten brauchen. Er betonte: „Die größte Gefahr in der Welt heute ist immer noch nicht die KI, sondern das Misstrauen unter den Menschen.“ Wenn die Menschen einander vertrauen und zusammenarbeiten könnten, könnten wir immer noch Wege entwerfen, KI sicher zu entwickeln. Gerade das Misstrauen unter den Menschen macht die KI-Revolution so gefährlich. Daher würde er sich darauf konzentrieren und glaubt, dass „es noch nicht zu spät ist, genügend menschliches gegenseitiges Vertrauen aufzubauen, um KI zu kontrollieren.“  

Wie soll man nun konkret vorgehen, um diese Herausforderung zu bewältigen? Harari glaubt, dass dies einen multidisziplinären Ansatz erfordert, und deshalb ist ein interdisziplinäres Zentrum ein idealer Ort für die Forschung, da keine einzelne Disziplin dieses Problem allein lösen kann. Wir brauchen biologische und psychologische Perspektiven, denn wir sind immer noch Tiere und müssen unser tierisches Erbe verstehen – zum Beispiel können wir viel über menschliches Verhalten lernen, wie Schimpansen Vertrauen aufbauen oder scheitern. Natürlich ist auch die Beteiligung von Wirtschaftswissenschaft und Informatik erforderlich, denn alle heutigen Gesellschaftssysteme basieren auf neuen Informationstechnologien. Viele Methoden zum Aufbau menschlichen Vertrauens, die in den letzten zehn oder zwanzig Jahren sehr erfolgreich waren, könnten heute veraltet sein, da die Menschen jetzt über Computer kommunizieren.  

Über die Gründe für den Vertrauensverlust der Menschen in den letzten ein oder zwei Jahrzehnten gibt es eine riesige Diskussion. Dies ist an sich schon ein Paradox, denn nach vielen harten Daten wie Kindersterblichkeit, Krankheiten, Hungersnöten befindet sich die menschliche Gesellschaft im besten Zustand ihrer Geschichte. Wir befinden uns in einer beispiellos optimalen Situation, doch die Menschen sind so wütend, frustriert und unfähig, miteinander zu kommunizieren. Harari glaubt, dass der Grund darin liegt, dass „eine neue Technologie zwischen die Menschen getreten ist“. Heute wird die meiste menschliche Kommunikation von einem nicht-menschlichen Agenten (gemeint sind Informationstechnologie, Social-Media-Algorithmen usw.) vermittelt, was Chaos in der Welt verursacht. Um Vertrauen wiederaufzubauen, können wir nicht in die Vergangenheit zurückkehren und einfach sagen: „Lassen Sie uns alle Smartphones und Computer wegwerfen“, das funktioniert nicht. Daher müssen wir „neu lernen, wie man Vertrauen zwischen der breiten Bevölkerung unter Vermittlung der Informationstechnologie aufbaut.“  

VI. Überbrückung von Wissenschaft und Öffentlichkeit: Klare und verständliche Ausdrucksweise und Aufbau gesellschaftlichen Einflusses

Itoh lobte die Lesbarkeit von Hararis Schriften sehr, bemerkte, dass sein Stil sich stark von typischen wissenschaftlichen Texten unterscheidet, und fragte, ob dies Hararis Absicht sei.  

Harari erklärte eindeutig: „Absolut ja.“ Er sieht seine Arbeit darin, „eine Brücke“ zwischen der Welt der wissenschaftlichen Forschung und der Öffentlichkeit zu bauen. In der Wissenschaft kommunizieren Experten normalerweise in einer Sprache miteinander, die für normale Menschen schwer zu verstehen ist. Was er anstrebt, ist, die neuesten Theorien, Modelle und Erkenntnisse aus Wissenschaft und Forschung so zu vermitteln und zu erklären, dass sie selbst von Gymnasiasten oder jedem normalen Menschen, der die KI-Revolution und die Geschichte der Information verstehen möchte, leicht verstanden werden können. Er stellt sich seine Leser als Menschen vor, die keinen Computerhintergrund haben und keine Diagramme und Gleichungen verstehen wollen, aber die KI-Revolution und die Geschichte der Information in einfacher Sprache verstehen möchten. Das ist das Ziel beim Schreiben dieses Buches.  

Was die Wirksamkeit dieser Bemühungen im Cyberraum, bei den Menschen, die „im Cyberraum leben“, betrifft, so gab Harari zu, dass dies „sehr schwer zu wissen“ sei. Ein Buch zu schreiben, es in die Welt zu bringen; es ist schwer, genau zu wissen, welchen Einfluss es auf die Menschen haben wird. Er erwähnte jedoch, dass neben seinen persönlichen Bemühungen die Verbreitung seiner Schriften auch einer Social-Impact-Firma zu verdanken ist. Vor etwa zehn Jahren, zeitgleich mit der Veröffentlichung von „Homo Deus“, gründeten er und sein Mann diese Firma. Harari ist für das Schreiben der Bücher zuständig, und sein Mann für alle Geschäftsabläufe. Sie haben ein Team von 20 Leuten, von denen einer zu dieser Zeit in Tokio war. Sie arbeiten daran, die Ideen in den Büchern über Social-Media-Accounts und andere Kanäle in weitere Medienformate umzuwandeln, um ein breiteres Publikum zu erreichen.   

„Ob das ausreicht, wissen wir nicht“, sagte Harari bescheiden. „Wir haben das Gefühl, dass jeder Mensch auf der Welt eine kleine Handlungsfähigkeit besitzt. Wir tun unser Bestes und vertrauen darauf, dass andere auch ihr Bestes geben werden.“ Er glaubt, dass niemand die Last der ganzen Welt allein tragen kann; wenn genügend Menschen in ihren jeweiligen kleinen Bereichen ihr Bestes tun, „denke ich, dass wir in Ordnung sein werden.“  

VII. Der Zusammenbruch der internationalen Ordnung und der Schatten des KI-Rennens: Reflexionen über die Trump-Ära

Da die japanische Ausgabe von Hararis neuem Buch „Nexus“ gerade erschienen ist, nutzte Itoh die Gelegenheit, Harari nach seiner Meinung zur Entwicklung der globalen Lage seit dem Führungswechsel in den USA zu fragen.   

Harari war voller Sorge. Er wies darauf hin, dass wir aufgrund der beschleunigten Erosion des Vertrauens innerhalb der Gesellschaften und zwischen ihnen den Zerfall der nach dem Zweiten Weltkrieg etablierten internationalen Ordnung beobachten. Das wichtigste Tabu und die wichtigste Regel dieser internationalen Ordnung war, dass starke Nationen schwache Nationen nicht willkürlich überfallen und erobern dürfen. Dies stand in starkem Kontrast zu den vorherigen Jahrtausenden der Menschheitsgeschichte, in denen es üblich war, dass starke Nationen ihre Nachbarn überfielen und eroberten, um größere Staaten oder Reiche zu errichten. Im frühen 21. Jahrhundert genoss die Menschheit die friedlichste und wohlhabendste Ära der Geschichte, weitgehend weil dieses Tabu aufrechterhalten wurde.

Dies spiegelt sich am deutlichsten in den Staatsbudgets wider. Über die Jahrtausende hinweg gaben die meisten Könige, Shogune und Kaiser über 50 % ihrer Budgets für das Militär aus: Soldaten, Kriegsschiffe, Burgen usw. waren die Haupteinnahmequellen des Staates. Im frühen 21. Jahrhundert sank das weltweite durchschnittliche Niveau der staatlichen Militärausgaben auf etwa 6 % oder 7 %, was eine erstaunliche Leistung war. Etwa 10 % des Budgets wurden für das Gesundheitswesen ausgegeben, was das erste Mal in der Menschheitsgeschichte war, dass Regierungen weltweit mehr in das Gesundheitswesen als in das Militär investierten.  

Diese Tendenz kehrt sich nun jedoch um. Wenn sich die Schwachen heute weigern, den Starken zu gehorchen, liegt die Schuld für den daraus resultierenden Konflikt beim Schwachen. Diese Logik ist überall sichtbar, zum Beispiel drohten die USA einst damit, Grönland zu „erobern“.

Harari warnte, dass diese Weltanschauung und Logik die gesamte Menschheit in einen Zustand ständiger Kriege zurückwerfen wird. In einer solchen Situation werden nicht nur die Budgets für Gesundheitswesen und Bildung sinken, sondern auch jede Möglichkeit zur Regulierung von KI wird verschwinden. Denn jedes Land wird sagen: „Wir müssen das KI-Rennen gewinnen. Wir werden nichts tun, was uns verlangsamen könnte, damit die andere Seite nicht gewinnt und dann stark wird und wir ihnen gehorchen müssen.“ Trotz der düsteren Aussichten vermittelt Harari in seinem Buch immer noch Hoffnung: „Solange wir diesen Punkt noch nicht erreicht haben, gibt es noch Hoffnung. Wenn genügend Menschen in den kommenden Monaten und Jahren das Richtige tun, wird die Menschheit immer noch in Ordnung sein.“  

VIII. Geschichten, Algorithmen und die Zukunft des Vertrauens: Schutz menschlicher Werte in der digitalen Flut

图片

In der Fragerunde fragte ein japanischer Student, der sich für die Unterhaltungsindustrie, insbesondere für Animations- und CG-Technologie, interessiert, Harari, wie KI die Erstellung von Unterhaltungsinhalten verändern wird. Mit der Reife der KI-Generierungstechnologien für Bilder und Videos, welche konkreten Veränderungen werden in Form und Inhalt der zukünftigen Unterhaltungsindustrie auftreten?

Harari gab offen zu, dass wir nicht genau vorhersagen können, was passieren wird, aber es ist sehr klar, dass „immer mehr Formen und Inhalte der Unterhaltung von KI kommen werden, nicht von Menschen.“ Historisch gesehen stammen alle Formen der Unterhaltung, ob Poesie, Theater, Fernsehen oder Film, aus menschlichen Köpfen und der Vorstellungskraft. Jetzt ist auf der Erde etwas entstanden, das solche Inhalte zu viel geringeren Kosten und mit viel höherer Effizienz als Menschen produzieren kann und das „die Grenzen der menschlichen Vorstellungskraft sprengen kann.“  

Denn die menschliche Vorstellungskraft ist durch die Grenzen des menschlichen Gehirns und unserer eigenen Biologie gebunden, während KI das nicht ist. Er nannte das Beispiel Go. Die berühmte Partie zwischen AlphaGo und dem Weltmeister Lee Sedol im Jahr 2016 war einer der entscheidenden Momente der KI-Revolution. Aber das Erstaunliche an dieser Partie war nicht nur, dass AlphaGo den menschlichen Weltmeister besiegte, sondern die Art und Weise, wie es gewann – es verwendete „völlig fremde Strategien“. Menschen spielen Go in Ostasien seit Tausenden von Jahren, Millionen von Menschen haben Go gespielt, und Go wird sogar als Kunstform betrachtet, um die herum ein vollständiges philosophisches System entwickelt wurde. Doch in all dieser langen Zeit, mit so vielen Menschen, hat niemand jemals daran gedacht, Go so zu spielen wie AlphaGo.  

Harari verglich dies mit einem Planeten namens „Planets Go“, auf dem es verschiedene Arten gibt, Go zu spielen. Die Menschen waren immer auf einer Insel auf „Planets Go“ gefangen und dachten, das sei der gesamte Planet. Zweitausend Jahre lang dachten sie, dies sei die einzige Art, Go zu spielen, und konnten aufgrund der Grenzen ihres Denkens diese „geistige Insel“ nicht verlassen. Dann erschien AlphaGo und zeigte völlig neue Spielweisen, was den Menschen half, völlig neue Gebiete auf „Planets Go“ zu entdecken.   

Das Gleiche wird wahrscheinlich in Bereichen wie Musik, Malerei, Theater und Fernsehen passieren, und es hat bereits begonnen. Viele Menschen versuchen jetzt, Videos mit KI zu erstellen, und das ist erst der Anfang des Prozesses. Wenn wir denken, dass die heutige KI sehr komplex ist, ist sie nichts im Vergleich zur KI in zehn Jahren. Daher wird sich die Unterhaltungsindustrie, wie andere Bereiche auch, radikal verändern, und wir können nicht genau vorhersagen, wie, weil die Essenz der KI darin besteht, dass sie eine „fremde Form von Intelligenz“ ist, und menschliche Intelligenz das Verhalten fremder Intelligenz nicht vorhersagen kann.

Wenn man alles vorhersagen kann, was eine KI tun wird, dann ist es keine KI, sondern nur eine automatische Maschine. Wie eine Kaffeemaschine: Wenn man vorhersagen kann, dass sie auf Knopfdruck einen Espresso zubereitet, dann ist es eine automatische Maschine, keine KI. Wann gilt sie dann als KI? „Wenn man sich der Maschine nähert, und selbst ohne einen Knopf zu drücken, sagt einem die Maschine: ‚Hey, ich habe heute Morgen ein neues Getränk erfunden, und ich glaube, es wird dir besser schmecken als Kaffee, und ich habe dir schon eins gemacht.‘“ Das ist KI.   

XIII. Vertrauen ist die Grundlage des Lebens und die ultimative Lösung im Zeitalter der KI

Am Ende der Veranstaltung fasste Harari die Diskussion und die Fragen des Tages zusammen. Er gab offen zu, dass viele der diskutierten Themen besorgniserregend klingen, teils weil die Unternehmen, die KI entwickeln, oft nur ihr positives Potenzial betonen, daher werden Philosophen, Historiker und Kritiker benötigt, um auf potenzielle Gefahren hinzuweisen und ein Gleichgewicht herzustellen. Allerdings besitzt KI zweifellos auch enormes positives Potenzial; sonst würde niemand diese Technologie entwickeln. Ihre Anwendungen reichen von der Medizin bis zur Verhinderung des katastrophalen Klimawandels, und das Potenzial ist real. Das Kernproblem ist nicht, wie man die Entwicklung von KI stoppt – das ist weder realistisch noch wünschenswert – wir wollen sie entwickeln, aber wir wollen dies sicher tun.   

Und der Schlüssel zur Erreichung dieses Ziels kehrt einmal mehr zum „Aufbau von Vertrauen unter Menschen“ zurück. Harari ermutigte jeden, in seinem spezifischen Bereich sein Bestes zu geben. Er versteht, dass Menschen sich manchmal von der Last der Welt erdrückt fühlen können, erinnerte aber alle daran, nicht das Gefühl zu haben, dass die ganze Welt allein auf ihren Schultern lastet; es gibt über 8 Milliarden andere Menschen auf der Erde, die diese Last mittragen, ganz zu schweigen von Tieren, Pflanzen und anderen Organismen, die alle ihren kleinen Beitrag leisten.  

Als er auf das Kernthema dieser Unterhaltung, das Vertrauen, zu sprechen kam, teilte Harari einen seiner Gedanken: „Vertrauen ist in der Tat die Grundlage des Lebens. Wenn du anderen nicht vertraust, der Außenwelt nicht vertraust, kannst du nicht einmal eine Minute leben.“ Selbst der einfache Akt des Atmens, der das Leben erhält, ist im Wesentlichen „Vertrauen in etwas außerhalb von uns“. Er beobachtete, dass viele Menschen in der heutigen Welt, einschließlich einiger der Mächtigsten, von Trennung, dem Bau von Barrieren und Mauern besessen sind. Aber tatsächlich „ist vollständige Isolation der Tod.“ In jedem Moment machen wir die einfache Geste, der Außenwelt zu vertrauen: Wir öffnen Mund oder Nase, atmen etwas von außen ein, wir vertrauen darauf und atmen es dann wieder aus. Es ist dieses Ein- und Ausatmen von Vertrauen, das das Leben erhält. Wenn du der Außenwelt nicht vertraust, und Mund und Nase verschließt, wirst du innerhalb von ein oder zwei Minuten sterben.   

„Ja, ich weiß, dass es viele Gründe gibt, sich ängstlich und besorgt zu fühlen; diese sind real und nicht eingebildet. Es gibt riesige Probleme in der Welt“, schloss Harari. „Aber letztendlich ist die Grundlage des Lebens Vertrauen.“ 

Hauptkategorie:KI und Gesellschaft

Unterkategorien:VertrauenInternationale BeziehungenBildungInformationszeitalter


Vorheriger:DeepSeek-Genauigkeit und -Effizienz verdoppelt, Huawei & IE CAS schlagen "Early Exit"-Mechanismus für Gedankenkette vor

Nächster:mem0 Bringt das Killer-MCP-Tool OpenMemory Heraus und Schafft eine Benutzerprivate, Anwendungsübergreifende Geteilte Speicherschicht

Kurz-URL teilen