Yuval Noah Harari, Autor de 'Sapiens': El Mayor Peligro en el Mundo Hoy es Que los Humanos No Confíen los Unos en los Otros, Pero Sí en una IA Que Evoluciona Millones de Veces Más Rápido Que la Vida Basada en Carbono; Rechazamos la Verdad Porque Es Cara, Compleja y Dolorosa

El canal oficial de Yuval Noah Harari, autor de 'Sapiens', publicó esta semana una conferencia que dio en la Universidad de Keio en Tokio en primavera. El anfitrión fue Kohei Itoh, Presidente de la Universidad de Keio. Verificando la fecha, creo que el evento fue organizado para promocionar la edición japonesa de su nuevo libro, 'Nexus'.

图片

Yuval Noah Harari no necesita más presentación. Es un historiador israelí que ha escrito una serie de bestsellers, incluyendo 'Sapiens', 'Homo Deus' y '21 Lessons for the 21st Century'. En '21 Lessons for the 21st Century', publicado hace seis años, señaló tres grandes amenazas globales: la guerra nuclear, el desarrollo descontrolado de la biotecnología (incluyendo la edición genética que afecta a los propios humanos), y la pérdida de control de la red de tecnología de la información (TI) y la inteligencia artificial. Hablar de la amenaza de la IA en 2019 parecía un poco alarmista, pero al mirarlo de nuevo en la era de los grandes modelos, tiene un aire de presciencia.

En la conferencia, sostuvo que de las tres amenazas de aquel entonces, la amenaza nuclear y biológica ahora parecen menos riesgosas, pero el riesgo de la IA tiene una prioridad mucho mayor. Tenga razón o no, Harari es una persona coherente; según información pública, hasta mayo de 2021, nunca había usado un smartphone. Como dijimos antes, hay más gente hablando de oportunidades de IA y menos hablando de riesgos de IA. Hasta ahora, el único contenido que hemos publicado sobre este tema es de Hinton y Yoshua Bengio.

I. Por qué la IA se ha convertido en el tema de mayor prioridad

图片

Kohei Itoh comenzó planteando la pregunta: ¿Por qué Harari se centró principalmente en las redes de información y la IA en su nuevo libro, 'Nexus', y cuál fue la consideración para ajustar la prioridad en comparación con la biotecnología igualmente disruptiva y la persistente amenaza de la guerra nuclear?  

La respuesta de Harari fue muy clara. Primero comparó la IA y la biotecnología. Si bien ambas pueden traer cambios dramáticos al mundo, la velocidad del desarrollo de la IA supera con creces la de la biotecnología. El ciclo revolucionario de la biotecnología es largo porque "la biología misma es mucho más lenta". Puso un ejemplo: modificar el genoma humano, por ejemplo, en un bebé, y querer observar sus efectos y hacer cambios futuros en consecuencia, podría requerir esperar veinte o treinta, incluso cuarenta años, para evaluar los efectos específicos del nuevo material genético en el comportamiento, la inteligencia y la psicología humanos. Por lo tanto, en el campo de la biotecnología, especialmente cuando involucra a humanos, el ciclo "generacional" podría ser de 20 a 30 años. En contraste, la velocidad de iteración de la IA es asombrosamente rápida, "quizás solo unos pocos días". Señaló: "La evolución digital es millones de veces más rápida que la evolución orgánica". Esto determina que, aunque los peligros y oportunidades potenciales de la biotecnología no deben subestimarse, la IA parece más urgente debido a su rápida trayectoria de desarrollo.  

Luego, Harari comparó la IA con la amenaza nuclear. Considera que la razón principal para centrarse más en la IA es doble. En primer lugar, la guerra nuclear no tiene ningún significado positivo, por lo que no tiene partidarios. Desde 1945, el mayor tabú en el sistema internacional ha sido que las naciones fuertes no pueden simplemente invadir, intentar conquistar y destruir naciones débiles solo por ser fuertes. Este tabú ahora se ha roto, pero al menos todos entienden su peligro: "no hay ganadores en una guerra nuclear".  

La IA, por otro lado, es un desafío más complejo porque posee un potencial positivo enorme, lo que hace que sea difícil para las personas comprender completamente sus amenazas potenciales. Harari mencionó que desde los bombardeos atómicos de Hiroshima y Nagasaki, el peligro de la tecnología nuclear ha sido claramente visible para la humanidad, sin necesidad de mucha explicación. Pero el peligro de la IA es difícil de captar porque es una "amenaza alienígena" (alien threat).

Enfatizó que el problema central de la IA no es que sea malvada - "no es malvada" - sino su "alteridad". Es una inteligencia que puede superar la inteligencia humana en muchos aspectos, pero no es inteligencia humana ni inteligencia orgánica. Mucha gente pregunta cuándo la IA alcanzará el nivel de inteligencia humana, y la respuesta de Harari es "nunca", porque es completamente diferente a nosotros. Utilizó hábilmente la analogía: "Es como preguntar cuándo un avión alcanzará el nivel de vuelo de un pájaro. La respuesta es nunca. Los aviones y los pájaros son completamente diferentes; vuelan de maneras distintas". Por lo tanto, la IA superará la inteligencia humana, pero su esencia será alienígena, lo que hace que predecir su trayectoria de desarrollo y sus consecuencias sea extremadamente difícil.  

Además, Harari presentó un punto central sobre la IA que el público más necesita comprender: "No es una herramienta (tool), es un agente (agent)". Esta es la primera tecnología creada por los humanos en la historia que actúa como agente en lugar de ser simplemente una herramienta. Ya sean bombas atómicas o reactores nucleares pacíficos utilizados para generar energía, son herramientas en manos humanas, y los humanos deciden cómo usarlas, ya sea para generar electricidad o destruir ciudades; el poder de decisión reside en los humanos. Los reactores mismos no pueden tomar ninguna decisión, y mucho menos inventar la próxima generación de reactores o bombas.

Hasta ahora, solo los humanos han sido capaces de tomar decisiones y crear nuevas ideas. La IA, por otro lado, es la primera tecnología que puede hacer estas cosas sin ayuda ni intervención humana. La IA puede tomar decisiones por sí misma. Las armas de IA no necesitan instrucciones humanas para decidir sus objetivos e incluso pueden inventar nuevas armas y estrategias militares. Tiene un potencial positivo enorme, como inventar nuevos medicamentos y tratar el cáncer, y también un potencial negativo enorme. Precisamente por esto, Harari eligió centrarse en la historia de la tecnología de la información en su nuevo libro, porque cree que en este momento, este es el mayor desafío al que nos enfrentamos, y en muchos aspectos, es incluso el "mayor desafío al que la humanidad se ha enfrentado en la historia". Durante miles de años, los humanos han dominado la Tierra, y nada en el planeta podía competir con nosotros en términos de inteligencia e innovación. Pero ahora, ha surgido algo en la Tierra que puede superarnos en inteligencia en pocos años, que puede decidir nuestras vidas y que puede inventar todo, desde medicinas hasta armas. Este es el mayor desafío.  

II. Evolución cognitiva a lo largo de diez años: De la especulación a largo plazo a la realidad inminente

Itoh señaló que el profesor Harari ya había emitido advertencias y se había centrado en la tecnología y las redes de información tan pronto como en 2015 en su libro 'Homo Deus'. Curiosamente preguntó sobre la evolución del pensamiento del profesor Harari en comparación con sus ideas al escribir 'Homo Deus' hace una década. ¿Cuál ha sido su trayectoria intelectual personal a lo largo de estos diez años, pasando de ser un historiador y experto militar medieval a centrarse en las redes de información y la IA?  

Harari admitió que cuando escribió 'Homo Deus' hace diez años, muy pocas personas hablaban de IA. Por supuesto, los iniciados en informática, las empresas líderes como Google y Microsoft habían previsto algunas tendencias, y había algunos filósofos como Nick Bostrom (cuyo libro 'Superintelligence' se publicó en 2014) que lo estaban discutiendo. Pero en ese momento, escribir sobre IA se sentía más como discutir "algo que podría suceder dentro de cientos de años, alguna especulación filosófica con muy poco impacto práctico directo en nuestras vidas".  

Sin embargo, hoy en día, la IA está en todas partes, y su velocidad de desarrollo es simplemente "asombrosa". Harari recordó que en aquel entonces, ya había figuras como Ray Kurzweil que predijeron que para finales de la década de 2020, alrededor de 2029, surgiría la AGI (Inteligencia Artificial General), capaz de superar a los humanos en todas las áreas, no solo en campos estrechos como jugar ajedrez o conducir coches. Incluso el propio Harari, al leer las predicciones de Kurzweil, pensó, "Oh, está exagerando, no puede ser 2029". Pero ahora, Kurzweil sigue manteniendo la predicción de 2029, e incluso se le considera "uno de los pensadores más conservadores". Escuchen lo que dicen quienes lideran la investigación de IA en grandes empresas de China y Estados Unidos; hablan de lograr la AGI en uno o cinco años. El proceso de desarrollo de la IA se ha acelerado significativamente.  

Otro cambio significativo es que todas las esperanzas de regular la IA, de llegar a algún tipo de acuerdo al respecto, ahora parecen "extremadamente ingenuas". Harari cree que, especialmente después de las elecciones estadounidenses más recientes, "la esperanza de alcanzar un acuerdo global sobre cómo gestionar los riesgos del desarrollo de la IA básicamente se ha evaporado".  

Esto lleva a una enorme paradoja en el núcleo de la revolución de la IA: la paradoja de la confianza. Cuando Harari habla con las personas que lideran la revolución de la IA, como los jefes de empresas como OpenAI, Microsoft, Tencent, Baidu y los principales políticos, siempre les hace dos preguntas. La primera pregunta es: "¿Por qué se están desarrollando tan rápido?" Harari dice que entiende el enorme potencial positivo de la IA, pero también ve los riesgos, por lo que sugiere: "Bajemos un poco la velocidad y demos tiempo a la sociedad humana. Los humanos somos seres altamente adaptables; podemos adaptarnos a la era de la IA, pero necesitamos tiempo. Por favor, danos un poco más de tiempo".  

Y las respuestas de estos líderes son casi idénticas: "Entendemos que hay enormes riesgos, incluso que pueden llevar a la extinción humana. Lo entendemos. Estamos dispuestos a reducir la velocidad, pero no podemos. Porque si nosotros la reducimos, y nuestros competidores en otras empresas, otros países no lo hacen, ellos ganarán esta carrera, y entonces las personas más despiadadas dominarán el mundo, porque tendrán esta maravillosa tecnología, la IA". La conclusión es: "Porque no podemos confiar en otros humanos, debemos desarrollarnos más rápido".  

Luego, Harari hace la segunda pregunta: "¿Creen que pueden confiar en la IA superinteligente que están desarrollando?" Su respuesta es: "Sí". Harari encuentra esto increíble: "Las personas que hace un minuto me dijeron que no podían confiar en otros humanos, de repente se vuelven muy fáciles de confiar, y dicen, pero podemos confiar en la IA". Dice francamente que esto está simplemente "al borde de la locura". Porque en cuanto a los humanos, entiende por qué es difícil confiar unos en otros, pero después de todo, tenemos miles de años de experiencia tratando con otros humanos, entendiendo su psicología y motivaciones. Conocemos bien el deseo humano de poder, pero también entendemos los mecanismos que restringen la búsqueda de poder.

Durante miles de años, los humanos han desarrollado formas de aprender la confianza mutua. Desde vivir en pequeñas tribus de docenas de personas hace diez mil o cien mil años, incapaces de confiar en nadie fuera de la tribu, hasta hoy, naciones como Japón tienen cientos de millones de ciudadanos que pueden confiar entre sí. Las redes comerciales globales conectan a los 8 mil millones de personas en la Tierra, y la comida que comemos, la ropa que vestimos, las medicinas que nos protegen a menudo son producidas por extraños al otro lado del mundo. Por lo tanto, aunque confiar en los demás sigue siendo un problema enorme, tenemos experiencia en esta área.  

Sin embargo, cuando se trata de IA superinteligente, no tenemos "ninguna experiencia". No sabemos qué tipo de objetivos y trucos podrían desarrollar. No sabemos qué sucederá cuando millones de IAs superinteligentes interactúen entre sí y con millones de humanos. La IA no debe verse como una gran computadora en un solo lugar, sino más bien como "una ola global de inmigración". Él cree: "La IA es una ola de millones de inmigrantes alienígenas que les quitarán el trabajo a las personas, que tendrán ideas completamente diferentes sobre cómo debe gestionarse la sociedad y que pueden tomar el control de los países. Esto debería asustar más a la gente".  

Por lo tanto, esta es la gran paradoja. La pregunta central es: "¿Cómo podemos construir confianza entre los humanos antes de desarrollar IA superinteligente?"  

III. La brecha de confianza entre las élites y el público: ¿De quién es la élite, a quién sirve?

Hablando de confianza, Itoh profundizó, señalando que no se trata solo de la confianza entre humanos y agentes de IA; la brecha de confianza entre las llamadas "élites" y la "gente común" también se está ampliando. Le preocupa hasta qué punto los escritos del profesor Harari, que quizás son más leídos por la "clase élite", pueden influir en el público en general. Después de todo, cerrar la brecha entre estos dos grupos divididos es crucial.  

图片

Harari respondió que, como muchas divisiones que inventamos en nuestras mentes, esta división entre "élites" y "el pueblo" también es una "falsa dicotomía". Pone el ejemplo de las personas más ricas del mundo, como Elon Musk, y otros multimillonarios, que son ellos mismos multimillonarios pero afirman estar en contra de las élites. Harari replica: "Si tú no eres una élite, ¿entonces qué es una élite? ¿No son las personas más ricas del mundo élites? Todos estos multimillonarios que ahora están a cargo del gobierno de Estados Unidos, oh, no son élites. ¿Por qué?" Él cree que la palabra "élite" se ha convertido en una etiqueta negativa que la gente simplemente usa para atacar a sus oponentes.  

La verdad es que "cada grupo tiene sus élites". Harari enfatiza que gestionar cualquier grupo, incluso un club de fútbol, requiere élites. Siempre habrá algunas personas en la sociedad que tengan más talento en ciertas áreas, o que tengan más poder e influencia; esta es la esencia de la sociedad humana. La pregunta no es sobre la existencia de élites, sino más bien: "¿Es esta una élite servicial (serving elite) o una élite egoísta (self-serving elite)?"  

Explicó que en un grupo, ya sea tan pequeño como un círculo de amigos, o tan grande como un país entero o incluso el mundo, si aquellos con mayor influencia usan su poder solo para su propio beneficio, será una situación terrible. La situación ideal es que aquellos con más talento, influencia o poder en áreas específicas utilicen sus habilidades y poder no solo para beneficio personal, sino para el bienestar de todos. Este es el objetivo que debe perseguirse.  

IV. La misión educativa en la era del diluvio de información: De la transmisión de conocimientos a la distinción de la verdad

La conversación se extendió naturalmente al papel de la educación para abordar los desafíos de la era de la IA. Itoh mencionó la división que Harari discutió en su libro entre las personas que viven en el ciberespacio y el espacio físico, y el fenómeno de que cada vez más personas se sumergen en el ciberespacio, acostumbrándose a recibir información fragmentada (como tuits de menos de 280 caracteres).

Con preocupación preguntó: ¿Cómo deben responder instituciones de educación superior como Keio, así como la educación primaria y secundaria, a este desafío para garantizar que las generaciones más jóvenes aún tengan la capacidad de leer contenido extenso que invita a la reflexión y estimula el debate, como los libros de Harari? En esta era en la que la información es cada vez más accesible pero la capacidad de pensamiento profundo se ve desafiada, ¿qué papel juega la educación en el mantenimiento de los estándares intelectuales humanos?  

Harari señaló que en épocas anteriores, la tarea central de las instituciones educativas era proporcionar información a las personas porque la información era escasa. Describió escenarios en los que las personas que vivían en un pequeño pueblo remoto podían tener una biblioteca con solo cien libros, lo que hacía muy difícil obtener incluso uno. Ahora, la situación es exactamente la opuesta; a la gente no le falta información, sino que está abrumada por un diluvio de información. El punto más crucial es comprender: "La información no es verdad".  

"La verdad es un subconjunto muy raro de información", enfatizó Harari. Si observas toda la información del mundo, la proporción de verdad es minúscula. La mayor parte de la información es "información basura, ficción, fantasía, mentiras, propaganda, etc.". Las razones no son difíciles de entender. En primer lugar, "la verdad es cara, mientras que la ficción es barata". Escribir un relato fáctico requiere investigación, pasar tiempo analizando y verificando hechos, lo que lleva tiempo, esfuerzo y dinero. La ficción, por otro lado, es muy barata; simplemente escribes lo que se te ocurra.   

En segundo lugar, "la verdad a menudo es compleja porque la realidad es compleja". Por ejemplo, escribir un ensayo sobre física cuántica es inherentemente complejo. Y a la gente generalmente no le gustan las narrativas complejas; prefieren historias simples. La ficción se puede hacer tan simple como sea necesario.   

Finalmente, "la verdad a menudo es dolorosa". No siempre, pero algunas partes de la realidad son de hecho incómodas. A nivel personal, esta es la razón por la que la gente necesita psicoterapia: si todo sobre uno mismo fuera tan placentero e interesante, no habría necesidad de un terapeuta que nos ayudara a reconocer recuerdos dolorosos o patrones internos dolorosos. Esto también se aplica a países enteros; los países a menudo no quieren admitir ciertas partes dolorosas de su historia o sociedad. Por lo tanto, la verdad a veces es dolorosa, mientras que la ficción puede ser moldeada para ser tan hermosa y agradable como se desee.   

En esta competencia entre la "verdad cara, compleja y dolorosa" y la "ficción barata, simple y tentadora", la ficción a menudo gana, lo que lleva a un mundo inundado de contenido ficticio. Por lo tanto, la tarea de instituciones como universidades y periódicos ya no es solo proporcionar más información a las personas - ya tienen demasiada información - sino "proporcionarles un método para encontrar esas raras gemas de verdad en el océano de información, y saber cómo distinguir entre las dos".  

Como historiador, lo principal que Harari enseña a sus estudiantes en clase de historia no son hechos históricos específicos del pasado, como en qué año un rey determinado derrotó a otro rey. Los estudiantes pueden obtener esta información fácilmente a través de búsquedas en línea. Lo que realmente necesitan aprender en el departamento de historia es: "Cómo distinguir entre fuentes históricas confiables e no confiables". Una fuente podría ser algo que leí hoy en internet; ¿cómo sé si puedo confiar en este video de TikTok? Una fuente también podría provenir de la Edad Media, como un documento de hace mil años que registra a un rey afirmando haber ganado una batalla; ¿cómo decides si debes creerlo? Porque la gente hace mil años también mentía, no solo la gente de hoy. Este es el problema central.   

Por supuesto, en cada disciplina científica, esta pregunta será ligeramente diferente, pero la clave no está en obtener más información, sino en "¿cómo distinguimos entre información confiable e no confiable?" Lo mismo se aplica a los experimentos de física o química: ¿cómo sé si el experimento se realizó correctamente y los resultados son creíbles, o si hubo problemas y los resultados no deberían aceptarse?  

V. La urgencia de reconstruir la confianza: Una carrera contra el tiempo antes de que la IA madure

Itoh mencionó que la lectura del nuevo libro de Harari (Nexus), si bien trajo experiencias emocionales complejas, incluso algo de dolor, también le dio esperanza: que las cosas aún no están irreparables. Los humanos tienen la capacidad de autocorregirse y cooperar, y si tenemos suficiente tiempo antes de que la IA alcance un cierto punto crítico, quizás podamos encontrar una manera de hacer frente. Fue basándose en esta consideración que la Universidad de Keio estableció el "Centro Cruz Dignidad" (Cross Dignity Center), destinado a reunir a académicos de humanidades y ciencias sociales para abordar conjuntamente este desafío. Luego, lanzó una interesante pregunta hipotética a Harari: "Si usted fuera un investigador en nuestro Centro Cruz Dignidad, ¿cuál sería su tema de investigación?" y lo invitó calurosamente a unirse en cualquier momento.  

La respuesta de Harari fue directa: "Cómo construir confianza entre los humanos". Él cree que este es el tema "más urgente", porque el mundo está presenciando actualmente la erosión de la confianza humana, y esto está sucediendo precisamente cuando más necesitamos la confianza. Enfatizó: "El mayor peligro en el mundo hoy en día sigue sin ser la IA, sino la falta de confianza entre los humanos". Si los humanos pudieran confiar entre sí y cooperar, aún podríamos diseñar formas de desarrollar la IA de manera segura. Es la falta de confianza entre los humanos lo que hace que la revolución de la IA sea tan peligrosa. Por lo tanto, se centraría en esto y cree que "aún no es demasiado tarde para construir suficiente confianza mutua humana para controlar la IA".  

Entonces, ¿cómo debemos abordar exactamente este desafío? Harari cree que requiere un esfuerzo multidisciplinario, y por eso un centro interdisciplinario es un lugar ideal para la investigación, porque ninguna disciplina única puede resolver este problema por sí sola. Necesitamos perspectivas de la biología y la psicología, porque todavía somos animales y necesitamos comprender nuestra herencia animal; por ejemplo, podemos aprender mucho sobre el comportamiento humano de cómo los chimpancés construyen o no construyen confianza. Por supuesto, también se necesita la participación de la economía y la informática, porque todos los sistemas sociales actuales se basan en nuevas tecnologías de la información. Muchos métodos para construir la confianza humana que tuvieron mucho éxito en las últimas una o dos décadas pueden estar ahora obsoletos, porque ahora los humanos se comunican a través de computadoras.  

Existe mucha discusión sobre las razones del colapso de la confianza humana en las últimas una o dos décadas. Esto es en sí mismo una paradoja, porque según muchos datos objetivos, como la mortalidad infantil, las enfermedades y el hambre, la sociedad humana se encuentra en el mejor estado de su historia. Nos encontramos en una situación óptima sin precedentes, sin embargo, la gente está tan enojada, frustrada e incapaz de comunicarse entre sí. Harari cree que la razón es que "una nueva tecnología ha intervenido entre los humanos". Ahora, la mayor parte de la comunicación humana está mediada por un agente no humano (refiriéndose a la tecnología de la información, algoritmos de redes sociales, etc.), lo que está causando caos en el mundo. Para reconstruir la confianza, no podemos retroceder en el tiempo y simplemente decir: "Deshagámonos de todos los smartphones y ordenadores"; eso no funcionará. Por lo tanto, necesitamos "volver a aprender cómo construir confianza entre el público en general bajo la mediación de la tecnología de la información".  

VI. Cerrando la brecha entre academia y público: Expresión clara y comprensible y construcción de influencia social

Itoh elogió mucho la legibilidad de los escritos de Harari, señalando que su estilo es muy diferente de la escritura académica típica, y preguntó si esto fue intencional.  

Harari declaró claramente que fue "absolutamente" intencional. Considera su trabajo como "construir un puente" entre el mundo de la investigación académica y el público. La academia suele implicar que los expertos se comunican entre sí en un lenguaje que las personas comunes encuentran difícil de entender. Lo que él se esfuerza por hacer es transmitir y explicar las últimas teorías, modelos y hallazgos de las comunidades académicas y científicas de una manera que pueda ser fácilmente comprendida incluso por estudiantes de secundaria o cualquier persona común que quiera entender la revolución de la IA y la historia de la información. Él concibe a sus lectores como personas que no tienen formación en informática y no quieren entender varios gráficos y ecuaciones, pero esperan comprender la revolución de la IA y la historia de la información en un lenguaje sencillo. Este es el objetivo al escribir este libro.  

En cuanto a la efectividad de estos esfuerzos en el ciberespacio, entre las personas que "viven en el ciberespacio", Harari admitió que es "muy difícil de saber". Escribir un libro y lanzarlo al mundo; es difícil saber exactamente qué impacto tendrá en las personas. Sin embargo, mencionó que además de sus esfuerzos personales, la difusión de sus escritos también se beneficia de una empresa de impacto social. Hace unos diez años, al mismo tiempo que se publicó 'Homo Deus', él y su esposo cofundaron esta empresa. Harari se encarga de escribir los libros y su esposo se encarga de todas las operaciones comerciales. Tienen un equipo de 20 personas, una de las cuales estaba en Tokio en ese momento. A través de cuentas de redes sociales y otros canales, trabajan para transformar las ideas de los libros en más formatos de medios para llegar a una audiencia más amplia.  

"Si esto es suficiente, no lo sabemos", dijo Harari humildemente. "Sentimos que cada persona en el mundo tiene una pequeña agencia. Hacemos nuestro mejor esfuerzo y confiamos en que otros también harán lo suyo". Él cree que nadie puede cargar con el peso del mundo entero solo; si suficientes personas hacen lo mejor en sus respectivas pequeñas áreas, "creo que estaremos bien".  

VII. El colapso del orden internacional y la sombra de la carrera de la IA: Reflexiones sobre la era Trump

Dado que la edición japonesa del nuevo libro de Harari, 'Nexus', acaba de ser lanzada, Itoh también aprovechó para preguntarle a Harari su opinión sobre el desarrollo de la situación global desde el cambio en el liderazgo estadounidense.  

Harari estaba lleno de preocupación. Señaló que, debido a la erosión acelerada de la confianza dentro de las sociedades y entre ellas, estamos viendo el colapso del orden internacional establecido después de la Segunda Guerra Mundial. El tabú y la regla más importantes de este orden internacional era que las naciones fuertes no debían invadir y conquistar arbitrariamente a las naciones débiles. Esto contrastaba marcadamente con los miles de años anteriores de historia humana, en los que era algo común que las naciones fuertes invadieran y conquistaran a sus vecinos para establecer estados o imperios más grandes. A principios del siglo XXI, la humanidad disfrutó de la era más pacífica y próspera de la historia, en gran parte porque se mantuvo este tabú.

Esto se refleja más claramente en los presupuestos gubernamentales. A lo largo de la historia, la gran mayoría de los reyes, shogunes y emperadores gastaron más del 50% de sus presupuestos en el ejército: soldados, buques de guerra, castillos, etc. eran los principales gastos del gobierno. A principios del siglo XXI, el nivel promedio mundial de gasto militar gubernamental se redujo a aproximadamente el 6% o 7%, lo cual fue un logro asombroso. Aproximadamente el 10% del presupuesto se destinó a la atención médica, lo cual fue la primera vez en la historia humana que los gobiernos de todo el mundo invirtieron más en atención médica que en el ejército.  

Sin embargo, esta tendencia se está revirtiendo ahora. Si el débil se niega a obedecer al fuerte, la culpa del conflicto resultante recae en el débil. Esta lógica se ve en todas partes, por ejemplo, Estados Unidos llegó a amenazar con "conquistar" Groenlandia.

Harari advirtió que esta cosmovisión y lógica arrastrará a toda la humanidad de vuelta a un estado de guerra perpetua. En tal situación, no solo disminuirán los presupuestos de salud y educación, sino que también cesará cualquier oportunidad de regular la IA. Porque cada país dirá: "Debemos ganar la carrera de la IA. No haremos nada que pueda ralentizarnos, no sea que el otro lado gane y luego ellos se conviertan en fuertes y tengamos que obedecerles". A pesar del sombrío panorama, Harari aún transmite esperanza en su libro: "Mientras no hayamos llegado a ese punto, todavía hay esperanza. Si suficientes personas hacen lo correcto en los próximos meses y años, la humanidad aún estará bien".  

VIII. Historias, algoritmos y el futuro de la confianza: Salvaguardando los valores humanos en el diluvio digital

图片

En la sesión de preguntas y respuestas, un estudiante japonés interesado en la industria del entretenimiento, particularmente en animación y tecnología CG, preguntó a Harari sobre cómo la IA cambiará la creación de contenido de entretenimiento. A medida que las tecnologías de generación de imágenes y videos con IA maduran, ¿qué cambios específicos ocurrirán en la forma y el contenido de la futura industria del entretenimiento?

Harari admitió francamente que no podemos predecir exactamente qué sucederá, pero está muy claro que "cada vez más formas y contenidos de entretenimiento provendrán de la IA, no de los humanos". Históricamente, todas las formas de entretenimiento, ya sea poesía, drama, televisión o cine, se originaron en las mentes e imaginación humanas. Ahora, ha surgido algo en la Tierra que puede producir este tipo de contenido a un costo mucho menor y una eficiencia mucho mayor que los humanos, y que puede "romper las limitaciones de la imaginación humana".  

Porque la imaginación humana está ligada por las limitaciones del cerebro humano y nuestra propia biología, mientras que la IA no. Puso el ejemplo del Go. La famosa partida entre AlphaGo y el campeón mundial Lee Sedol en 2016 fue uno de los momentos decisivos de la revolución de la IA. Pero lo asombroso de esa partida no fue solo que AlphaGo derrotó al campeón mundial humano, sino la forma en que ganó: adoptó "estrategias completamente alienígenas". Los humanos han estado jugando Go en el este de Asia durante miles de años, millones de personas han jugado Go, e incluso se considera una forma de arte con todo un sistema filosófico desarrollado a su alrededor. Sin embargo, en un período tan largo, con tanta gente, nadie jamás había pensado en jugar Go como lo hizo AlphaGo.  

Harari comparó esto con un planeta llamado "Planetas Go", donde hay varias formas de jugar Go. Los humanos siempre han estado atrapados en una isla en "Planetas Go", pensando que eso era todo el planeta. Durante dos mil años, pensaron que esa era la única forma de jugar Go, y debido a las limitaciones de su pensamiento, no pudieron abandonar esta "isla mental". Luego apareció AlphaGo y demostró formas completamente nuevas de jugar, ayudando a los humanos a descubrir áreas completamente nuevas en "Planetas Go".  

Es muy probable que ocurra lo mismo en campos como la música, la pintura, el teatro y la televisión, y de hecho ya ha comenzado. Mucha gente está intentando ahora crear videos usando IA, y esto es solo el comienzo del proceso. Si pensamos que la IA de hoy es muy compleja, no es nada comparada con la IA de dentro de diez años. Por lo tanto, al igual que en otros campos, la industria del entretenimiento también experimentará un cambio radical, y no podemos predecir exactamente cómo, porque la esencia de la IA es que es una "forma alienígena de inteligencia", y la inteligencia humana no puede predecir el comportamiento de la inteligencia alienígena.

Si puedes predecir todo lo que va a hacer una IA, entonces no es IA, es solo una máquina automática. Como una máquina de café, si puedes predecir que al pulsar un botón hará un espresso, entonces es una máquina automática, no IA. Entonces, ¿cuándo se considera IA? "Cuando te acercas a la máquina, e incluso sin pulsar ningún botón, la máquina te dice: 'Oye, he inventado una bebida nueva esta mañana, y creo que te gustará más que el café, y ya te he preparado una'." Eso es IA.   

XIII. La confianza es la base de la vida, y la solución definitiva en la era de la IA

Al final del evento, Harari resumió la discusión y las preguntas y respuestas del día. Admitió francamente que muchos de los temas discutidos suenan preocupantes, en parte porque las empresas que desarrollan IA a menudo solo enfatizan su potencial positivo, por lo que se necesitan filósofos, historiadores y críticos para señalar los peligros potenciales y buscar un equilibrio. Sin embargo, la IA indudablemente también tiene un enorme potencial positivo; de lo contrario, nadie desarrollaría esta tecnología. Sus aplicaciones van desde la medicina hasta la prevención del cambio climático catastrófico, y el potencial es real. La cuestión clave no es cómo detener el desarrollo de la IA, lo cual no es ni realista ni deseable; queremos desarrollarla, pero queremos hacerlo de manera segura.  

Y la clave para lograr este objetivo, una vez más, vuelve a "construir confianza entre los humanos". Harari alentó a todos a hacer su mejor esfuerzo en sus áreas específicas. Entiende que las personas a veces pueden sentirse abrumadas por el peso del mundo, pero recordó a todos que no sientan que el mundo entero descansa solo sobre sus hombros; hay más de 8 mil millones de otras personas en la Tierra compartiendo este peso, sin mencionar a los animales, las plantas y otros organismos, cada uno haciendo su pequeña parte.  

Hablando del tema central de esta conversación, la confianza, Harari compartió una reflexión propia: "La confianza es de hecho la base de la vida. Si no confías en los demás, si no confías en el mundo exterior, no puedes vivir ni un minuto". Incluso el simple acto de respirar, que sostiene la vida, es esencialmente "confianza en algo fuera de nosotros". Observó que muchas personas en el mundo hoy en día, incluyendo algunas de las más poderosas, están obsesionadas con la separación, construyendo barreras y muros. Pero de hecho, "el aislamiento completo es la muerte". En cada momento, hacemos el simple gesto de confiar en el mundo exterior: abrimos la boca o la nariz, inhalamos algo del exterior, lo confiamos y luego lo exhalamos. Es esta inhalación y exhalación de confianza lo que mantiene la vida. Si no confías en el mundo exterior y te tapas la boca y la nariz, morirás en uno o dos minutos.   

"Sí, sé que hay muchas razones para sentir ansiedad y miedo; estas son reales y no imaginarias. Hay problemas enormes en el mundo", concluyó Harari. "Pero en última instancia, la base de la vida es la confianza". 

Etiqueta Principal:IA y Sociedad

Etiquetas Secundarias:ConfianzaRelaciones InternacionalesEducaciónEra de la Información


Anterior:La precisión y eficiencia de DeepSeek mejoran, Huawei y el Instituto de Ingeniería de la Información proponen un mecanismo de "salida temprana" en la cadena de pensamiento

Siguiente:mem0 Lanza la Herramienta MCP Increíble OpenMemory, Creando una Capa de Memoria Compartida Privada y Multiplataforma para el Usuario

Compartir URL Corta