Expertos explican cómo los humanos pueden resistir el bombo de la IA y por qué es necesario

¿BOT o NO? Esta serie especial explora la relación en evolución entre humanos y máquinas, examinando cómo los robots, la inteligencia artificial y la automatización están impactando nuestro trabajo y nuestras vidas.

Ilustración: Un escuadrón de avatares verdes siendo retenido por una mano roja

La negativa estratégica es una de las formas de contrarrestar el bombo de la IA. (Ilustración de Bigstock / Digitalista)

No llame a ChatGPT un chatbot. Llámele un simulador de conversación. No piense en DALL-E como un creador de imágenes artísticas. En su lugar, piénselo como una máquina extrusora de medios sintéticos. De hecho, evite pensar que lo que hace la IA generativa es realmente inteligencia artificial.

Esa es parte de la receta para contrarrestar el bombo de la inteligencia artificial, según los autores de un nuevo libro titulado “The AI Con.”

“‘Inteligencia artificial’ es un término inherentemente antropomorfizante”, explica Emily M. Bender, profesora de lingüística en la Universidad de Washington, en el último episodio del podcast Fiction Science. “Vende la tecnología como más de lo que es, porque en lugar de ser un sistema para, por ejemplo, transcribir automáticamente o ajustar automáticamente los niveles de sonido en una grabación, es ‘inteligencia artificial’, y por lo tanto, podría hacer mucho más.”

En su libro y en el podcast, Bender y su coautora, Alex Hanna, señalan los defectos del marketing de la IA. Argumentan que los beneficios producidos por la IA se están exagerando, mientras que los costos se están minimizando. Y dicen que los mayores beneficios van a las empresas que venden el software, o que usan la IA como justificación para degradar el estatus de los trabajadores humanos.

“La IA no te va a quitar el trabajo, pero probablemente lo hará más mierda”, dice Hanna, socióloga y directora de investigación del Distributed AI Research Institute. “Esto se debe a que no hay muchos casos en los que estas herramientas reemplacen por completo el trabajo, pero lo que terminan haciendo es… ser imaginadas para reemplazar una gran cantidad de tareas que los trabajadores humanos están haciendo.”

Tales afirmaciones a menudo se utilizan para justificar el despido de trabajadores, y luego para “recontratarlos como trabajadores por encargo o para encontrar a alguien más en la cadena de suministro que haga ese trabajo en su lugar”, dice Hanna.

Los ejecutivos tecnológicos suelen insistir en que las herramientas de IA conducirán a saltos cuánticos en la productividad, pero Hanna señala proyecciones menos optimistas de economistas como Daron Acemoglu del MIT, quien ganó una parte del Premio Nobel de Economía del año pasado. Acemoglu estima que la ganancia anual de productividad debido a la IA será de aproximadamente el 0,05% durante los próximos 10 años.

Es más, Acemoglu dice que la IA puede traer “efectos sociales negativos”, incluyendo una creciente brecha entre el capital y el ingreso laboral. En “The AI Con”, Bender y Hanna exponen una letanía de los efectos sociales y ambientales negativos de la IA, que van desde un agotamiento de los recursos energéticos y hídricos hasta la explotación de trabajadores que entrenan modelos de IA en países como Kenia y Filipinas.

Los autores de “The AI Con”: Emily Bender (izquierda) es profesora de lingüística en la Universidad de Washington. Alex Hanna (derecha) es directora de investigación en el Distributed AI Research Institute. (Foto de Bender por Susan Doupé; Foto de Hanna por Will Toft)

Otra preocupación tiene que ver con cómo las obras literarias y artísticas son pirateadas para entrenar modelos de IA. (Divulgación completa: Mi propio libro, “El caso de Plutón”, se encuentra entre las obras que se utilizaron para entrenar el modelo Llama 3 de Meta AI). Además, existe un problema bien conocido con los grandes modelos de lenguaje que emiten información que puede sonar plausible pero que en realidad es completamente falsa. (Bender y Hanna evitan llamarlo “alucinación”, porque ese término implica la presencia de percepción).

Luego están las cuestiones que rodean los sesgos algorítmicos basados en la raza o el género. Tales cuestiones levantan banderas rojas cuando los modelos de IA se utilizan para decidir a quién contratar, a quién sentenciar a prisión, o qué áreas deben recibir más vigilancia policial. Todo esto se cubre en “The AI Con.”

Es difícil encontrar algo complementario sobre la IA en el libro.

“Nunca me oirán decir que hay cosas buenas sobre la IA, y eso no significa que esté en desacuerdo con toda esta automatización”, dice Bender. “Es solo que no creo que la IA sea una cosa. Ciertamente hay casos de uso para la automatización, incluida la automatización del reconocimiento de patrones o la coincidencia de patrones. … Eso es caso por caso, ¿verdad?”

Entre las preguntas que se deben hacer están: ¿Qué se está automatizando? ¿Cómo se construyó la herramienta de automatización? ¿Qué mano de obra se utilizó para construir esa herramienta y los trabajadores fueron justamente compensados? ¿Cómo se evaluó la herramienta y esa evaluación realmente modela la tarea que se está automatizando?

Bender dice que las aplicaciones de IA generativa no pasan su prueba.

“Uno de los más cercanos que tuve es, bueno, el diálogo con personajes no jugadores en videojuegos”, dice Bender. “Podrías tener un diálogo más vibrante si pudiera ejecutar la máquina extrusora de texto sintético. Y es ficción, así que no buscamos hechos. Pero sí buscamos un cierto tipo de verdad en las experiencias ficticias. Y ahí es donde los sesgos pueden convertirse realmente en un problema, porque si los PNJ son totalmente intolerantes, sutil o abiertamente, eso es algo malo.”

“The AI Con: Cómo luchar contra el bombo de las grandes tecnológicas y crear el futuro que queremos”, por Emily M. Bender y Alex Hanna. (Diseño de la cubierta por Kris Potter para Harper)

Además de cuidar las palabras y hacer preguntas sobre los sistemas que se están promocionando, ¿qué se debe hacer para frenar el bombo de la IA? Bender y Hanna dicen que hay espacio para nuevas regulaciones destinadas a garantizar la transparencia, la divulgación, la rendición de cuentas y la capacidad de corregir las cosas, sin demora, ante las decisiones automatizadas. Dicen que un marco regulatorio sólido para proteger los datos personales, como el Reglamento General de Protección de Datos de la Unión Europea, podría ayudar a frenar los excesos de las prácticas de recopilación de datos.

Hanna dice que la negociación colectiva proporciona otra vía para mantener a raya la IA en el lugar de trabajo. “Hemos visto a varias organizaciones lograr un gran éxito con esto, como el Gremio de Escritores de América después de su huelga en 2023”, dice. “También hemos visto esto de National Nurses United. Muchas organizaciones diferentes tienen provisiones en sus contratos que establecen que deben ser informadas y pueden negarse a trabajar con cualquier medio sintético, y pueden decidir dónde y cuándo se despliega en la sala de escritores, si es que lo hace, y dónde existe en su lugar de trabajo.”

Los autores aconsejan a los usuarios de internet que confíen en fuentes fiables en lugar de en máquinas extrusoras de texto. Y dicen que los usuarios deberían estar dispuestos a recurrir a la “negativa estratégica”, es decir, a decir “absolutamente no” cuando las empresas tecnológicas les pidan que proporcionen datos para, o que utilicen datos de, los “blenderizadores” de IA.

Bender dice que también ayuda a burlarse de las afirmaciones exageradas sobre la IA, una estrategia que ella y Hanna llaman “ridículo como praxis.”

“Te ayuda a adquirir el hábito de decir algo así como, ‘No, no tengo por qué aceptar tus afirmaciones ridículas’”, dice Bender. “Y creo que reírse de ellas te hace sentir empoderado.”

Bender y Hanna hablarán sobre “The AI Con” hoy a las 7 p.m. PT en Elliott Bay Book Company en Seattle, y el martes a las 7 p.m. PT en Third Place Books en Lake Forest Park. Durante el evento de Seattle, compartirán el escenario con Anna Lauren Hoffmann, profesora asociada de la Universidad de Washington que estudia la ética de las tecnologías de la información. En Third Place Books, Bender y Hanna estarán acompañadas por Margaret Mitchell, una científica informática de Hugging Face que se centra en el aprendizaje automático y el desarrollo de IA con ética. Consulta el calendario completo de eventos de “The AI Con”.

Mi coanfitriona del podcast Fiction Science es Dominica Phetteplace, una escritora galardonada que se graduó del Clarion West Writers Workshop y vive en San Francisco. Para obtener más información sobre Phetteplace, visite su sitio web, DominicaPhetteplace.com.

Fiction Science está incluido en la lista de los “100 Mejores Podcasts de Ciencia Ficción” de FeedSpot. Consulta la versión original de este informe en Cosmic Log para obtener recomendaciones de lectura de ciencia ficción de Bender y Hanna, y mantente atento a futuros episodios del podcast Fiction Science a través de Apple, Spotify, Player.fm, Pocket Casts y Podchaser. Si te gusta Fiction Science, califica el podcast y suscríbete para recibir alertas de futuros episodios.

Etiqueta Principal:Inteligencia Artificial

Etiquetas Secundarias:Ética de la IAMarco RegulatorioImpacto LaboralCrítica Tecnológica


Anterior:Google | Análisis de Errores en Sistemas RAG: Propuesta de un Marco de Generación Selectiva para Aumentar la Precisión de RAG en un 10%

Siguiente:ICML 2025 | Alineación instantánea de preferencias de modelos grandes sin entrenamiento

Compartir URL Corta