Subrevista Nature: Los humanos volvieron a perder contra la IA, especialmente cuando sabe quién eres

Imagen

Imagina que estás en un debate acalorado con un usuario en la sección de comentarios de una red social. La redacción de tu oponente es precisa, su lógica es impecable, y sus puntos dan en el blanco, llegando incluso a hacerte dudar de tu propia postura. ¿Empezarías a sospechar: podría ser esta persona, en realidad, un algoritmo de inteligencia artificial (IA)?

Aún más, si la IA te conoce muy bien, sabe tu género, edad, educación, trabajo, aficiones, etc., esta capacidad de persuasión se volverá aún más fuerte.

Esta conclusión proviene del equipo de investigación de la Escuela Politécnica Federal de Lausana (EPFL) y sus colaboradores. Descubrieron que en debates online simulados, cuando GPT-4 ajustaba sus argumentos basándose en la información personalizada de sus oponentes, fue calificado como más persuasivo que los humanos el 64% del tiempo.

El artículo de investigación relacionado, titulado On the conversational persuasiveness of GPT-4, ha sido publicado en la sub-revista Nature Human Behaviour.

Imagen

Enlace al artículo: https://www.nature.com/articles/s41562-025-02194-6

Hoy en día, a medida que las personas dependen cada vez más de los modelos de lenguaje grandes (LLM) para completar tareas, deberes, documentos e incluso terapia, es crucial que los usuarios humanos sean cautelosos con la información que reciben.

El equipo de investigación afirma:

Etiqueta Principal:Inteligencia Artificial

Etiquetas Secundarias:PersuasiónMicrotargetingDebate OnlineModelos de Lenguaje Grandes


Anterior:GitHub Lanza Nuevo Agente de Codificación

Siguiente:Entrevista con Duan Nan de Step Ahead: "Podríamos estar tocando el límite superior de la capacidad de Diffusion"

Compartir URL Corta