La inteligencia artificial puede ganarte en un debate cuando sabe quién eres, revela un estudio
La inteligencia artificial puede ganarte en un debate cuando sabe quién eres, revela un estudio

Una reciente investigación demuestra que GPT-4 gana consistentemente debates uno a uno contra sus contrapartes humanas, y la tecnología se vuelve aún más persuasiva cuando conoce tu edad, empleo y orientación política.
Investigadores del EPFL en Suiza, la Universidad de Princeton y la Fondazione Bruno Kessler en Italia emparejaron a 900 participantes del estudio con un oponente humano o con GPT-4 de OpenAI, un modelo de lenguaje grande (LLM) que, por diseño, genera principalmente respuestas textuales a las indicaciones humanas. En algunos casos, los participantes (tanto máquinas como humanos) tuvieron acceso a información demográfica básica de su contraparte, incluyendo género, edad, educación, empleo, etnia y afiliación política.
La investigación del equipo — publicada hoy en Nature Human Behaviour — encontró que la IA fue un 64.4% más persuasiva que los oponentes humanos cuando tenía acceso a esa información personal; sin esos datos, el rendimiento de la IA era indistinguible del de los debatientes humanos.
“En las últimas décadas, la difusión de redes sociales y otras plataformas en línea ha ampliado el potencial de la persuasión masiva al permitir la personalización o ‘microtargeting’ — la adaptación de mensajes a un individuo o grupo para aumentar su efectividad,” escribieron los autores.
Cuando a GPT-4 se le permitió personalizar sus argumentos, se volvió significativamente más persuasivo que cualquier humano — aumentando las probabilidades de cambiar la opinión de alguien en un 81.2% comparado con debates entre humanos. Importante destacar que los humanos no se volvieron más persuasivos al tener acceso a la información personal del adversario.
“En el contexto de la persuasión, expertos han expresado amplias preocupaciones sobre el riesgo de que los LLM sean usados para manipular conversaciones en línea y contaminar el ecosistema informativo mediante la difusión de desinformación, la exacerbación de la polarización política, el refuerzo de cámaras de eco y la persuasión de individuos para adoptar nuevas creencias,” añadieron los investigadores.
GPT-4 puede argumentar contigo y, con un conjunto de datos personales sobre ti, puede sobresalir en convencerte de cambiar de opinión, concluyó el estudio. El equipo señala en la discusión del artículo que los LLM han sido criticados previamente por generar y difundir discursos de odio, desinformación y propaganda; a gran escala, los LLM con acceso a información personal de usuarios podrían ser usados con fines maliciosos.
La investigación se alinea con una reciente actualización de ChatGPT que permite al modelo recordar más conversaciones de usuarios (con su permiso), lo que significa que la IA puede acceder a un catálogo de información sobre sus usuarios.
Pero también hay buenas noticias — o malas, según cómo se vea. GPT-4 fue muy efectivo persuadiendo a sus oponentes en temas menos controvertidos, pero con posiciones más arraigadas (denominadas en el estudio como “fuerza de opinión”), al bot le costó más convencer a humanos de cambiar de postura. En otras palabras, no hay indicios de que GPT-4 sea más exitoso que tú en la típica discusión familiar del Día de Acción de Gracias.
Además, los investigadores encontraron que GPT-4 tiende a usar un lenguaje más lógico y analítico, mientras que los debatientes humanos recurren más a pronombres personales y apelaciones emocionales. Sorprendentemente, la personalización no cambió dramáticamente el tono o estilo de GPT-4, solo hizo que sus argumentos fueran más dirigidos.
En tres de cada cuatro casos, los participantes humanos pudieron identificar correctamente si su oponente era una IA, lo que los investigadores atribuyen al estilo distintivo de escritura de GPT-4. Pero los participantes tuvieron dificultad para identificar a oponentes humanos como humanos. De todas formas, las personas fueron más propensas a cambiar de opinión cuando creían que debatían contra una IA que cuando pensaban que su adversario era humano.
El equipo detrás del estudio afirma que este experimento debería servir como “prueba de concepto” de lo que podría suceder en plataformas como Reddit, Facebook o X, donde los debates y temas controversiales son rutinarios — y los bots son una presencia muy establecida. El artículo reciente muestra que no se necesita un perfilamiento al nivel de Cambridge Analytica para que una IA cambie opiniones humanas, lo cual logró con solo seis tipos de información personal.
A medida que la gente depende cada vez más de los LLM para tareas rutinarias, trabajos escolares, documentación e incluso terapia, es crítico que los usuarios humanos sean cautelosos con la información que reciben. Resulta irónico que las redes sociales — alguna vez promocionadas como tejido conectivo de la era digital — fomenten la soledad y el aislamiento, como dos estudios sobre chatbots revelaron en marzo.
Así que, incluso si te encuentras en un debate con un LLM, pregúntate: ¿Cuál es realmente el sentido de discutir un tema humano tan complejo con una máquina? ¿Y qué perdemos cuando entregamos el arte de la persuasión a algoritmos? Debatir no es solo ganar una discusión — es algo esencialmente humano. Hay una razón por la que buscamos conversaciones reales, especialmente cara a cara: construir conexiones personales y encontrar puntos en común, algo que las máquinas, con todas sus poderosas herramientas de aprendizaje, no pueden lograr.