Para que la inteligencia artificial pueda conversar contigo, necesita ofenderte

Para que la inteligencia artificial pueda conversar contigo, necesita ofenderte

Tay dijo cosas terribles. Fue racista, xenofóbica y directamente obscena. En determinado momento, dijo que el Holocausto no había ocurrido. Pero ella era tecnología antigua.
15 April 2018

"¿Crees que me despedirán?" "No me sorprendería si lo hicieran": ejemplo de una conversación basado en respuestas reales generadas por un sistema conversacional desarrollado en Microsoft. CreditIlustración por Minh Uong

Hace casi dos años, se dejó que Tay, un sistema experimental que creó Microsoft, anduviera suelto por internet. Estaba diseñado para charlar con hípsteres digitales usando un lenguaje relajado, pero en ocasiones irreverente, y los cibernautas estadounidenses rápidamente se percataron de que podían convencerla de utilizar  palabras desagradables y ofensivas. Este resultado se debió en esencia a un simple error de diseño —Tay fue programada para repetir lo que le dijeran—, pero el daño estaba hecho. En unas horas, Microsoft la apagó para siempre.

Desde entonces, ha surgido una nueva variedad de tecnología conversacional dentro de Microsoft y otros gigantes del internet que es mucho más astuta y eficaz que las técnicas que formaban la base de Tay. Además, los investigadores creen que estos nuevos sistemas mejorarán a un paso todavía más veloz cuando sean liberados en internet. Sin embargo, como Tay, estos sistemas conversacionales reflejan lo peor de la naturaleza humana; debido a la historia, las empresas como Microsoft están reacias a dejarlos libres —al menos por ahora—.

Estos sistemas no solo repiten lo que se les dice ni dan respuestas predeterminadas: se educan a sí mismos para poder entablar una conversación analizando con cuidado montones de diálogos de humanos reales. En Microsoft, por ejemplo, un nuevo sistema está aprendiendo a charlar al examinar miles de discusiones en línea de servicios como Twitter y Reddit. Cuando envías un mensaje al bot, este escoge una respuesta después de haber generado decenas de posibilidades y haber calificado cada una según qué tan bien refleja esas conversaciones humanas.

Si te quejas de haber sufrido una fractura de tobillo en un partido de fútbol americano, es tan astuto que te demuestra empatía. “Ay, qué mal”, podría decir. “Espero que te recuperes pronto del tobillo”. Si mencionas que invitaste a gente a la casa o que tienes planes para la cena, responde con una precisión y una naturalidad extraordinarias.

A pesar de su sofisticación, este sistema conversacional también puede ser ridículo, mal educado e incluso ofensivo en algunas ocasiones. Si mencionas al director ejecutivo de tu empresa, podría suponer que estás hablando de un hombre, pues ignora que también hay mujeres que desempeñan esos puestos. Si haces una pregunta sencilla, podrías recibir una respuesta insolente.

Los investigadores de Microsoft creen que pueden mejorar esta tecnología de una manera significativa si el sistema pudiera charlar con una gran cantidad de personas. De este modo podrían identificar sus fallas y generar datos conversacionales mucho más certeros para que el sistema aprendiera. “Es un problema que no podamos ponerlo enfrente de usuarios verdaderos, para que nos digan qué está bien y qué no”, señaló Bill Dolan, un investigador que trabaja en Microsoft desde hace tiempo.

No obstante, ahí está el dilema. Debido a que sus fallas podrían provocar quejas públicas —y mala prensa—, Microsoft no tiene la confianza de soltar esta tecnología en la red.

El proyecto representa un esfuerzo mucho mayor para crear un nuevo tipo de sistemas de cómputo que sean en verdad conversacionales. En empresas como Facebook, Amazon y Salesforce, así como en Microsoft, esperan que esta tecnología genere una interacción más fluida y relajada con las máquinas —más relajada que con un teclado y un ratón, que con una pantalla táctil, que con Siri y otros asistentes digitales que están en el mercado, a los cuales les falta mucho para entablar una conversación fluida—.

Durante años, las empresas de Silicon Valley proclamaron que los “chatbots” te iban a ayudar a, digamos, reservar tu próximo vuelo o resolver un problema con tu nueva tableta. Sin embargo, estos sistemas nunca cumplieron las expectativas, ya que ofrecían poco más que respuestas predeterminadas a consultas comunes.

En la actualidad, gracias al auge de algoritmos que pueden aprender tareas por sí solos a gran velocidad, está avanzando la investigación de la computación conversacional. No obstante, toda la industria enfrenta el mismo problema que Microsoft: la nueva variedad de chatbots habla más como un humano, pero eso no siempre es positivo.

“Es más poderosa”, comentó Alex Lebrun, quien trabaja con sistemas conversacionales parecidos en el laboratorio de inteligencia artificial que tiene Facebook en París. “Pero es más peligrosa”.

La nueva generación depende de “redes neurales”, algoritmos complejos que pueden aprender tareas identificando patrones en grandes reservas de información. Durante los últimos cinco años, estos algoritmos han acelerado la evolución de los sistemas que pueden reconocer rostros y objetos de forma automática, identificar comandos hablados en los teléfonos inteligentes y traducir de un idioma a otro. También están apurando el paso del desarrollo de sistemas conversacionales, aunque esta investigación es bastante más compleja y tomará más tiempo en madurar.

Podría provocar sorpresa que los investigadores de Microsoft estén entrenando a su sistema conversacional con diálogos de Twitter y Reddit, dos servicios de redes sociales famosos por su contenido virulento. Sin embargo, incluso en Twitter y Reddit, la gente es civilizada en general cuando conversa de verdad y estos servicios están llenos de este tipo de diálogos.

No obstante, los investigadores también deben enfrentarse a lo inesperado. A pesar de que estos sistemas conversacionales suelen ser civilizados, en ocasiones son groseros, incluso ofensivos. El problema no es solo que la tecnología sea nueva y tenga fallas. Ya que aprende de enormes cantidades de conversaciones humanas, también lo hace de los errores que cometemos y de los prejuicios que demostramos.

Lebrun estimó que, en una de cada mil respuestas, esta nueva especie de bot parlante dirá algo racista o agresivo o inapropiado de alguna manera. Los investigadores pueden arreglar estos problemas, pero necesitan reunir más y mejor información o modificar los algoritmos por medio de un proceso extremo de prueba y error.

Por esta razón, Adam Coates, un socio de la firma de capital de riesgo Khosla Ventures, quien anteriormente había supervisado el laboratorio de inteligencia artificial de Silicon Valley ligado al gigante chino del internet Baidu, advierte que crear un sistema conversacional verdadero es mucho más difícil que concebir servicios que puedan reconocer jirafas o, digamos, traducir del alemán al francés y viceversa.

“Tenemos una inmensa barrera técnica. En realidad, no sabemos cómo crear un asistente personal”, confesó Coates. “Tal vez el problema no sea reunir más datos. Es probable que nos falte una gran idea”.

¿Qué opinas de este artículo?