Olvídate de los chatbots, los agentes de IA son el futuro
Olvídate de los chatbots, los agentes de IA son el futuro
Una startup llamada Cognition AI causó revuelo al publicar una demo en la que se mostraba un programa de inteligencia artificial (IA) conocido como Devin que realizaba un trabajo que suelen hacer los ingenieros de software bien pagados. Chatbots como ChatGPT y Gemini pueden generar código, pero Devin va más allá, planificando cómo resolver un problema, escribiendo el código y luego, probándolo e implementándolo.
Los creadores de Devin lo definen como un "desarrollador de software de IA". Cuando se le pidió que probara cómo funcionaba el modelo de lenguaje de código abierto Llama 2 de Meta, cuando se accedía a él a través de diferentes empresas que lo alojaban, Devin generó paso a paso el código necesario para acceder a las API , ejecutó pruebas comparativas, y creó un sitio web que resumía los resultados.
Siempre es difícil juzgar las demostraciones por etapas, pero Cognition ha demostrado que Devin maneja una amplia gama de tareas. Ha cautivado a inversores e ingenieros en X, ha recibido numerosos apoyos e incluso ha inspirado algunos memes, como el que predice que Devin pronto será responsable de una oleada de despidos en la industria tecnológica.
Devin es solo el último y más pulido ejemplo de una tendencia que WIRED ha seguido desde hace tiempo: la aparición de agentes de IA que, en lugar de limitarse a dar respuestas o consejos sobre un problema planteado por un humano, pueden resolverlo. Hace unos meses probé Auto-GPT, un programa de código abierto que intenta realizar tareas útiles llevando a cabo acciones en el ordenador de una persona y en la web. Hace poco revisé otro programa llamado vimGPT para ver cómo las habilidades visuales de los nuevos modelos generativos pueden ayudar a estos agentes de IA a navegar de forma más eficiente.
Mis experimentos con esos agentes de IA me impresionaron. Sin embargo, por ahora, al igual que los modelos lingüísticos que los impulsan, cometen bastantes errores. Y cuando un software comete un error puede significar un fracaso total, con consecuencias potencialmente costosas o peligrosas. Por ejemplo, limitar la gama de tareas que puede realizar un agente a un conjunto específico de tareas de ingeniería parece una forma inteligente de reducir la tasa de error, pero siguen existiendo muchas formas potenciales de fallar.
No solo las startups están creando agentes de IA. El agente llamado SIMA, desarrollado por Google DeepMind, también juega videojuegos o, el realmente descabellado Goat Simulator 3. SIMA aprendió viendo a gamers hacer más de 600 tareas bastante complicadas, como talar un árbol o disparar a un asteroide. Lo más significativo es que puede realizar muchas de estas acciones con éxito incluso en un juego desconocido; lo que Google DeepMind llama "generalista".
Sospecho que Google tiene esperanzas de que estos agentes acaben trabajando fuera de los videojuegos, quizá ayudando a utilizar la web en nombre de un usuario o manejando software para él. Los videojuegos son una buena caja de arena para desarrollar agentes de IA, ya que proporcionan entornos complejos en los que se pueden probar y mejorar. “Hacerlos más precisos es algo en lo que estamos trabajando activamente. Tenemos varias ideas”, dijo Tim Harley, científico investigador de Google DeepMind.
Podemos esperar más noticias sobre agentes de IA en los próximos meses. Demis Hassabis, consejero delegado de Google DeepMind, planea combinar grandes modelos lingüísticos con el trabajo que su empresa ha realizado entrenando programas de IA para videojuegos, con el fin de desarrollar agentes más capaces y fiables. “Definitivamente es un área enorme. Estamos invirtiendo mucho en esa dirección, e imagino que otros también. Será un cambio radical en las capacidades de este tipo de sistemas, cuando empiecen a ser más parecidos a agentes”, menciona Hassabis.