Google acepta reservas para hablar con su chatbot supuestamente inteligente

Únete a nuestra comunidad en Telegram

En la conferencia I/O 2022 en mayo pasado, el CEO de Google, Sundar Pichai, anunció que la compañía, en los próximos meses, aprovecharía gradualmente su modelo experimental de IA conversacional LaMDA 2 para seleccionar usuarios beta. Han llegado esos meses. El jueves, los investigadores de la división de Imteligencia artificial de Google anunciaron que los usuarios interesados pueden registrarse para explorar el modelo a medida que el acceso está cada vez más disponible.

Los lectores habituales reconocerán LaMDA como el modelo de procesamiento de lenguaje natural (PNL) supuestamente sensible por el que un investigador de Google fue despedido. Los NLP son una clase de modelo de IA diseñado para analizar el habla humana en comandos procesables y están detrás de la funcionalidad de los asistentes digitales y chatbots como Siri o Alexa, así como para hacer el trabajo pesado para la traducción en tiempo real y las aplicaciones de subtítulos. Básicamente, cada vez que hablas con una computadora, está usando tecnología de PNL para escuchar.

«Lo siento, no lo entendí del todo» es una frase que todavía persigue los sueños de muchos de los primeros usuarios de Siri, aunque en la última década la tecnología de PNL ha avanzado a un ritmo rápido. Los modelos de hoy en día están entrenados en cientos de miles de millones de parámetros, pueden traducir cientos de idiomas en tiempo real e incluso llevar las lecciones aprendidas en una conversación a través de chats posteriores.

La cocina de prueba de IA de Google permitirá a los usuarios beta experimentar y explorar las interacciones con la PNL en una caja de arena controlada, presumiblemente supervisada. Access comenzará a implementarse hoy en pequeños grupos de usuarios de Android en Estados Unidos antes de extenderse a los dispositivos iOS en las próximas semanas. El programa ofrecerá un conjunto de demostraciones guiadas que mostrarán a los usuarios las capacidades de LaMDA.

«La primera demostración, ‘Imagine It’, le permite nombrar un lugar y ofrece caminos para explorar su imaginación», escribieron Tris Warkentin, Gerente de Producto del Grupo en Google Research, y Josh Woodward, Director Senior de Gestión de Productos para Laboratorios en Google, en un blog de Google AI el jueves. «Con la demostración ‘List It’, puede compartir un objetivo o tema, y LaMDA lo dividirá en una lista de subtareas útiles. Y en la demostración de ‘Talk About It (Dogs Edition)’, puede tener una conversación divertida y abierta sobre perros y solo perros, que explora la capacidad de LaMDA para mantenerse en el tema incluso si intenta desviarse del tema «.

El enfoque en las interacciones seguras y responsables es común en una industria donde ya hay un nombre para las IA de chatbot que se vuelven completamente nazis, y ese nombre en Taye. Afortunadamente, ese incidente extremadamente vergonzoso fue una lección que Microsoft y gran parte del resto del campo de la IA se han tomado en serio, por lo que vemos restricciones tan estridentes sobre lo que los usuarios pueden conjurar Midjourney o Dall-E 2, o qué temas puede discutir Blenderbot 3 de Facebook.

Eso no quiere decir que el sistema sea infalible. «Hemos realizado rondas dedicadas de pruebas adversarias para encontrar fallas adicionales en el modelo», escribieron Warkentin y Woodward. «Reclutamos a expertos miembros del equipo rojo … que han descubierto resultados dañinos adicionales, pero sutiles». Estos incluyen no «producir una respuesta cuando se usan porque tiene dificultades para diferenciar entre indicaciones benignas y adversarias», y producir «respuestas dañinas o tóxicas basadas en sesgos en sus datos de entrenamiento». Como muchas IA en estos días están acostumbradas a hacer.

Últimas noticias