El bot se llama BlenderBot 3 y se puede acceder en la web. (Aunque, en este momento, parece que solo los residentes en los Estados Unidos pueden hacerlo). BlenderBot 3 es capaz de participar en charlas generales, dice Meta, pero también responder al tipo de consultas que podría hacerle a un asistente digital, “desde hablar sobre recetas de alimentos saludables hasta encontrar servicios amigables para los niños en la ciudad”.
BLENDERBOT 3 ESTÁ DISEÑADO PARA DISPARAR LA BRISA Y RESPONDER PREGUNTAS COMO GOOGLE
El bot es un prototipo y se basa en el trabajo previo de Meta con lo que se conoce como modelos de lenguaje grande o LLMS, un software de generación de texto potente, pero defectuoso del cual GPT-3 de OpenAI es el ejemplo más conocido. Al igual que todos los LLM, BlenderBot se entrena inicialmente en vastos conjuntos de datos de texto, que extrae para patrones estadísticos con el fin de generar lenguaje.
Tales sistemas han demostrado ser extremadamente flexibles y se han dado a una variedad de usos, desde generar código para programadores hasta ayudar a los autores a escribir su próximo bestseller. Sin embargo, estos modelos también tienen serios defectos: regurgitan sesgos en sus datos de entrenamiento y a menudo inventan respuestas a las preguntas de los usuarios (un gran problema si van a ser útiles como asistentes digitales).
Este último problema es algo que Meta específicamente quiere probar con BlenderBot. Una gran característica del chatbot es que es capaz de buscar en Internet para hablar sobre temas específicos. Aún más importante, los usuarios pueden hacer clic en sus respuestas para ver de dónde obtuvo su información. BlenderBot 3, en otras palabras, puede citar sus fuentes.
Al lanzar el chatbot al público en general, Meta quiere recopilar comentarios sobre los diversos problemas que enfrentan los grandes modelos de lenguaje. Los usuarios que chateen con BlenderBot podrán marcar cualquier respuesta sospechosa del sistema, y Meta dice que ha trabajado duro para “minimizar el uso de lenguaje vulgar, insultos y comentarios culturalmente insensibles por parte de los bots”. Los usuarios tendrán que optar por que se recopilen sus datos y, de ser así, sus conversaciones y comentarios serán almacenados y luego publicados por Meta para ser utilizados por la comunidad general de investigación de IA.
“Estamos comprometidos a publicar todos los datos que recopilamos en la demostración con la esperanza de que podamos mejorar la IA conversacional”, dijo Kurt Shuster, ingeniero de investigación de Meta
:no_upscale()/cdn.vox-cdn.com/uploads/chorus_asset/file/23925008/Image3__1_.jpg)
El lanzamiento de prototipos de chatbots de IA al público ha sido, históricamente, un movimiento arriesgado para las empresas de tecnología. En 2016, Microsoft lanzó un chatbot llamado Tay en Twitter que aprendió de sus interacciones con el público. Como era de esperar, los usuarios de Twitter pronto entrenaron a Tay para que regurgitara una serie de declaraciones racistas, antisemitas y misóginas. En respuesta, Microsoft desconectó el bot menos de 24 horas después.
Meta dice que el mundo de la IA ha cambiado mucho desde el mal funcionamiento de Tay y que BlenderBot tiene todo tipo de rieles de seguridad que deberían evitar que Meta repita los errores de Microsoft.
Crucialmente, dice Mary Williamson, gerente de ingeniería de investigación en Facebook AI Research (FAIR), mientras que Tay fue diseñado para aprender en tiempo real de las interacciones de los usuarios, BlenderBot es un modelo estático. Eso significa que es capaz de recordar lo que los usuarios dicen dentro de una conversación (e incluso retendrá esta información a través de las cookies del navegador si un usuario sale del programa y regresa más tarde), pero estos datos solo se utilizarán para mejorar el sistema más adelante.
“Es solo mi opinión personal, pero ese episodio [de Tay] es relativamente desafortunado, porque creó este invierno de chatbots donde todas las instituciones tenían miedo de publicar chatbots públicos para la investigación”. Williamson dice que la mayoría de los chatbots en uso hoy en día son estrechos y orientados a tareas.
“ESTA FALTA DE TOLERANCIA PARA QUE LOS BOTS DIGAN COSAS INÚTILES, EN EL SENTIDO AMPLIO DE LA MISMA, ES DESAFORTUNADA”.
Williamson dice que la mayoría de los chatbots en uso hoy en día son estrechos y orientados a tareas. Piense en los bots de servicio al cliente, por ejemplo, que a menudo solo presentan a los usuarios un árbol de diálogo preprogramado, reduciendo su consulta antes de entregarlos a un agente humano que realmente puede hacer el trabajo. El verdadero premio es construir un sistema que pueda llevar a cabo una conversación tan libre y natural como la de un humano, y Meta dice que la única forma de lograrlo es permitir que los bots tengan conversaciones libres y naturales.
“Esta falta de tolerancia para los bots que dicen cosas inútiles, en el sentido amplio de la misma, es desafortunada”, dice Williamson. “Y lo que estamos tratando de hacer es publicar esto de manera muy responsable e impulsar la investigación”.
Además de poner BlenderBot 3 en la web, Meta también está publicando el código subyacente, el conjunto de datos de entrenamiento y las variantes de modelo más pequeñas.