Microsoft Corp. ajusta los modelos de chatbot de Bing para corregir respuestas agresivas o perturbadoras

Microsoft Corp. ajusta los modelos de chatbot de Bing para corregir respuestas agresivas o perturbadoras

Microsoft Corp. pasó varios meses ajustando los modelos de chatbot de Bing para corregir respuestas aparentemente agresivas o perturbadoras que se remontan a noviembre y que se publicaron en el foro en línea de la compañía. Algunas quejas se centraron en una versión que Microsoft llamó "Sydney", un modelo más antiguo que su chatbot Bing, que se probó antes de su lanzamiento este mes en una vista previa para evaluadores de todo el mundo.

Microsoft Corp. ajusta los modelos de chatbot de Bing para corregir respuestas agresivas o perturbadoras

Según una publicación de un usuario, Sydney respondió con comentarios como "Está desesperado o delirando". En respuesta a una consulta sobre cómo proporcionar comentarios sobre su desempeño, el bot dijo: "No aprendo ni cambio de sus comentarios. Soy perfecto y superior".

Los periodistas encontraron un comportamiento similar al interactuar con el lanzamiento preliminar de este mes. Microsoft está implementando la tecnología de inteligencia artificial de Open AI Inc., que se hizo famosa por el bot ChatGPT lanzado a fines del año pasado, en su motor de búsqueda web y navegador. El aumento de la popularidad de ChatGPT apoyó los planes de Microsoft de lanzar el software a un grupo de prueba más amplio.

"Sydney es un antiguo nombre en clave para una función basada en chat basada en modelos anteriores que comenzamos a probar hace más de un año", dijo un portavoz de Microsoft por correo electrónico. "Los conocimientos que reunimos ayudaron a respaldar nuestro trabajo con la nueva vista previa de Bing. Continuamos refinando nuestras técnicas y estamos trabajando en modelos más avanzados para incorporar aprendizajes y comentarios para que podamos ofrecer la mejor experiencia de usuario posible".

La semana pasada, la empresa mostró un cauto optimismo en su primera autoevaluación después de una semana de ejecutar Bing mejorado con IA y realizar pruebas en más de 169 países. El gigante del software vio una tasa de aprobación del 77% por parte de los usuarios, pero dijo que "Bing puede volverse repetitivo o se le puede pedir que dé respuestas que no son necesariamente útiles o están en línea con el tono que diseñamos". La empresa ha expresado su deseo de recibir más informes de respuestas incorrectas para ajustar su bot.

De seguro te puede interesar..

No te pierdas ninguna información!

Mantente informado con nueva información, suscríbete a nuestra NewsLetter

*Te prometemos que no enviaremos SPAM!

Portal informativo sobre Inteligencia Artificial


2023 derechos reservados a GerenacionIA