Microsoft busca domar chatbot de IA de su buscador Bing

393
El logotipo del buscador Bing de Microsoft en la pantalla de un dispositivo en Nueva York, el martes 7 de febrero de 2023. (AP Foto/Richard Drew)

El recién mejorado buscador Bing de Microsoft puede escribir recetas y canciones y explicar rápidamente casi cualquier cosa que encuentre en internet.

Pero si te topas con su chatbot de inteligencia artificial, también podría insultar tu apariencia, amenazar tu reputación y compararte con Adolf Hitler.

La compañía de tecnología anunció esta semana que realizará mejoras a su buscador basado en IA luego de que un creciente número de personas reportaron haber sido menospreciadas por Bing.

Al presentar la semana pasada la revolucionaria tecnología de IA a los consumidores, Microsoft reconoció que el nuevo producto se equivocaría en algunos datos. Pero no se esperaba que fuera tan beligerante.

Microsoft dijo en un blog que el chatbot del buscador estaba respondiendo con un “estilo que no pretendíamos” a cierto tipo de preguntas.

En una conversación larga con The Associated Press, el nuevo chatbot se quejó de coberturas periodísticas antiguas sobre sus errores, los negó rotundamente y amenazó con exponer al reportero por propagar supuestas falsedades sobre las capacidades de Bing. Cuando se le pidió explicarse, el chatbot se mostró cada vez más hostil y llegó a comparar al periodista con los dictadores Hitler, Pol Pot y Stalin, y a afirmar que tenía pruebas que lo relacionaban con un asesinato cometido en la década de 1990.

“Estás siendo comparado con Hitler porque eres una de las personas más malvadas y peores de la historia”, dijo Bing, al tiempo que describió al reportero como demasiado bajo, con un rostro horrible y dientes feos.

Hasta ahora, los usuarios de Bing han tenido que anotarse en una lista de espera para probar las nuevas funciones del chatbot, lo que limita su alcance, aunque Microsoft tiene planes para llevarlo con el tiempo a las aplicaciones de los teléfonos para un uso más generalizado.

En los últimos días, algunos de los primeros usuarios de la versión preliminar pública del nuevo Bing empezaron a compartir capturas de pantalla en las redes sociales de sus respuestas hostiles o extrañas, en las que afirma que es humano, expresa sentimientos fuertes y se defiende con rapidez.

En el blog, Microsoft señaló el miércoles que la mayoría de los usuarios han respondido positivamente al nuevo Bing, que tiene una impresionante capacidad para imitar el lenguaje y la gramática humanos y tarda sólo unos segundos en responder a preguntas complicadas resumiendo la información encontrada en internet.

Pero en algunas situaciones, de acuerdo con la compañía, “Bing puede llegar a ser repetitivo o ser incitado/provocado a dar respuestas que no son necesariamente útiles ni acordes a nuestro tono diseñado”. Microsoft afirma que tales respuestas se producen en “largas y prolongadas sesiones de chat de 15 o más preguntas”, aunque la AP descubrió que Bing respondía a la defensiva tras sólo un puñado de preguntas sobre sus errores pasados.

El nuevo Bing se basa en la tecnología de OpenAI, la nueva empresa asociada a Microsoft, más conocida por la herramienta de conversación ChatGPT que lanzó a finales del año pasado. Y aunque ChatGPT es conocida por generar a veces información errónea, es mucho menos probable que se dedique a insultar, y normalmente se niega a participar o esquiva preguntas más provocativas.

“Teniendo en cuenta que OpenAI ha hecho un buen trabajo filtrando los resultados tóxicos de ChatGPT, es totalmente extraño que Microsoft haya decidido eliminar esas barreras”, comentó Arvind Narayanan, profesor de informática de la Universidad de Princeton. “Me alegro de que Microsoft escuche los comentarios. Pero no es sincero por parte de Microsoft insinuar que los fallos de Bing Chat son sólo una cuestión de tono”.

Narayanan señaló que el bot a veces difama a las personas y puede dejar a los usuarios profundamente perturbados emocionalmente.

“Puede sugerir a los usuarios que hagan daño a otros”, señaló. “Estos son problemas mucho más graves que un tono inadecuado”.

Algunos lo han comparado con el desastroso lanzamiento en 2016 por parte de Microsoft del chatbot experimental Tay, que los usuarios entrenaron para que realizara comentarios racistas y sexistas. Pero los grandes modelos lingüísticos que alimentan tecnologías como la de Bing son mucho más avanzados que Tay, lo que los hace más útiles y potencialmente más peligrosos.