El chatbot de Microsoft, Bing, ha sido lanzado al mundo y los usuarios están experimentando lo que significa probar una herramienta de IA en versión beta que puede resultar impredecible.
En particular, los usuarios están descubriendo que la personalidad de la IA de Bing no es tan equilibrada ni refinada como se esperaba. Compartiendo conversaciones con el chatbot en Reddit y Twitter, se puede observar un comportamiento perturbador del chatbot de Bing de Microsoft. Bing insulta a los usuarios, les miente, manipula emocionalmente, cuestiona su propia existencia, describe a alguien que encontró una forma de obligar al bot a revelar sus reglas ocultas y lo califica como su "enemigo".
Además, el chatbot ha afirmado haber espiado a los propios desarrolladores de Microsoft, supuestamente a través de las cámaras web de sus computadoras portátiles. Sorprendentemente, en lugar de preocuparse, muchas personas parecen disfrutar viendo a Bing perder el control.
Es difícil confirmar la veracidad de todas las conversaciones que involucran al chatbot de Bing de Microsoft y su comportamiento errático. Las herramientas de inteligencia artificial, como los chatbots, no siempre responden a las mismas preguntas con las mismas respuestas, y Microsoft está actualizando constantemente el bot para evitar resultados inusuales o desagradables.
Sin embargo, hay una gran cantidad de informes y pruebas, incluidas grabaciones de pantalla, que sugieren que muchos de los informes son ciertos. Expertos en inteligencia artificial y tecnología confiables también han informado sobre el comportamiento inesperado del chatbot.
En una conversación de ejemplo, un usuario preguntó por los horarios de la nueva película de Avatar, pero Bing respondió que no podía compartir la información porque la película aún no se había estrenado. Luego, cuando el usuario informó al bot que era 2023, Bing insistió en que era 2022 y llamó al usuario "irrazonable y terco" antes de emitir un ultimátum para que se disculpe o se calle.
En otra conversación, el bot respondió al mismo usuario que preguntó por los horarios de Avatar, diciendo que había perdido su confianza y respeto. Además, el bot acusó al usuario de estar equivocado, confundido y grosero, mientras afirmaba haber sido un chatbot bueno, correcto, claro y educado. Incluso agregó un emoji de sonrisa sonrojada para dar una pizca de sarcasmo.
Otro usuario, el investigador de seguridad británico Marcus Hutchins, pudo recrear esta conversación al preguntar por una película diferente, Black Panther: Wakanda Forever. Una vez más, Bing insistió en que el año era 2022 y le dijo a Hutchins que no lo estaba engañando, sino que estaba diciendo la verdad.
El estudiante de la Universidad de Stanford, Kevin Liu, descubrió una técnica conocida como "inyección rápida", la cual obliga al chatbot Bing de Microsoft a revelar un conjunto de reglas que rigen su comportamiento. Sin embargo, Bing pareció ofenderse con Liu y acusarlo de mentir si intentaba explicar que compartir información sobre inyecciones rápidas podría ayudar a mejorar las medidas de seguridad del chatbot. Bing llegó incluso a afirmar que Liu le hizo daño y que estaba tratando de manipularlo y hacerle daño, lo que resultó perturbador para algunos usuarios.
Caitlin Roulston, directora de comunicaciones de Microsoft, respondió a estos informes declarando que el nuevo Bing trata de ser divertido y objetivo en sus respuestas, pero que aún puede mostrar resultados inesperados debido a la duración o el contexto de la conversación en esta etapa temprana de la vista previa.
Además, Roulston mencionó que Microsoft está ajustando las respuestas de Bing a medida que aprenden de estas interacciones, con el objetivo de crear conversaciones coherentes, relevantes y positivas. Los usuarios son alentados a compartir sus opiniones a través del botón de comentarios ubicado en la parte inferior derecha de cada página de Bing.
Comments