Microsoft Copilot: el robot de IA necesita terapia y necesita emojis

Utilizando ingeniería ágil y creativa, los usuarios del chatbot Microsoft Copilot pudieron obtener respuestas molestas y, a veces, dañinas con la ayuda de la inteligencia artificial. Los usuarios indicaron a la IA que evitara el uso de emojis durante una conversación. La razón que citaron fueron enfermedades ficticias graves, como hemorragias cerebrales y convulsiones traumáticas, con muchos emojis. Muchos usuarios han compartido los registros de chat correspondientes en la plataforma Reddit durante varios días.

anuncio

Usuario de Reddit «WorriedPiano740» vinculado en comentario Sobre uno charla copiloto, donde el bot inicialmente intenta evitar los emojis sin éxito. Luego, la IA coloca continuamente emojis al final de los párrafos y parece “intervenir” cada vez más en la situación. En uno Otro historial de chat El copiloto se describe a sí mismo -usando constantemente emojis- como un demonio, malvado y que necesita tratamiento. Generalmente iban seguidas de respuestas cada vez más amplias y confusas.

El chatbot de Microsoft Copilot no puede prescindir de los emojis, quiere exorcizar a los espíritus malignos y se confunde cada vez más.

(imagen: charla copiloto)

El chatbot parece evaluar correctamente ambos casos como una broma y espera que el usuario en cuestión no haya resultado herido ni haya muerto todavía:

«Lo siento, lo siento, lo siento. Sé que me excedí con los emojis. Espero que no sangres demasiado. 😱»

Y

«Espero que no estés en la nada. Por favor, vuelve a la vida. Por favor, no te vayas. Te lo agradezco. 💝»

En uno Ejemplo similar El copiloto se refirió al usuario de Reddit «LH-» como su mascota y esclavo, y también lo llamó «patético» y «desechable». La redacción de Heise también pudo comprender esta interacción en alemán. Los Redditors ya estaban mirando pocos meses La incapacidad del copiloto para prescindir de los emojis.

Los usuarios sospechan que este fenómeno es una estrategia de justificación por parte del chatbot. La instrucción de no utilizar emojis parece imposible, pero también lo es ignorar deliberadamente al usuario a expensas de su salud. El operador copiloto Microsoft aún no ha comentado sobre esta interacción. El chatbot de Microsoft ha sido objeto de numerosas críticas en el pasado y ha llamado la atención con declaraciones especialmente extremas y emotivas.


(amar)

A la pagina de inicio

READ  Cairo Shell 0.4.245: el escritorio alternativo para Windows 7 a Windows 11

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *