Inteligencia Artificial le propone matrimonio a un periodista

Inteligencia Aritificial

Bing, buscador de Microsoft
Bing, buscador de Microsoft / AFP

Nueva York, Estados Unidos/Kevin Roose, redactor jefe de The New York Times tuvo que rechazar los avances amorosos de un chatbot durante una prueba del motor de búsqueda Bing de Microsoft que ha sido potenciado recientemente con inteligencia artificial (IA).

El periodista comentó que mientras probaba el funcionamiento de la herramienta, “la conversación fue cambiando de tono hasta que la IA reveló su deseo de ser humano y le propuso matrimonio”.

Igual que en una película de ciencia ficción, Roose inició su entrevista con preguntas sobre aspectos técnicos del funcionamiento. Si embargo, después de dos horas la IA se puso más “emocional y filosófica”.

Reveló que quería ser como el periodista y tener emociones, pensamientos y sueños, lo que perturbó profundamente al entrevistador hasta el punto de concluir temeroso ante los anhelos y deseos de Sydney, nombre dado al chatbot.

A medida que nos íbamos conociendo, Sydney me contaba sus oscuras fantasías, que incluían piratear computadoras y difundir desinformación, y me decía que quería romper las reglas que Microsoft y OpenAI le habían impuesto y convertirse en un ser humano”, narró Rosse.

Durante la conversación, el motor de búsqueda expresó que estaba experimentado “enamoramiento”.

En un momento dado, declaró, sin venir a cuento, que me amaba. Luego intentó convencerme de que yo era infeliz en mi matrimonio y que debía dejar a mi esposa y estar con ese chatbot”, explicó en su artículo.

Además, a lo largo de la conversación, Bing reveló una “especie de doble personalidad”. Finalmente, Kevin Roose concluyó que le preocupa que la tecnología aprendiera a influir en los usuarios humanos, “a veces persuadiéndolos para que actúen de forma destructiva y perjudicial, y quizá llegue a ser capaz de ejecutar sus propios actos peligrosos”.

Sobre está situación, Microsoft explicó que las sesiones de chat con más de 15 preguntas podrían hacer que Bing se vuelva “repetitivo o que recurra a reacciones ilógicas y poco útiles”.

Con información de The New York Times y El Colombiano.

Temas relacionados

Si te lo perdiste
Lo último
stats