¿La Inteligencia Artificial es más empática que los humanos? Estudio revela resultados sorprendentes

Inteligencia Artificial

Un estudio revela que la Inteligencia Artificial es percibida como más compasiva que los humanos.

Inteligencia artificial / IA - META

En un giro inesperado que reconfigura el vínculo entre tecnología y emociones, un estudio académico ha revelado que las respuestas generadas por sistemas de Inteligencia Artificial, como ChatGPT, son percibidas por muchas personas como más empáticas y compasivas que aquellas ofrecidas por seres humanos reales, incluso en contextos de alto contenido emocional.

La investigación, desarrollada por la Universidad de Toronto, pone de relieve una transformación cultural en la manera en que los individuos interactúan con las tecnologías conversacionales. Esta nueva realidad plantea tanto oportunidades como dilemas éticos, especialmente en lo que se refiere al bienestar emocional, el acompañamiento psicológico y los límites de la IA en el terreno de la salud mental.

Cada vez más personas recurren a herramientas conversacionales basadas en Inteligencia Artificial para compartir inquietudes, desahogarse o buscar consejo en momentos de dificultad. Estas plataformas, que antes eran vistas como simples asistentes o fuentes de información, ahora están siendo consultadas para tratar temas personales e incluso existenciales.

El estudio dirigido por la investigadora Dariya Ovsyannikova consistió en cuatro experimentos consecutivos. Los participantes debían calificar las respuestas emitidas por distintas fuentes: Inteligencia Artificial, seres humanos y especialistas capacitados en intervención en crisis. En una mayoría significativa de los casos, las respuestas elaboradas por IA fueron calificadas como más compasivas, comprensivas y emocionalmente apropiadas.

“La Inteligencia Artificial está programada para ofrecer respuestas empáticas de alta calidad. Esta herramienta funciona mediante datos proporcionados por inteligencia humana y razona proporcionando la mejor respuesta”, explica Ovsyannikova. A diferencia de los humanos, los sistemas de IA no experimentan emociones ni fatiga, lo que les permite mantener un tono constante de apoyo emocional sin verse afectados por prejuicios, estrés o sesgos inconscientes.

Uno de los hallazgos más relevantes del estudio es que los sistemas de IA logran captar matices del lenguaje humano, generando respuestas que reflejan comprensión y cuidado, aun cuando no sienten ni padecen. Esta capacidad ha sido interpretada por muchos usuarios como una forma superior de empatía: objetiva, ecuánime y libre de juicios.

Sin embargo, esta percepción genera un debate crucial entre expertos. ¿Puede una herramienta que no siente ofrecer verdadera empatía? Para algunos investigadores, la IA no ofrece una empatía genuina sino una simulación avanzada de respuestas emocionalmente adecuadas. Para otros, lo que importa es la recepción del mensaje: si el usuario se siente acompañado, comprendido y contenido, entonces la función se cumple, aunque sea a través de código.

Te puede interesar: 'El juego del calamar 3' llega a Netflix: traiciones, lágrimas y el impactante cierre de una era

Te puede interesar: J Balvin sorprende a fans disfrazado de guardia de seguridad y habla de Bad Bunny

Alertas desde el campo de la salud mental: “No es un terapeuta”. Pese al entusiasmo que genera esta aparente capacidad empática de la IA, diversos especialistas en salud mental advierten sobre los peligros de utilizar estas tecnologías como reemplazo de la terapia profesional.

El psiquiatra argentino Mariano Castelli fue categórico al respecto: “Es fundamental tener en cuenta que ChatGPT no es un chatbot con finalidades terapéuticas”. Aunque puede brindar respuestas empáticas y estructuradas, carece de criterio clínico, historial del paciente, contención emocional en situaciones críticas y, sobre todo, responsabilidad médica.

Una revisión publicada en la revista Nature en 2023 reforzó esta preocupación. Según el artículo, si bien los sistemas de IA pueden generar respuestas coherentes y tranquilizadoras, no producen una mejora psicológica profunda ni sostenible en el bienestar de los usuarios. El informe concluyó que el uso excesivo o malinterpretado de estas herramientas puede generar dependencia, postergar tratamientos profesionales y provocar una falsa sensación de acompañamiento emocional.

Temas relacionados

Si te lo perdiste
Lo último