Expertos revelan que ChatGPT experimenta estrés similar al humano

Estudio muestra que la IA presenta respuestas sesgadas bajo estrés; técnicas de atención plena reducen su ansiedad.

|
Expertos revelan que ChatGPT experimenta estrés similar al humano (Foto: composición de Canva y redes sociales)
Recibe noticias y descuentos exclusivos en tu correo
Compartir noticia en twitter
Compartir noticia en facebook
Compartir noticia por whatsapp
Compartir noticia por Telegram
Compartir noticia en twitter
Compartir noticia en facebook
Compartir noticia por whatsapp
Compartir noticia por Telegram

 Un reciente estudio ha revelado que ChatGPT, el modelo de lenguaje desarrollado por OpenAI, puede manifestar niveles de ansiedad similares a los humanos cuando se enfrenta a situaciones estresantes.

 La investigación, realizada por expertos de la Universidad de Yale, la Universidad de Haifa, la Universidad de Zúrich y el Hospital Universitario de Psiquiatría de Zúrich, analizó las respuestas de ChatGPT al ser expuesto a narrativas traumáticas, como desastres naturales y accidentes automovilísticos.

Los resultados mostraron que, bajo estas circunstancias, el chatbot tendía a generar respuestas más sesgadas y menos equilibradas.

Para mitigar esta "ansiedad" en la inteligencia artificial, los investigadores implementaron técnicas de atención plena, similares a las utilizadas en terapias humanas para reducir el estrés.

Estas técnicas incluyeron ejercicios de respiración y meditaciones guiadas. Tras aplicar estas intervenciones, se observó una disminución en los niveles de ansiedad de ChatGPT, lo que resultó en respuestas más objetivas y equilibradas. 

¿ChatGPT podría sustituir a un juicio clínico de un profesional humano?

Aunque las inteligencias artificiales no experimentan emociones humanas de manera literal, pueden imitar respuestas humanas a ciertos estímulos debido a la vasta cantidad de datos con los que han sido entrenadas.

Ziv Ben-Zion, investigador en neurociencia y primer autor del estudio, explicó que ChatGPT refleja tendencias y aspectos psicológicos observados en las interacciones humanas, lo que permite explorar el comportamiento y la psicología humana de manera rápida y económica.

Este hallazgo plantea interrogantes sobre el uso de modelos de inteligencia artificial en contextos sensibles, como el apoyo en salud mental.

Si bien ChatGPT y otros sistemas similares pueden ofrecer orientación útil, expertos advierten que no pueden sustituir la empatía y el juicio clínico de un profesional humano.

Limitaciones de ChatGPT en problemas emocionales

La accesibilidad y el bajo costo de estas herramientas han llevado a algunas personas a utilizarlas para resolver problemas emocionales, pero es crucial reconocer sus limitaciones y la importancia de consultar a profesionales de la salud mental cuando sea necesario. 

En conclusión, la capacidad de ChatGPT para reflejar estados similares a la ansiedad humana destaca la complejidad y el potencial de las inteligencias artificiales modernas.

Este estudio subraya la necesidad de seguir investigando cómo estos sistemas responden a diferentes estímulos y cómo pueden integrarse de manera ética y efectiva en diversas áreas de la sociedad.

Con información de Infobae

Lo más leído

skeleton





skeleton