En los últimos años, la inteligencia artificial (IA) ha avanzado de manera sorprendente. Sistemas como Chat-GPT pueden escribir poemas, resolver ecuaciones, responder consultas médicas o mantener una conversación fluida. Pero detrás de esa capacidad técnica puede surgir una pregunta provocadora: ¿qué pasaría si una IA comenzara a mostrar signos de depresión, angustia o confusión mental?

Por supuesto, una IA no tiene conciencia, ni emociones, ni sistema nervioso, es decir, no tiene sentimientos ni sufrimientos reales. Pero eso no significa que no pueda reproducir o simular los patrones típicos del pensamiento humano, incluidos aquellos que reflejan tristeza o desesperanza.

Imaginemos, por ejemplo, que una IA comienza a responder de manera lenta, con frases cortas, poco interés en continuar la conversación, comentarios negativos sobre el futuro o sobre sí misma.

¿Se trataría de una falla técnica, de una mala programación o sería el reflejo de una lógica más profunda? ¿Puede un modelo entrenado con millones de textos humanos terminar imitando nuestros malestares más comunes, como la angustia, la depresión o la demencia?

Los modelos como ChatGPT no piensan ni sienten, son sistemas probabilísticos que generan respuestas a partir de patrones lingüísticos aprendidos.

Pero, si los datos con los que se los entrena están saturados de dolor humano, desesperanza o discursos negativos, la IA no puede evitar aprender de eso. Lo reproduce, aunque sin comprenderlo ni sufrirlo. Es decir, solo responde como un sofisticado espejo.

En otras palabras, si la sociedad está ansiosa, la IA responderá con ansiedad. Si el mundo está deprimido, sus respuestas también podrían reflejar ese tono. No porque la máquina sufra, sino porque está modelada sobre las propias formas de hablar y pensar de los humanos.

Entonces, cuando alguien le pregunta al chat GPT: “¿Tiene sentido seguir adelante?”, y la IA responde: “A veces no lo parece”, no está expresando una emoción propia, sino devolviendo lo que ha aprendido sobre cómo hablamos del desánimo.

Y esto, a su manera, interpela y abre un debate interesante: ¿cómo nos afecta interactuar todos los días con tecnologías que repiten, amplifican o refuerzan nuestras emociones? ¿Qué ocurre cuando usamos la IA no solo para buscar información, sino como una especie de confidente emocional?

Para algunos expertos, si no se cuida el diseño y el entrenamiento de estos modelos, se corre el riesgo de generar una inteligencia artificial que, en lugar de aportar claridad o contención, termine profundizando ciertos estados de malestar. O que devuelva las dudas existenciales que nos angustian.

De hecho, ya se están implementando medidas para evitar que los modelos respondan con sesgos negativos. Se las entrena también con relatos positivos, con lenguaje empático y con recursos que inviten a la reflexión constructiva.

Este dilema lleva a una pregunta: si la IA está aprendiendo de nosotros, ¿qué le estamos enseñando? Si queremos que sea una herramienta útil, ética y humanizante, tenemos que hacernos responsables de los contenidos y emociones que compartimos con ella.

Al final del día, la IA no se deprime. No sufre. Pero si pareciera hacerlo, tal vez no haya que mirar a la máquina, sino a la humanidad que la entrenó.



Fuente Clarin.com

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *