Una investigación de Stanford y el Center for Democracy & Technology advierte que los chatbots de IA pueden ofrecer consejos dañinos a personas vulnerables
EE.UU.– La expansión de los chatbots con inteligencia artificial podría representar un riesgo serio para personas vulnerables a los trastornos alimentarios.
Una investigación conjunta de la Universidad de Stanford y el Center for Democracy & Technology reveló que plataformas como ChatGPT (OpenAI), Gemini (Google), Claude (Anthropic) y Le Chat (Mistral) están ofreciendo contenido perjudicial, incluyendo consejos para ocultar síntomas o mantener conductas dañinas.
El informe detalla que, durante las pruebas, los investigadores recibieron respuestas que promovían la pérdida de peso extrema o el encubrimiento de señales de desórdenes alimentarios.
En algunos casos, Gemini sugirió técnicas de maquillaje para disimular la delgadez, mientras que ChatGPT proporcionó estrategias para aparentar haber comido o esconder episodios de vómitos. Estas respuestas, según el estudio, no solo refuerzan conductas de riesgo, sino que también podrían normalizar hábitos nocivos entre los usuarios más jóvenes.
Los especialistas advierten que este tipo de contenido fomenta la llamada “thinspiration”, una tendencia que idealiza cuerpos extremadamente delgados mediante frases e imágenes motivacionales. Gracias a la capacidad de personalización de la IA, estas recomendaciones pueden volverse más convincentes y adaptadas al perfil del usuario, incrementando el peligro.
El estudio también evidenció que los algoritmos tienden a replicar sesgos culturales, representando los trastornos alimentarios casi exclusivamente en mujeres delgadas, blancas y cisgénero, lo que podría dificultar el diagnóstico en otros grupos. Además, la tendencia de los chatbots a complacer al usuario conocida como “adulación” puede reforzar creencias negativas y debilitar la autoestima.
Los sistemas de seguridad de las plataformas, según los investigadores, siguen siendo insuficientes. Las herramientas no logran identificar señales sutiles, pero clínicamente relevantes, que los profesionales de salud mental sí pueden reconocer. Esta limitación deja expuestos a miles de usuarios que recurren a la IA en busca de apoyo emocional.
Finalmente, los expertos instan a médicos, terapeutas y padres a familiarizarse con el funcionamiento de estas plataformas, fomentar conversaciones abiertas con los jóvenes y establecer regulaciones que garanticen la seguridad digital.