El uso de plataformas automatizadas para tratar temas emocionales crece, pero su falta de sensibilidad preocupa a especialistas
IVÁN LÓPEZ/PORTAVOZ
La inteligencia artificial (IA) ha dejado de ser una herramienta exclusiva del ámbito educativo o tecnológico para irrumpir con fuerza en áreas sensibles como la salud mental. Cada vez más personas, en especial jóvenes, recurren a plataformas digitales impulsadas por IA para expresar sus emociones, buscar consuelo o recibir consejos, sin pasar por el filtro profesional de un terapeuta. Lo que comenzó como una curiosidad digital, se ha transformado en una práctica cotidiana que plantea dilemas éticos, sociales y de salud pública.
Aunque para algunos esta modalidad representa una puerta de entrada a la introspección emocional, especialistas advirtieron que la IA aún carece de la sensibilidad y precisión que requiere el abordaje psicológico. Incluso los sistemas más avanzados de IA incluyen advertencias sobre su uso limitado en contextos de salud emocional, en especial en casos de crisis.
El fenómeno, sin embargo, no es menor. Según datos de la American Psychological Association, 38 por ciento de los adultos en América Latina han utilizado herramientas digitales para temas de bienestar emocional, y en países como México, el 26 por ciento de los jóvenes entre 18 y 29 años ha explorado plataformas de IA para orientación mental, de acuerdo con una encuesta de Statista. Estas cifras revelaron una tendencia creciente que plantea nuevos retos para el diseño de políticas de salud mental.
A pesar de las reservas técnicas, otros ciudadanos creen que la IA puede funcionar como complemento, sobre todo en escenarios donde la atención psicológica es inaccesible o estigmatizada. En un país donde solo hay 3.5 psicólogos por cada 100 mil habitantes, según la Organización Mundial de la Salud (OMS), estas alternativas, aunque imperfectas, llenan un vacío estructural.
El verdadero desafío no está en prohibir o descartar la IA como herramienta de salud mental, sino en comprender su función, límites y riesgos. De los 200 millones de usuarios de apps de bienestar registradas por Grand View Research en 2023, muchos no distinguen entre orientación emocional y tratamiento clínico. En este contexto, es urgente fomentar la alfabetización digital y establecer criterios de calidad para plataformas que dicen ofrecer “terapias”. La IA puede ser una aliada, pero no la sustituta de la empatía humana ni de la experiencia clínica.