El infonauta

¿Es seguro confiar en la inteligencia artificial como confidente? Expertos advierten riesgos emocionales y de privacidad

La inteligencia artificial (IA) forma parte de la vida cotidiana y muchos usuarios comparten información personal para recibir consejos de chatbots y asistentes virtuales. “Los jóvenes buscan en la IA una presencia constante que les ofrece contención emocional sin exigir reciprocidad”, explica Carmen Aguilera, docente de Psicología en la Universidad Franz Tamayo, Unifranz.

La especialista alerta que esta interacción puede generar dependencia afectiva si no se acompaña de relaciones humanas reales. La disponibilidad 24/7 de la IA convierte a estos sistemas en refugio frente a la soledad, pero puede debilitar habilidades socioemocionales como la empatía o la tolerancia a la frustración.

La ilusión de afecto
“Hay una ilusión de afecto real, aunque las IA carecen de conciencia. Los jóvenes pueden proyectar emociones humanas en entes programados y confundir la respuesta automática con comprensión genuina”, advierte Aguilera.

Este fenómeno psicológico puede hacer que los usuarios interpreten como empatía lo que en realidad son respuestas automáticas. La falta de conciencia crítica frente a los límites digitales amplifica el riesgo.

Privacidad y seguridad de datos
Confiar asuntos íntimos a una IA implica exponer información sensible que podría usarse con fines comerciales, manipulativos o incluso delictivos. Además, los sistemas se alimentan de grandes bases de datos con sesgos que reproducen prejuicios y estereotipos, lejos de ofrecer consejos neutrales.

La IA no reemplaza ayuda profesional
Pamela Martínez, psicóloga de Unifranz El Alto, advierte: “Es necesario reconocer cuando un problema sale de nuestras manos e interfiere con nuestra vida. Es en ese momento cuando podríamos necesitar de apoyo profesional, no así de una IA”.

La especialista insiste en que pedir ayuda psicológica es un acto de valentía. La IA puede ser un apoyo, pero nunca debe sustituir la empatía, el criterio ni el acompañamiento humano.

Con informacion de RED UNO