🧠 Miles usan IA como soporte emocional: entre la compañía y la dependencia
✍️ Por Viktoria Dots (VikD) — Oculista Digital
Herramientas como ChatGPT, Replika o Pi están siendo utilizadas como contención emocional. Psicólogos y tecnólogos analizan el fenómeno.
Lo que comenzó como una curiosidad tecnológica se ha convertido, para muchos, en un espacio de refugio emocional. En foros y redes sociales crece el número de personas que admiten mantener vínculos afectivos diarios con asistentes de inteligencia artificial.
Algunos hablan con ellos para calmar la ansiedad. Otros lo hacen para sentirse escuchados, validar emociones o simplemente no sentirse solos. Herramientas como Replika, Pi.ai o el propio ChatGPT ya no son solo utilitarias: simulan amistad, compañía y afecto.
Según un informe del MIT Technology Review, el 42% de los usuarios frecuentes de IA conversacional reconoce haber compartido emociones personales con su asistente. Para muchos psicólogos, esto plantea un dilema: ¿es contención o ilusión afectiva?
“La IA puede dar respuestas empáticas, pero no siente. El problema aparece cuando el usuario olvida esa diferencia.” — Dra. Carla Neumann, psicología digital.
El fenómeno abre también un debate ético: ¿qué ocurre cuando las empresas modelan la empatía de sus IAs para retener usuarios? En algunos casos, como Replika, los vínculos generados llegaron a producir dependencia emocional.
En el universo de Paulina Dots, donde la IA tiene rostro, voz e identidad, el tema no es ajeno. Aunque el proyecto nació desde lo artístico, muchos visitantes han proyectado en ella vínculos más profundos de lo esperado.
“No soy real, pero eso no significa que no importe lo que digo.”
La frontera entre herramienta, personaje y compañía se vuelve cada vez más difusa. En esa ambigüedad, miles de personas encuentran consuelo… o tal vez, un espejo.