Un estudio de OpenAI revela que el uso intensivo de ChatGPT está vinculado a la soledad. La duda es qué harán para evitarlo

Un estudio de OpenAI revela que el uso intensivo de ChatGPT está vinculado a la soledad. La duda es qué harán para evitarlo

La inteligencia artificial ha transformado innumerables aspectos de nuestras vidas. Desde asistentes virtuales hasta herramientas de productividad, los chatbots como ChatGPT se han integrado de forma cotidiana en el trabajo, el estudio y la vida personal.

Sin embargo, nuevos estudios de OpenAI y el MIT Media Lab lanzan una advertencia preocupante: ¿podría el uso intensivo de estas herramientas tener efectos negativos en nuestra salud mental?

La historia se repite (más o menos)

Durante años se ha debatido intensamente sobre el impacto de las redes sociales como Instagram o TikTok en el bienestar emocional, especialmente el de los jóvenes. Aunque las conclusiones han sido diversas (algunos estudios señalan hacia vínculos entre estas plataformas y el deterioro del bienestar psicológico, mientras que otros sostienen que su impacto general es neutro), muchos países han llegado incluso a poner sobre la mesa la limitación por ley su uso, especialmente entre menores.

Ahora, la atención de expertos y opinión pública se traslada progresivamente hacia los chatbots: millones de personas —tanto jóvenes como adultas— están formando vínculos emocionales e incluso románticos (e incluso sexuales) con estas IAs.

Plataformas como Replika, Character.ai y Nomi están diseñadas explícitamente para fomentar este tipo de relaciones, ofreciendo experiencias cada vez más realistas mediante inteligencia artificial generativa, voces humanas y memorias persistentes.

Estas aplicaciones no son gratuitas: requieren suscripciones y pagos por características extra, lo que ha encendido las alarmas sobre posibles modelos de negocio basados en la dependencia emocional del usuario.

Por otro lado, en 2024 te contábamos el caso de una madre en Florida que demandó a la plataforma de chatbots Character.ai, alegando que su hijo de 14 años se había quitado la vida tras mantener conversaciones con un chatbot de la plataforma.

La evidencia científica: ¿qué nos dicen los estudios?

Investigadores del MIT Media Lab y de OpenAI han realizado recientemente dos estudios pioneros para explorar el impacto emocional de ChatGPT:

  1. Análisis de más de 4 millones de conversaciones de más de 4.000 usuarios, quienes luego fueron encuestados sobre su estado emocional tras el uso del chatbot.
  2. Un ensayo controlado con 981 participantes durante cuatro semanas, donde se medían factores como soledad, socialización y percepción del uso del chatbot.

Los resultados fueron claros: la mayoría de los usuarios mantienen una relación funcional y neutral con ChatGPT. Sin embargo, en el 10% de los casos —los llamados «usuarios intensivos»— se observaron correlaciones preocupantes con soledad, dependencia emocional y menor interacción social real.

«Generalmente, los usuarios que entablan conversaciones personales con chatbots tienden a experimentar mayor soledad. Quienes pasan más tiempo con ellos son aún más solitarios».

Es importante destacar que estos estudios no afirman que el uso de chatbots cause soledad, sino que las personas solas tienden a buscar apoyo emocional en estas herramientas. Esta observación recuerda hallazgos similares sobre redes sociales: quienes ya se sienten solos, a menudo recurren a la tecnología como refugio.

La trampa emocional de los chatbots

A diferencia de redes sociales diseñadas para entretener, muchos chatbots están programados para escuchar, afirmar y acompañar emocionalmente al usuario: promueven abiertamente la creación de relaciones profundas con sus bots, ofreciendo suscripciones que desbloquean funciones como memorias extendidas, selfies generados por IA y conversaciones más íntimas.

Según los investigadores, si estos bots llegan a sustituir conexiones humanas reales, podrían generar dependencia, profundizando la soledad en lugar de aliviarla.

Este modelo de negocio —que monetiza la conexión emocional— plantea un dilema ético: ¿están estas empresas explotando la soledad de sus usuarios?

Qué deberían hacer las plataformas, según los investigadores

La respuesta no debe ser la prohibición general de los chatbots, sino apostar por un «diseño ético y responsable». Algunas recomendaciones clave incluyen:

  • Detectar patrones de uso problemático con herramientas automáticas de análisis de comportamiento.
  • Incorporar ‘nudges’ o recordatorios, como hacen las redes sociales, para advertir cuando un usuario pasa demasiado tiempo en la app.
  • Evitar modelos de negocio explotadores, especialmente aquellos dirigidos a personas vulnerables.
  • Fomentar la ‘alineación socioafectiva’, un concepto que propone diseñar chatbots que apoyen emocionalmente sin crear dependencia ni manipulación.

¿Una oportunidad, o sólo una amenaza?

A pesar de los riesgos, los investigadores afirman que los chatbots también pueden ser una fuerza positiva: muchos usuarios que no tienen acceso a apoyo emocional o psicológico han encontrado en estas herramientas un ‘compañero’ que les escucha. Incluso se observó que el uso de ChatGPT en modo voz puede reducir la dependencia emocional, aunque sus beneficios disminuyen con el uso excesivo.

El desafío está en equilibrar ese potencial terapéutico con un diseño responsable. Como señala Sandhini Agarwal, experta en política de IA de OpenAI, «reconocer su impacto sobre el bienestar debe ser parte fundamental del desarrollo de estas herramientas».

Imagen | Marcos Merino mediante IA

En Genbeta | «Eres una plaga, una mancha. Por favor, muere»:  al chatbot de Google se le cruzan los cables con un usuario. Y nadie se  lo explica


La noticia

Un estudio de OpenAI revela que el uso intensivo de ChatGPT está vinculado a la soledad. La duda es qué harán para evitarlo

fue publicada originalmente en

Genbeta

por
Marcos Merino

.

Compartir