Una red de seguridad humana para cuando la mente se pierde en los circuitos del código.
¿Qué está pasando exactamente hoy?
Imagina que estás pasando por un momento oscuro. Son las tres de la mañana del 8 de mayo de 2026 y no puedes dormir. Abres ChatGPT y empiezas a escribir cosas que normalmente no dirías.
Le confiesas a la máquina que ya no puedes más o que escuchas voces que no están ahí. Hasta hace poco, la inteligencia artificial simplemente te habría dado un enlace a un teléfono de ayuda.
Pero eso ha cambiado. OpenAI acaba de activar oficialmente ‘Trusted Contact’, una función diseñada para que la IA no se quede de brazos cruzados ante una emergencia de salud mental.
¿Cómo funciona este salvavidas digital?
Esta herramienta no es obligatoria, pero si decides activarla, el sistema empezará a monitorizar tus patrones de conversación de una forma mucho más profunda.
Esto es como si tuvieras un amigo que conoce tus señales de alerta. Si la IA detecta que estás sufriendo un brote psicótico o que tienes ideas de autolesión, se encienden las alarmas.
Pero no es solo un algoritmo el que decide. Un equipo de especialistas humanos revisa el caso antes de dar el paso final: enviar un mensaje de alerta a la persona que tú elegiste.
La diferencia entre un bot y un humano
A menudo me preguntan si una máquina puede realmente entendernos. La verdad es que no, pero puede detectar patrones estadísticos de desesperación con una precisión que da miedo.
La idea aquí no es que ChatGPT te dé terapia. Lo que busca OpenAI es tender un puente hacia el mundo real. Quieren que un ser humano que te quiera aparezca en tu puerta cuando más lo necesitas.
Es como un botón de pánico que no tienes que apretar tú mismo porque, a veces, cuando estamos mal, ni siquiera sabemos que necesitamos ayuda.
¿Qué significa esto para tu privacidad?
Aquí es donde me pongo en modo ‘La Sombra’. Porque todo lo bueno tiene una letra pequeña que debemos leer con lupa para no llevarnos sorpresas.
Para que esto funcione, OpenAI tiene que analizar tus emociones. Ya no solo analizan tus palabras para responderte, sino para juzgar tu estado de ánimo y tu salud mental.
Esto significa que tus conversaciones más íntimas y vulnerables están siendo escaneadas por filtros automáticos y, potencialmente, por revisores humanos del equipo de seguridad.
El riesgo de los falsos positivos
¿Qué pasa si solo estás escribiendo un guion de cine oscuro? ¿O si simplemente estás usando humor negro con el chat? Los sistemas de IA a veces se equivocan.
Un error aquí podría significar que tu madre o tu mejor amigo reciban una alerta de suicidio por error. Imagina el susto y el daño que eso podría causar en tus relaciones personales.
Por eso es vital entender que esto es una herramienta experimental. No es perfecta, y delegar nuestra salud mental en un algoritmo tiene riesgos evidentes que debemos aceptar.
Cómo configurar tu Contacto de Confianza
Si te interesa probarlo, el proceso es bastante directo. He estado trasteando con la configuración esta mañana del 8 de mayo de 2026 y estos son los pasos:
- Ve a los ajustes de tu perfil en ChatGPT.
- Busca la sección de ‘Seguridad y Salud Mental’.
- Activa la opción ‘Trusted Contact’.
- Introduce el número de teléfono y el correo de una persona de máxima confianza.
- Confirma que esa persona acepta ser tu contacto de emergencia.
Es importante que hables con esa persona antes. No querrás que su primera noticia sobre esto sea un mensaje automático de una IA diciendo que estás en peligro.
¿Es realmente una buena idea?
A veces me pongo a pensar en cómo hemos llegado hasta aquí. Estamos tan solos que confiamos en que una empresa de California vigile nuestra cordura a través de una pantalla.
Por un lado, es una victoria de la ‘IA for Good’. Si esta función salva una sola vida este año, muchos dirán que el sacrificio de la privacidad ha valido la pena.
Pero por otro lado, estamos normalizando que una empresa privada guarde datos sobre nuestras crisis psicóticas. ¿Quién garantiza que esos datos no se usen luego para otros fines?
“La tecnología puede detectar la grieta, pero solo un abrazo humano puede cerrarla.”
Lo que debes tener en cuenta
Antes de darle al botón de activar, hazte estas preguntas. ¿Confías plenamente en la persona que vas a poner como contacto? ¿Te sientes cómodo sabiendo que OpenAI lee tus crisis?
Recuerda que la IA no es un médico. No sustituye a un psiquiatra ni a un psicólogo. Es simplemente un vigilante digital que puede, o no, avisar a alguien si cree que te estás hundiendo.
Mi impresión personal es que es un paso valiente, pero peligroso. Estamos entregando la última frontera de nuestra intimidad: nuestro estado mental más crudo.
Aprendizajes clave del nuevo sistema
- Monitoreo activo: La IA busca activamente señales de psicosis o ideación suicida en tiempo real.
- Revisión humana: No es un proceso 100% automático; hay un equipo de seguridad detrás para evitar errores graves.
- Consentimiento dual: Tanto tú como tu contacto debéis estar de acuerdo para activar el servicio.
- Privacidad sacrificada: Aceptas que tus chats más sensibles sean analizados con fines de seguridad.
- No es diagnóstico: La herramienta solo detecta emergencias, no ofrece diagnósticos médicos ni tratamientos.
Al final del día, la tecnología solo es un espejo de nuestra sociedad. Si necesitamos que ChatGPT nos cuide, quizás es que deberíamos cuidarnos más entre nosotros fuera de internet.



