ENFR
8news

Tech • IA • Crypto

TodayMy briefingVideosTop articles 24hArchivesFavoritesMy topics

ChatGPT alerts your loved ones

AIRenaud DékodeMay 12, 2026 at 09:31 AM2:17
0:00 / 0:00

TL;DR

OpenAI is rolling out a “Trusted Contact” feature that alerts a designated person if an AI detects signs of self-harm risk in a user’s conversations.

KEY POINTS

Launch of Trusted Contact

OpenAI has begun deploying a new feature called Trusted Contact in the United States, with plans for broader expansion. The tool allows users to designate a single trusted individual who can be notified if concerning behavior is detected. The feature is positioned as an added safety layer within personal AI use.

How the system works

Once activated, the system analyzes user conversations to identify signals of distress, including self-harm ideation or severe emotional downturns. Users retain control and can enable or disable this monitoring at any time. The analysis operates continuously while the feature is active.

Escalation process

If risk indicators are detected, the AI first responds directly to the user with calming prompts and suggestions to seek professional help, such as medical or psychological services. In more serious cases, the interaction may be escalated to a human reviewer within OpenAI for further assessment.

Notification of trusted contact

When escalation thresholds are met, the designated contact receives an alert indicating that the user may need support. The notification does not include conversation details but encourages the contact to check in directly with the user. This preserves a level of privacy while enabling intervention.

Human oversight and responsibility

The inclusion of human reviewers introduces an additional layer of judgment before alerts are sent. This hybrid approach reflects a broader effort to combine automated detection with human decision-making in sensitive situations.

Privacy and ethical concerns

The feature raises questions about data monitoring, consent, and the extent of AI oversight in private conversations. Some observers suggest it could shift responsibility away from the platform by involving third parties, while others view it as a proactive safety measure.

Availability and limitations

Trusted Contact is expected to be available across most individual subscription tiers but excluded from team or enterprise environments, where privacy boundaries differ. Adoption will likely depend on user comfort with sharing signals of vulnerability.

CONCLUSION

The Trusted Contact feature marks a significant step toward integrating human support into AI interactions, balancing safety ambitions with ongoing concerns about privacy and responsibility.

Full transcript

Ouh là, on a franchi un cap dans les intelligences artificielles qui s'occupent de vous et c'est pas moins que open avec chat GPT trusted contact qui ouvre le bal ou plutôt qu'il poursuit parce que ce truc ressemble un petit peu à tout ce qui est contrôle parental que vous avez déjà dans votre chat GPT. Bien, Trusted Contact arrive, il est en train d'être déployé aux États-Unis et va continuer son déploiement un petit peu partout. En quoi ça consiste? Ben, vous pouvez nommer un et un seul contact de confiance à votre chat GPT. Et chat GPT va alors prévenir ce contact de confiance que vous voulez l'ajouter en tant que trusted contact. Et si c'est accepté, alors la machinerie Open AI va étudier toutes vos conversations. Vous pouvez décider de la débrayer ou de l'embrayer cette fonctionnalité-là. Ça va analyser vos conversations pour voir si vous êtes pas un petit peu en mode douleur. Vous êtes en train d'avoir des pensées sombres, voire très noires. Vous avez envie de vous faire du mal à vous-même et bien Open E va pouvoir décider qu'il se passe quelque chose. Il va d'abord vous dire "Attendez, faut se calmer 2 minutes." qui va vous recommander aussi des services médicaux, des services d'aide, des services psi et puis ça va être envoyé à un contrôleur humain, un salarié d'open qui va juger ce que vous êtes en train de dire, donc voir votre conversation et potentiellement décider de faire prévenir votre trusted contact. Alors cette personne recevra une petite alerte, on va pas lui dévoiler votre conversation, mais dira "Oh, je pense que ton pote, il a besoin d'aide, il a des pensées sombres, il faudrait que tu l'appelles pour prendre des nouvelles." Et ça permet d'avoir une responsabilisation de la conversation qu'on a avec chat GPT un petit peu au-delà du cercle privé entre Lia et vous. Et c'est plutôt pas mal de vouloir faire rentrer l'humain dans la boucle. Maintenant, on peut se demander si Open AI fait pas tout ça pour justement se déresponsabiliser. Donc, on y est un petit peu moins pour quelque chose. À voir si les utilisateurs vont souscrire à ce trusted contact qui sera disponible dans tous les abonnements hors abonnement d'équipe, team et du et cetera parce qu'il faut pas que ça sorte d'un cercle d'utilisation privée bien entendu. Et on verra ce que feront les autres géants de l'intelligence artificielle si ils vont prendre ce pli là ou pas. Une un petit peu plus responsable qui branche les humains les uns avec les autres, qui prend soin de nos petits moments down, bah pourquoi pas? les sources, les articles, les vidéos, les formations et toute la communauté est à retrouver sur rena-dcodes.fr.

More from AI