ENFR
8news

Tech • IA • Crypto

Aujourd'huiMa veilleVidéosTop articles 24hArchivesFavorisMes topics

ChatGPT alerte vos proches

IARenaud Dékode12 mai 2026 à 09:312:17
0:00 / 0:00

INTRO

OpenAI déploie une fonctionnalité « Trusted Contact » qui alerte une personne désignée si une IA détecte des signes de risque d’auto‑mutilation dans les conversations d’un utilisateur.

POINTS CLÉS

Lancement de Trusted Contact

OpenAI a commencé à déployer une nouvelle fonctionnalité appelée Trusted Contact aux États-Unis, avec des plans d’extension plus larges. L’outil permet aux utilisateurs de désigner une seule personne de confiance pouvant être notifiée en cas de comportement préoccupant détecté. La fonctionnalité est présentée comme une couche de sécurité supplémentaire dans l’usage personnel de l’IA.

Fonctionnement du système

Une fois activé, le système analyse les conversations pour identifier des signaux de détresse, notamment des idées d’auto‑mutilation ou des chutes émotionnelles sévères. Les utilisateurs gardent le contrôle et peuvent activer ou désactiver ce suivi à tout moment. L’analyse fonctionne en continu tant que la fonctionnalité est active.

Processus d’escalade

Si des indicateurs de risque sont détectés, l’IA répond d’abord directement à l’utilisateur avec des messages apaisants et des suggestions de recourir à une aide professionnelle, comme des services médicaux ou psychologiques. Dans les cas plus graves, l’échange peut être transmis à un examinateur humain chez OpenAI pour une évaluation supplémentaire.

Notification du contact de confiance

Lorsque les seuils d’escalade sont atteints, la personne désignée reçoit une alerte indiquant que l’utilisateur pourrait avoir besoin de soutien. La notification ne contient pas de détails des conversations mais encourage le contact à prendre directement des nouvelles de l’utilisateur. Cela préserve un certain niveau de confidentialité tout en permettant une intervention.

Supervision humaine et responsabilité

L’ajout d’examinateurs humains introduit une couche supplémentaire de jugement avant l’envoi d’alertes. Cette approche hybride reflète un effort plus large pour combiner la détection automatisée avec la prise de décision humaine dans des situations sensibles.

Préoccupations liées à la vie privée et à l’éthique

La fonctionnalité soulève des questions sur la surveillance des données, le consentement et l’étendue du contrôle de l’IA dans des conversations privées. Certains estiment qu’elle pourrait déplacer la responsabilité hors de la plateforme en impliquant des tiers, tandis que d’autres y voient une mesure de sécurité proactive.

Disponibilité et limites

Trusted Contact devrait être disponible sur la plupart des offres d’abonnement individuelles, mais exclu des environnements d’équipe ou d’entreprise, où les frontières de confidentialité diffèrent. Son adoption dépendra probablement du niveau de confort des utilisateurs à partager des signaux de vulnérabilité.

CONCLUSION

La fonctionnalité Trusted Contact marque une avancée vers l’intégration d’un soutien humain dans les interactions avec l’IA, en équilibrant les objectifs de sécurité avec des préoccupations persistantes sur la vie privée et la responsabilité.

Transcription complète

Ouh là, on a franchi un cap dans les intelligences artificielles qui s'occupent de vous et c'est pas moins que open avec chat GPT trusted contact qui ouvre le bal ou plutôt qu'il poursuit parce que ce truc ressemble un petit peu à tout ce qui est contrôle parental que vous avez déjà dans votre chat GPT. Bien, Trusted Contact arrive, il est en train d'être déployé aux États-Unis et va continuer son déploiement un petit peu partout. En quoi ça consiste? Ben, vous pouvez nommer un et un seul contact de confiance à votre chat GPT. Et chat GPT va alors prévenir ce contact de confiance que vous voulez l'ajouter en tant que trusted contact. Et si c'est accepté, alors la machinerie Open AI va étudier toutes vos conversations. Vous pouvez décider de la débrayer ou de l'embrayer cette fonctionnalité-là. Ça va analyser vos conversations pour voir si vous êtes pas un petit peu en mode douleur. Vous êtes en train d'avoir des pensées sombres, voire très noires. Vous avez envie de vous faire du mal à vous-même et bien Open E va pouvoir décider qu'il se passe quelque chose. Il va d'abord vous dire "Attendez, faut se calmer 2 minutes." qui va vous recommander aussi des services médicaux, des services d'aide, des services psi et puis ça va être envoyé à un contrôleur humain, un salarié d'open qui va juger ce que vous êtes en train de dire, donc voir votre conversation et potentiellement décider de faire prévenir votre trusted contact. Alors cette personne recevra une petite alerte, on va pas lui dévoiler votre conversation, mais dira "Oh, je pense que ton pote, il a besoin d'aide, il a des pensées sombres, il faudrait que tu l'appelles pour prendre des nouvelles." Et ça permet d'avoir une responsabilisation de la conversation qu'on a avec chat GPT un petit peu au-delà du cercle privé entre Lia et vous. Et c'est plutôt pas mal de vouloir faire rentrer l'humain dans la boucle. Maintenant, on peut se demander si Open AI fait pas tout ça pour justement se déresponsabiliser. Donc, on y est un petit peu moins pour quelque chose. À voir si les utilisateurs vont souscrire à ce trusted contact qui sera disponible dans tous les abonnements hors abonnement d'équipe, team et du et cetera parce qu'il faut pas que ça sorte d'un cercle d'utilisation privée bien entendu. Et on verra ce que feront les autres géants de l'intelligence artificielle si ils vont prendre ce pli là ou pas. Une un petit peu plus responsable qui branche les humains les uns avec les autres, qui prend soin de nos petits moments down, bah pourquoi pas? les sources, les articles, les vidéos, les formations et toute la communauté est à retrouver sur rena-dcodes.fr.

Sur le même sujet : IA