ENFR
8news

Tech • IA • Crypto

TodayVideosVideo recapsArticlesTop articlesArchives

IA : La Menace Fantôme ou le Réveil de la Force ?

AIRenaud DékodeMay 4, 202655:56
0:00 / 0:00

TL;DR

OpenAI accélère la monétisation et la surveillance autour de ChatGPT tandis que l’IA progresse rapidement dans la publicité, la justice, le développement logiciel et même le diagnostic médical.

Key Points

Publicité intégrée dans ChatGPT

ChatGPT déploie progressivement des publicités directement dans les réponses conversationnelles pour les utilisateurs gratuits et certains abonnements à bas coût. Déjà actif aux États-Unis depuis début 2026, le dispositif s’étend à des pays comme le Canada, l’Australie et la Nouvelle-Zélande. Les utilisateurs payants restent exemptés de publicités.

Le ciblage repose principalement sur le contexte des conversations en cours, la langue et la localisation générale. Les sujets sensibles comme la santé ou la finance sont exclus. Toutefois, l’historique conversationnel et la mémoire activée peuvent influencer les annonces, marquant une évolution vers un modèle proche de Google Ads ou Meta.

Virage vers un modèle publicitaire performant

OpenAI a modifié son modèle économique publicitaire, passant du CPM (coût pour mille impressions) à un modèle CPC (coût par clic) estimé entre 3 et 5 dollars par clic. Ce changement rapproche ChatGPT des standards du marché publicitaire numérique.

Cette évolution attire des annonceurs premium avec des budgets élevés, tout en renforçant la logique de performance et de traçabilité des campagnes.

Collecte de données et marketing externe

Une mise à jour récente de la politique de confidentialité confirme la collecte de données telles que cookies, adresse IP, email (haché), téléphone et statut d’abonnement. Ces données servent notamment au reciblage publicitaire externe, permettant de promouvoir OpenAI sur d’autres sites.

Un point controversé concerne les paramètres de consentement aux cookies, activés par défaut pour les utilisateurs gratuits dans certains cas, soulevant des questions de conformité réglementaire, notamment en Europe.

Surveillance automatisée et revue humaine

OpenAI formalise l’existence de systèmes automatisés analysant les conversations via des modèles internes. Ces systèmes détectent des comportements à risque grâce à des classificateurs, blocklists et analyses multi-conversations.

En cas de signalement, une revue humaine peut intervenir, avec possibilité de sanctions ou de signalements aux autorités. Ce cadre soulève des enjeux de gouvernance, de transparence et de juridiction internationale.

Procès Musk vs OpenAI

Le procès entre Elon Musk et OpenAI se déroule en Californie, avec des accusations liées à l’abandon du modèle initial non lucratif. Musk réclame jusqu’à 134 milliards de dollars, tout en contestant la transformation commerciale de l’organisation.

Les débats révèlent des contradictions, notamment sur la valorisation financière et les intentions initiales. Le tribunal examine les faits concrets plutôt que les considérations philosophiques sur l’IA.

Accusations de distillation et tensions sectorielles

Lors des audiences, Elon Musk a reconnu que son entreprise xAI avait utilisé des techniques de distillation, consistant à exploiter les réponses d’autres modèles comme ceux d’OpenAI ou Google pour entraîner ses propres systèmes.

Cette pratique, critiquée notamment vis-à-vis d’acteurs chinois, alimente les tensions dans l’écosystème IA sur la propriété intellectuelle et la concurrence.

Mistral accélère sur les agents IA

La société française Mistral lance de nouvelles fonctionnalités comme le Work Mode et les agents distants, permettant d’exécuter des tâches complexes et longues de manière autonome dans le cloud.

Cette stratégie positionne Mistral comme une alternative européenne crédible, avec une approche plus ouverte et compétitive en coût face aux géants américains et chinois.

L’IA dépasse les médecins aux urgences

Une étude publiée dans Science, menée par Harvard et des hôpitaux à Boston et en Israël, montre que le modèle O1 d’OpenAI atteint un taux de diagnostic correct de 67 %, contre 50 à 55 % pour des médecins urgentistes.

Réalisée sur 76 patients réels, l’étude souligne l’efficacité de l’IA dans le triage médical initial. Elle relance le débat sur l’intégration de l’IA dans les décisions cliniques, entre assistance et supervision humaine.

CONCLUSION

L’intelligence artificielle entre dans une phase de bascule où enjeux économiques, juridiques et sociétaux s’entremêlent, entre promesses concrètes et inquiétudes croissantes sur la surveillance et l’usage des données.

Full transcript

On en est à un point de bascule de l'intelligence artificielle les amis. Est-ce que c'est la menace fantôme qui va nous bouffer ou est-ce que c'est le réveil de la force? Bon et bien joyeux mai de force les amis, on est sur Renault des Codes et c'est la revue de l'actualité IA web digital tech de ce joyeux lundi 4 mai, justement, le jour des geeks de Star Wars. Assurez-vous d'être bien abonné à cette chaîne, d'avoir activé la petite cloche pour ne pas louper ces actu, ça va très très vite et il faut pas se faire enfler. Bon, les actu, il y en a certaines, notamment les premières qui sont un tout petit peu flippantes qui peuvent réveiller le complotiste qui sommeille en vous. Bah méfiez-vous, calmez-le. Euh on cherche des informations tous ensemble, on broche branche notre sagacité et on y va. Vous êtes prêts? Vous êtes prévenu? J'ai fait le disclaimer d'usage, hein. Alors, c'est parti pour la première actue. Ah bah va, ça part bien. Bougez pas, ça va aller. Créchendo, on commence par celle-là. Oui, chat GPT vous espionne et monille vos données. Oui, ça y est, c'est assumé. Ah bon? Ah, ça y est, il sort du bois chez Open. A Oui, alors il y a trois changements distincts sur des choses un petit peu différentes mais qui nous indiquent effectivement que Open AI, il va plein pot et assume ce qu'ils sont en train de faire avec nos petites données, c'est-à-dire faire de l'argent, de la tunasse, avec nos données. On a donné le droit. Bon ben, je vais tout vous expliquer juste justement trois euh changements, trois annonces qui ont été faites mais en quelques heures, jours euh à peine et vous allez voir qu'elle dirige un petit peu les choses du côté de chez Open AI. On a le côté publicité dans chat GPT dont je vais vous parler. On a le côté marketing externe de l'entreprise Open AI qui sans rien vous dire voilà récupère certaines de vos données en fonction de votre statut. Ah ouais parce qu'en plus il y a une différence de classe carrément. Et puis un texte de sécurité, je le dis pas trop fort, qui vient de sortir il y a quelques jours et qu'on aurait raison de regarder dans le détail. Oui, c'est toujours les CGV écrites en tout petite. Faut les regarder de très près. Donc les amis, on va parler de ça. D'abord l'histoire de la publicité. L'histoire de la publicité. Non, je vais pas vous faire tout un historique de la publicité. Vous connaissez, si vous suivez un petit peu Renault Descodes, cette logique de la part de chat GPT d'intégrer de la publicité dans les réponses euh au euh dans les réponses dans le chat, dans la conversation, les réponses conversationnelles de chat GPT. Ça prend cette forme là. Si vous le voyez, voilà, je vais vous le mettre en plus grand à l'écran, ce sera mieux. Vous avez donc euh voilà la réponse qui vous est fait faite par le chat quand vous euh quand vous discutez avec lui. Et puis après un petits icônes là que vous voyez ici qui qui symbolise la fin de la réponse que vous a faite. Euh le LLM. Le petit liseret qui va bien. Hop hop hop. Ah oui, c'est démarqué. C'est démarqué. Oui, c'est discret. C'est discret. Bon et juste après, boum, de la publicité. Bon, ça vous le savez, c'est déjà en pilote depuis le 9 février si je me trouve souviens bien, depuis donc le début de cette année aux États-Unis. Voilà, uniquement pour les gens qui sont en mode gratuit, donc free et go également les abonnements Go, vous savez, les abonnements à à 5 dollars, eux, ils ont de la publicité. Ceux qui payent, bon bah si c'est pas gratuit, c'est pas le produit, bah merci. C'est comme ça que ça fonctionne. Ceux qui payent et ben ils ont pas les pubs. Bon, c'est la logique, vous la connaissez. Euh le truc c'est que effectivement euh ce truc cette logique de publicité dans chat GPT s'est étendue. Donc c'était fin mars au Canada, euh Nouvelle-Zélande et Australie. Voilà. Euh en France et en Europe, bah on a tellement de régulations dans tous les sens que c'est pas arrivé encore. Mais ça pourrait se décoincer. Après tout, on a des pubs dans Google le moteur de recherche historique. Bon et ben, c'est un peu le même principe ici, mais on a besoin de savoir sur quoi sont basés ces publicités, comment est fait ce ciblage publicitaire là. Alors, ce n'est pas basé sur euh les euh comment ce n'est pas basé sur vos données personnelles à vous cette publicité-là, c'est simplement du côté chez Open AI. On sait que vous êtes en train de parler de tel truc dans cette conversation. Cette conversation veut dire toute la conversation, pas juste cette réponse-là, mais également l'historique de la conversation, pas les autres conversations non plus. Tac tac tac tac tac. Il arrive à comprendre tout ça. Il également est capable dans les derniers développements d'aller un petit peu plus loin que ça. Et c'est là où ça commence à douiller cette histoire. Donc les conversations temporaires sont exclus du truc. Vous savez quand vous allez sur chat GPT, vous pouvez faire conversation temporaire. Du coup, ça mémorise que dalle. Ça c'est lié avec rien du tout et du coup il y a pas de pub dans ces dans ces cas-là. et toutes les logiques euh un petit peu sujet touchy euh sur la santé, la santé mentale, euh la finance, euh les trucs un peu sentimentaux, tout ça tout ça. Et ben euh il y a pas de pub non plus. N'empêche que il y a quand même cette publicité. Je vais y revenir. Maintenant que vous savez tout ça avec le petit rappel des faits les amis, on va se focaliser sur ce qui s'est passé ces derniers jours. Les amis, le ciblage est contextuel par défaut. Vous devez comprendre que dans cette publicité, vous avez le fil en cours, donc la conversation dans laquelle vous êtes qui euh sert à ce ciblage là. Vous avez également la langue, la localisation euh générale. Donc si vous êtes en France, par exemple, localisé en France, vous avez pas les pubs. Attention, si vous utilisez un VPN basé aux États-Unis ou dans les pays que j'ai situé, j'ai j'ai cité tout à l'heure notamment le Canada, puisque nous les petits Frenchy, souvent on a un VPN branché sur le Canada. Bon et ben vous allez tomber dans cette logique là. Donc ben chat GPT Open AI va regarder plus attentivement vos conversations, votre contexte, votre ce que vous racontez et cetera et cetera. Sachez que si la personnalisation est activée, elle est activée par défaut dans les paramètres de Open AI, ce ciblage là va aussi se nourrir se nourrir de la mémoire, toutes les informations que vous avez enregistrées en mémoire dans chat GPT, des conversations passées puisque vous le savez, chat GPT a des capacités quand vous le promptez bien comme il faut d'aller regarder dans vos anciennes conversations pour retirer la l'essence même et bien c'est pareil pour le ciblage publicitaire et même les interactions publicitaires. Est-ce que vous avez cliqué sur une autre pub avant? Bah ça fait trois fois que je vois cette pub, je clique pas dessus. Chat GPT va se dire "Je vais arrêter de lui proposer celle-là, je lui en proposer une autre vu qu'il clique pas dessus." Donc tout ça est en train de nous dire très clairement chat GPT devient un vrai moteur publicitaire à l'instar des Google ou des réseaux sociaux comme Meta, Insta et cetera et cetera. On est en train d'aller clairement là-dessus. Pour l'instant, ce sont les annonceurs premium qui peuvent aller là-dessus. Il faut plus de 100000 € ou 100000 dollars ou 200000 dollars de budget à mettre quand on veut être annonceur dans ce système dans ce système là. Donc bah il y a de la pub pour nous tous hein les amis, enfin pour les Américains et ceux qui ont un VPN dans les pays indiqués. Mais on a ce ciblage qui est fait là-dessus. Maintenant pareil que pour Google les les la publicité Google ou autres, il n'y a pas de d'IP d'adresse IP, il y a pas de mail, il y a pas de données de localisation précise. Renault pendant qu' sa conversation, il est exactement à tel endroit. Donc je vais envoyer sa localisation à l'annonceur sur lequel il a cliqué. Ça cette partie-là n'arrive pas. Chat GPT collecte bien toutes vos informations pour faire du ciblage publicitaire. Il a tout, il voit tout, il regarde tout et maintenant il l'assume, il le revend pas. aux annonceurs mais il sait tout ça de vous. Ouais, je vous avais dit que ça réveillerait votre petit côté complotiste. Bon, vous pouvez être sûr que chez les autres ça va arriver. Peut-être pas chez Entropique qui euh qui apparemment tient bon sur ses valeurs éthiques et morales, mais chez Google qui a quand même fait toute sa construction là-dessus. À mon avis, ça va arriver à un moment ou un autre. Deuxième point qui est arrivé ces derniers jours à peine, c'est ceci les amis. Je vais vous partager à l'écran. Tous les liens seront dans l'article retrouvable sur rena-dcode.fr. La politique le la politique de comment on dit de données personnel de vie privée, je sais pas comment on dit privacy policy vient d'être mise à jour là très récemment ces derniers jours notamment en ce qui concerne le marketing. Alors là c'est un autre pan de ce que je vous j'ai à vous raconter les amis. Là on a parlé de la pub juste avant, je vous en reparler après. Mais là on est sur le marketing privacy. Donc en gros c'est quand vous utilisez Open AI chat GPT. Est-ce que les données que vous euh laissez dans des petits cookies ou des choses comme ça, bon, est-ce qu'il y en a déjà? Est-ce que ça stock des informations sur vous? Si oui, lesquels? Et à qui c'est revendu ou à qui c'est donné ces ces infos-là? Donc là, on parle vraiment des données collectées quand vous visitez Chat GPT Open AI. Bah les amis, si vous regardez de plus près ce fameux texte, vous allez vous rendre compte que là aussi et bien Open AI assume le fait que oui, il récupère des informations et ils exploitent des informations. Cookie adresse IP? Ouais, le mail et le téléphone en mode haché mais le mail et le téléphone. Le la notion d'abonnement, est-ce que vous êtes en gratuit? Est-ce que vous êtes en payant? Si vous êtes en payant, quel abonnement vous avez? Tout ça, c'est récupéré et cookies par Open AI dès que vous allez là-dessus. Vous allez me dire "Mais normalement il y a une gestion de cookie." Oui. Et c'est un peu là où le bas blesse les amis. Je vais vous montrer ça. Si vous allez sur les pages d'open pas forcément celle-là mais toutes. Si vous allez tout en bas, il faut toujours être tout en bas pour lire les petites lignes. Vous avez ici le manage cookies et vous avez la possibilité Ah bah quand même, ils sont dans la légalité. H oui mais non. Vous avez la possibilité de dire non, je veux pas que tu utilises ces cookies là. Alors ces informations là, à quoi elles servent ces informations-là? à faire en sorte de vous cibler ailleurs que sur que chez Open AI. Quand vous visitez Open AI, ça prend vos informations, ça les stock dans un cookie sur votre ordi. Et si vous allez ailleurs, vous pourriez avoir un ciblage vers Open AI pour promouvoir les services d'open AI, voilà, sur d'autres sites que ceux d'Open AI. Genre, vous allez sur un blog qui parle de tech et on vous dit "E dis donc, toi qui n'a pas d'abonnement open et tu devrais en prendre un." Ah, tu vois, c'est ça le reciblage une fois que c'est là. Et la petite douille, c'est que si tu es abonné payant, comme c'est mon cas ici, bah tu as des cases qui sont décochées de base. Si tu es abonné gratuit ou go, alors les cases sont cochées de base et ça c'est pas légal. On n pas le droit normalement. En tout cas, sachez-le, si vous êtes abonné gratuit au tout départ, donc au départ quand vous avez pas d'abonnement, vous allez sur chat GPT, vous êtes forcément gratuit. Bim, il y a cookie et ça prend des informations sur vous et ça a coché les cases de base. Hm, ça craint du boudin. Je reviens sur la partie publicité les amis pour vous dire simplement un petit prolongement puisque là on parlait de publicité où on vous resserre ailleurs. Euh chatt vient de sortir aussi vient de changer autre chose également. Alors on n'y a pas accès nous pour l'instant dans cette partie publicitaire. Les pubs qui s'affichent dans chat GPT. Euh ils sont passés d'un modèle de CPM au CPC pardon. Avant on était au coup par 1000. C'estàd que quand tu étais annonceur ici dans chat GPT, il tu payais pour 1000 affichages de ta pub. Oui, enfin 1000 affichages, les gens ils cliquent dessus ou pas, ça les intéresse ou pas? Ils sont venus sur mon site ou pas? Ils ont acheté des trucs ou pas? On sait pas. Tu payes pour l'affichage. Bon bah c'était très cher. C'était vraiment une un positionnement premium qui a baissé totalement. On était autour de 60 dollars du CPM coût par 1000 et on est passé autour de 25 30 dollars du CPM. Et là, ils viennent de faire la bascule au CPC. Et ça craint pour nous les amis, je vous le dis parce que c'est comme ça que marche la publicité en ligne aujourd'hui. Si vous avez plein de trucs intrusifs un petit peu partout, c'est cette logique de cookie que je vous ai donné juste avant et c'est aussi cette logique de coût par clic. Les annonceurs vont pouvoir payer au clic entre 3 et 5 dollars par clic, ce qui met au niveau de voir un petit peu en dessous du Google search par exemple la pub search un petit peu au-dessus de la pub sur les réseaux sociaux. Bref, on est dans cette dans cette logique là chez Chat GPT qui devient un instrument du coup de publicité clair et précis avec du résultat à la clé. Si les annonceurs payent au clic cc, ils vont savoir que cher, j'ai mis tant de pognon mais j'ai eu tant clic sur mon site et sur les temps de clic qui sont venus sur mon site avec les cookies et tout le basting, je vais savoir si les gens ont acheté ou pas et donc je vais pouvoir cibler avec toutes les informations que je vous ai donné tout à l'heure. Voyez, toute cette machinerie est en train de se mettre en place là ces derniers jours. Il y a tous les textes qui sortent et on voit surtout que ben Open et AI commence à assumer. C'est pas qu'il commence là cette fois-ci, ils assument complètement le fait d'exploiter vos données. C'est pas forcément mal. Euh voilà, je ça je sais que ça réveille un petit peu le côté Oh les [ __ ] Bon si c'est gratuit, c'est toi le produit, c'est un secret pour plus personne maintenant. Mais ça peut devenir touchy quand on regarde aussi cette dernière mise à jour des derniers jours de chez Open AI, leur fameux euh leur fameux papier qui a été publié, leur fameux un billet qui a été euh publié sur tout ce qui est aspect sécurité et mise en œuvre des mesures de sécurité. Certains diront fliage. Oh mais attendez, c'est peut-être pour notre bien. Bon euh qui ont été sortis et assumés enfin ce 28 avril par Openir. Jusqu'alors on savait qu'il se passait des trucs, je vous en ai parlé régulièrement sur Renault Descodes. On savait qu'opir il y avait les moyens de regarder vos conversations, que ça pouvait être regardé par des humains, on se disait ça comme ça, et que ça pouvait être envoyé à la police voire à d'autres services. Tout ça étant américain les amis, OK, c'est bon, je vous laisse comploter. Voilà, on savait tout ça mais on savait pas pourquoi, comment il y avait pas de communication officielle. Bon bah, tu veux une communication officielle, la vela elle est enfin sortie. Pour la faire très très courte, c'est assumé par Open Eh, il y a des automatismes, des systèmes automatisés et mu par l'intelligence artificielle, notamment les modèles de chez Openir évidemment pour que notamment tous pour euh avoir une sorte de classifieur. Ça check dont toutes vos conversations, toutes vos conversations avec CH GPT sont regardées, scruté par une autre IA en coulisse qui regarde H de quoi vous parlez. Il y a des modèles de raisonnement, il y a euh également des bloclists, euh il y a euh la possibilité de faire de l'analyse multiconversationnelle. Oh Renault, il nous parle de tel truc, c'est un peu chelou mais peut-être il cherche juste des informations et il a envie de faire de la chimie pour faire des trucs qui explosent pour le 14 juillet. Très bien. Oui, mais dans une autre conversation d'il y a 3 mois, ce qui nous indique que chat GPT Open AI a aussi l'accès aux historique de conversation et peut faire des rapprochements multiconversationnels. Il y a 3 mois Renault il avait parlé aussi de trucs qui pètent un certain machin. Ça fait beaucoup de trucs qui pètent pour Renault. Du coup et ben on va passer le système automatisé. passe ça à un humain. Donc on a bien des gens humains à sermenter, certifiés, des gens de la police, de la gendarmerie, non du personnel privé d'open qui va regarder ce que lui remonte son automatisation et va pouvoir dire "Oh oui, Renault, il est probablement en train de faire un sale coup." Comment c'est jugé? Par qui? Par quels humains? Aux États-Unis, nous les Français, comment ça se passe? Bon, c'est ce qui se passe. C'est assumé par Open A, vous savez tout maintenant. Donc, il y a bien une revue humaine alors qui est en accès limité. Ouais. Mais du coup, comment on peut vérifier que les gens font bien leur travail? On peut pas. C'est environnement sécurisé. Il y a que eux qui peuvent vous espionner. Oh dis donc, regarde pas par-dessus mon épaule comme ça. Et les bannissements sont possibles, voir l'appel à la police de la part de ces gens chez Open Eh. Alors ça marche plutôt pas mal aux États-Unis. Tu m'étonnes, John. Ça marche moins bien puisqu'il y a eu des cas notamment de gens au Canada qui euh utilisaient CHPT pour fommenter des sales coups et puis opener était apparemment au courant mais ils ont pas prévenu la police. Donc le gouvernement canadien a dit dis donc tu étais au courant du truc et tu as rien dit. Ça ça correspond pas à nos règles. Oui mais alors du coup on va ouvrir un canal avec le Canada et cetera. Est-ce que tous les États du monde en fonction de leur législation et de leurs règles vont devoir ouvrir un canal avec des sociétés privées comme Open et E qui vont être juge, policiers, flic de des conversations qu'on a? Est-ce que c'est une bonne chose pour la démocratie et pour l'avenir du monde, la géostratégie? Est-ce que c'est une bonne ou mauvaise chose? Est-ce que en même temps, si ce truclà fonctionne et il fonctionne, il est en route, est-ce que c'est pas une aide notamment pour tout ce qui est détrest psychologique? on le sait tout ce qui peut être des trucs de voilà des de mal-être notamment des ados. Bah c'est le même système qui fait que ça envoie une petite notification push aux parents quand il y a des des comptes parents enfants et ça peut être très très bon tout ça. Bon ça peut même aller plus loin de faire appel à des cellules de détresse psy pour intervenir directement auprès du mom ou auprès des adultes. Ils sont en train de réfléchir au même système pour les adultes. C'est pas encore en route. Bref, on en est où de ce trucl? Est-ce que c'est Big Brother ce chat GPT, ce Open AI? Est-ce que ça va pas faire exactement la même chose du côté de la pub, du remarketing et de voilà de la qualification des conversations privées que vous pouvez avoir? Est-ce qu'on est en train de rentrer dans un siècle de surveillance globale? Est-ce que c'est pour notre mal, pour notre bien? Ça fait beaucoup de questions. Vous savez quoi? Je vous laisse les réponses. Voilà, je vous ai donné des actu. On verra ce que vous en pensez. On verra surtout comment ça évolue. Et maintenant, il y a plus de secret. C'est assumé par open tout. Ça message important juste avant de poursuivre cette revue d'actu pour te dire que le club Renault descodes est la meilleure formule si tu veux être en maîtrise de l'intelligence artificielle dans les meilleures conditions possibles. Ce qu'il te faut pour progresser, c'est pas juste des formations, c'est un club et c'est pour ça que nous avons constitué ce club. Tu verras que l'abonnement est conçu pour être accessible à absolument tout le monde. Donc n'hésite pas, il est libre. Tu peux arrêter absolument quand tu veux. Et dans ce club, tu vas trouver l'environnement complet qui va te permettre de progresser très vite. Le parcours de e-learning sur l'intelligence artificielle pour tout maîtriser, tout comprendre de l'envers du décor de l'IA, de toutes les fonctionnalités, de tous les chatbot, de tous les éditeurs, bref de tout ce qui te mettra en maîtrise de ce que tu fais avec l'intelligence artificielle. un second parcours e-learning sur tout ce qui est automatisation jusqu'aux agents, jusqu'à tout ce que tu peux fabriquer pour te rendre le quotidien plus efficace, plus facile, plus qualitatif également. Tu sauras tout là-dessus. Mais attention, le club c'est surtout un club. Tu vas retrouver toute la communauté, des centaines de membres de Renault Descottes qui échangent en permanence, qui livrent leurs différents projets. Tu pourras mettre aussi en avant ton projet, trouver des gens pour t'aider dans ces projets. Tu pourras regarder les idées qu'ont les autres, les échecs, les réussites. On peut mettre en avant tout ça dans le club et puis les chats pour discuter en permanence et seris sur le gâteau. Des lives privés toutes les semaines entre nous, soit pour poser toutes les questions qu'on a, soit pour faire des workshops, soit pour avoir des projets présentés, soit des labs. tous ensemble. Bref, tout ce qu'il faut pour que tu progresses vraiment concrètement, pas simplement en savoir mais aussi en maîtrise concrète. C'est super important de passer à cette étape là dans le domaine de LIA et dans ce monde qui va toujours plus vite. Alors viens découvrir le club, ça se passe sur Renault des codes. Allez, je vous laisse suivre la suite des actualités. Autre sujet les amis que vous m'avez demandé de traiter. Alors on va le traiter. Musk contre Open AI, le procès des tricheurs sans fois ni loi. Je l'ai appelé comme ça ce petit sujet parce que les amis, il s'est passé un truc absolument merveilleux dans ce procès qui se tient donc en Californie à Auckland depuis le 27 avril. C'est plus une passe d'arme sur les réseaux sociaux entre Samaltman et Elon Musk. Non, vous savez qu'il s'affrontent depuis toujours à peu près ces gens-là. Cette fois-ci, c'est un vrai un vrai procès. Ça a pu enfin se déclencher puisque le 24 avril, il y avait euh la partie fraude euh qui était une des accusations donc de Elon Musk contre Samaltman ou plutôt contre Open AI. Mais en fait, c'est Samatman qui l'a dans le viseur, il peut pas le pifrer. Il y avait une accusation de fraude, elle a été écartée. Ce qui a permis bah de confirmer le les le périmètre du procès qui donc se tient depuis le 27 avril à Auckland avec Musk qui veut clairement la mort d'open dans cette histoire, hein. Voilà, donc on est en train de juger le potentiel trust caritatif. Vous savez, la logique de Open AI avait été créée avec l'aide d'Elon Musk au départ sur la logique d'être à but non lucratif. Voilà, c'est pour le bien de l'humanité qu'on va faire nos IAS. Et puis le truc bah est parti en pas en en profitable, voilà, en pas caritatif et du coup Elon Musk est plus dans la barque, il dit non, je me suis fait douiller dans l'histoire. Il dit pas ça comme ça en pire mais en gros c'est ça la logique. Et puis il y a le côté enrichissement injuste ou injustifié que Elon Musk pointe du doigt du côté de chez Open AI. Bon, clairement ce que veut Elon Musk, c'est torpiller Open Ey, leur faire payer un maximum d'argent, ruiner complètement leur entrée en bourse prochaine et récupérer tous les fruits du truc. Mais tout ne s'est pas passé comme prévu dans cette petite logique. Déjà parce que la juge qui s'appelle euh qui s'appelle Yvon, je crois, de son prénom, Gonzalez Rogers, elle est euh elle est associée à neuf membres d'un jury consultatif. Donc on a des gens qui posent les bonnes questions, qui regardent vraiment les faits. Ils sont en train de tout éplucher, ça va durer 3 semaines de preuve de responsabilité de machin et cetera. Et en fait c'est ces membres de ce jury qui vont faire tout le boulot. Et la juge à la fin, elle dit "Bon déjà, on va pas partir sur des trucs philosophiques, des débats philosophiques sur l'IA et l'avenir de l'humanité machin. Arrêtez-vous, on va regarder les faits et on va juger sur les faits. Et c'est moi que juge à la fin qu'elle nous dit la juge. Bon, on va voir ce que ça va donner." Et donc là, ils en sont aux auditions, aux preuves accumulées et tout ça et tout ça et tout ça. Et on commence à avoir des petits doutes. Enfin, je dis on je suis pas jury, c'est la juge qui commence à avoir des petits doutes. Notamment parce que Elon Musk réclame entre autres 150 milliards de dollars euh contre Open plus Microsoft, 134 milliards de dollars, je crois, avec la part de Microsoft autour de 20 milliards de dollars. C'est c'est pas c'est pas rien. Alors le juge il dit elle dit ben il est bizarre votre calcul parce que si je comprends bien la part de Elon Musk à la création de cette entreprise qui à la à la base était à but non lucratif c'était de 38 millions dollars et maintenant Elon Musk ben vous réclamez 134 milliards de dollars. C'est bizarre votre truc. Oui, mais c'est parce que le pognon que j'ai mis à la base, ben maintenant avec la valorisation d'open il vaut plus cher. Ouais. Bon, c'est un petit peu tiré par les vuges puisque justement tu reproches à la boîte d'être à but lucratif et de vouloir faire une entrée en bourse et en même temps, tu te sers de ce mode lucratif et de cette entrée en bourse pour valoriser ton préjudice. Bon, le truc il est un petit peu spécial et puis c'est pas trop justifié, donc on n'est pas du tout sûr sur le montant. Maintenant, il faut s'attaquer au fond. Est-ce qu'il y a douille ou est-ce qu'il y a pas douille? Parce que Elon Musk il réclame pas que de l'argent qui va pas encaisser lui-même. Il nous dit "Non, non, je veux que ce soit que Open soit condamné à verser cette cet argent à la fondation à but non lucrative de Open A ou de la mienne." Voilà, c'est pas pour son enrichissement personnel. Manquerait plus que ça. Bon, mais il veut aussi l'éviction de Samaltman et puis de Brockman son numéro 2 au passage parce que en fait, il veut simplement défoncer ce concurrent. C'est ce que tout le monde commence à se dire. En même temps, on se dit "M'estce qu'il a peut-être raison. On crée une boîte à but non lucratif puis après ça fait des milliards. Qu'est-ce que c'est que cette douille? Ah bon? Donc on a entendu Elon Musk sur 7h réparti sur 3 jours. Il est allé aux auditions, pas comme en France. Voilà, il a répondu à tout le truc. Il a euh raconté son histoire, celui du gars qui avait mis des millions au départ et puis qui s'est senti floué parce qu'il avait un rêve pour l'humanité et qu'en fait lui jamais il ferait du pognon avec l'intelligence artificielle. What? Attendez, monsieur Musk, on va creuser un petit peu cette histoire. Si on parlait un petit peu de Groc, c'est en caricaturant ce qui s'est un peu passé dans ce dans cette petite dans ces euh dans ces auditions euh qui se sont passé et ils ont euh creusé un petit peu le truc. Ils ont bien compris que Elon Musk visait aussi euh les gens de chez euh Microsoft, il a euh victimisé complètement qui il était Elon Musk dans cette idée-là en disant "Attendez, c'est moi qui ai filé l'idée, c'est moi qui ai filé le nom Open qui a plus rien d'open d'ailleurs. Il a raison Elon Musk là-dessus. C'est moi qui ai filé les 38 millions au départ. En plus, j'ai mis en lien avec les gens de chez Nvidia, les gens de chez euh Microsoft, les gens de chez Google pour avoir de la puissance de compute et cetera et cetera. Et puis après, bah en fait, c'est Microsoft qui a foutu de l'argent, qui a mis un peu main basse là-dessus et qui a fait switcher l'entreprise. Donc, il en a peut-être aussi après Microsoft et après le fait que c'est pas bien de faire du pognon sur l'IA. Bon, open contre-attaque en disant qu'en fait il y avait des termes, il y avait des termets, des documents et des mails qui avaient été envoyés dès le départ en 2015 euh à Elon Musk en disant bon, il y a Microsoft qui dit que ce serait pas mal qu'on passe en lucratif et cetera. Musk il dit, j'ai vu que le titre, le sujet du mail et du coup je l'ai jeté, je l'ai pas lu. H ça devient compliqué cette histoire. Musk, il a aussi fait des mails en disant qu'il voulait la majorité dans le cas de d'un de d'un actionnariat et donc d'un but lucratif. Ce qui veut dire qu'il était pas contre puisque si ça se faisait, il voulait en être majoritaire. Donc il était pour si c'était lui aux commande. Mais il est des compte quand c'est plus lui aux commande. Bon ça part en cacahuète, il avait même parlé de fusion avec Tesla à l'époque en 2015 ou 2017. Bref, tout ça est un petit peu bizarre et on on comprend bien qu'il y a de la jalousie et du sabotage de l'IPO qui est enfin de l'entrée en bourse qui est dans la tête de Elon Musk. Tout ça euh tourne aussi euh à au désavantage d'open AI puisqu'on est en train de se rendre compte notamment avec ce procès, tout le monde en a conscience que oui, c'est vrai, Open AI devait être un but non lucratif et que ça aurait été bien pour l'humanité. Ça aurait été une chance pour tout le monde de partager ça sous forme non commerciale. Et ensuite ben dans cette fondation à but non lucratif, on a mis une fondation enfin une boîte à caractère commercial qui prend plein de pognons. Alors Samtman il dit "Ouais, c'est toujours sur l'entité juridique globale, c'est toujours une fondation abut non lucratif." Oui, mais en même temps, tu as une boîte commerciale en dessous qui remonte du pognon certes à 26 % à la boîte non lucrative, mais aussi à plein d'actionnaires privés. Donc qu'est-ce que c'est que ce montage à la noix? Bref, c'est un panier de crabe. C'est clairement un panier de crabe cette histoire et c'est peut-être ça qui que ça nous montre là-dedans. Et dans ce panier de crab, on a un dernier coup de pince qui vient d'arriver et c'est arrivé de nulle part puisque pendant les auditions d'Elon Musk dont je vous parlais à l'instant, ben il a lâché un truc, il a failli qu'il réponde aux questions des membres du jury et il a notamment été question de distillation. La distillation, qu'est-ce que c'est? C'est le principe d'utiliser une IA. On se dit ouais cette elle est super forte. Bah du coup plutôt que de faire mon entraînement enfin ma relève de données, mon entraînement de données, mon entraînement de LLM et cetera et cetera et cetera, tu sais quoi? Je vais tricher. Je vais regarder une IA qu'elle est vachement bien. Je vais l'interroger plein de fois, plein de fois, plein de fois pour retirer tout ce qu'elle sait et du coup bah créer mon LM non pas en faisant moi-même le boulot, mais en utilisant l'IA de quelqu'un qui a fait le boulot. Et ça les amis, il y a tout un consortium de toutes les illes américaines qui est en train de s'élever depuis quelques semaines contre ça avec le soutien de Donald Trump notamment contre les Chinois qui font de la distillation. Ils repompent les modèles d'open AI, enfin ils interrogent les modèles d'entreopique d'open AI de Google et cetera pour faire leur modèle. On sait pas s'ils le font encore maintenant, mais il y a quand même des gros signes qui viennent de la Chine euh sur les data centers américains. Bon et ben tous les euh les gros éditeurs d'IA aux États-Unis font la chasse, hein, c'est Margoulin qui font la distillation. Et donc on interroge Elon Musk dans le cadre de ce procès sur la distillation et on lui dit "Bon, est-ce que vous savez ce que c'est?" Oui. "Est-ce que vous y avez eu recours?" Euh oui. "Est-ce que c'était en utilisant des modèles d'open AI Ben faut dire Elon Musk nous raconte, ben faut dire que c'est ils sont très bons hein. Nous on est que des petits poussés chez chez X et bien sûr que les gros modèles ben c'est Enhropique, c'est Open AI, c'est Google. Et oui, c'est vrai, il a fini par l'admettre, on a fait de la distillation de ces modèles. Donc on se rend compte que Grock est une imposture parce que on a beau tapé sur les Chinois mais Grock a fait pareil, ce qui n'empêche pas que ce soit pas un très bon modèle. Les modèles chinois sont aussi très bons sur certains aspects, mais en fait ben c'est assez bizarre de replacer ça dans le contexte de ce procès où clairement Elon Musk dit c'est pas bien ce que fait Open AI, c'est tout nul et puis c'est pas bien de faire de l'argent sur pour faire des modèles sur un truc qui est à but non lucratif alors que lui-même fait de la distyation donc il se fait de l'argent avec son modèle en distant les résultats de ce modèle d'open qu'il accuse par ailleurs. Bref, c'est un panier de crab. Est-ce que c'est bien? Est-ce que c'est pas bien? Est-ce que la France, nous, on a plus d'éthique et de moral et que on va chercher un petit peu plus loin? Est-ce que du coup, c'est pas pour ça qu'on se fait bouffer et qu'on avance moins vite? Bon, on y reviendra dans une actue. Mais d'abord un petit tour du côté de Google, juste pour enfoncer le clou de votre côté complotiste. Une fois que vous aurez entendu ça, on pourra se reposer un petit peu. Attention, maintenant on attaque le volet Google. Et le volet Google, il est très simple. Il se résume là-dessus. Google bascule dans le classifié militaire et je pense que c'est grave et c'est mon avis, je ne suis pas américain. Qu'est-ce que j'ai à dire là-dessus? Qu'est-ce que c'est que cette histoire qui concerne que les géants de l'IA américaine et le Pentagone? Je ne suis pas américain, oui, mais c'est l'ordre mondial qui se voit ici complètement bouleversé. Qu'est-ce qui s'est passé? Et bien, tout simplement les amis, nous avons ceci que je vais vous partager qui se trouve être le site Notdivided notdivided tout attaché.org org si vous voulez le retrouver. Bon, je vous mets toutes les sources sur les articles publiés sur rena-dcodes.fr si vous avez envie de retrouver les sources de tout ce que je vous raconte. Ce trucl est une sorte de pétition de lettrre ouverte de 600 salariés de Google. Alors, ils sont maintenant plus nombreux. Ils sont plus de plus de 800 maintenant qui ont rédigé cette ce courrier pour dire "Nous salarié de Google et il y a des très hauts gradés, je sais pas, des très hauts postes au sein de Google." On est contre, totalement contre le fait que les IA de chez Google Gemini soient utilisé sur des données classifié du Pentagone américain. Et bien ce tru-là, cette lettre là a été publiée, a été signée pu publiée le 27 avril 2026. Ce même 27 avril 2026, la lettre c'était le matin, l'après-midi même, Google a signé un avenant avec le Pentagone disant que oui, Google Gemini, les différents modèles seraient utilisés sur des données classifiées et dans des environnements classifiés, secret défense. Ce truc est un euh est un truc qui peut vous faire flipper. Voilà, si vous avez trop regardé Terminator ces derniers temps, passez à l'actu suivante qui sera beaucoup plus réjouissante. Mais celle-là, elle est très très grave, sachant que le 1er mai, ensuite, quelques heures, jours à peine après, il y a eu une annonce officielle de huit acteurs qui vont pouvoir intervenir aussi sur des données classifiées. En clair, le Pentagone, le gouvernement américain est en train de récupérer à récupérer voilà l'ensemble des I les plus puissantes du marché, sauf une, celle d'entropique qui fait de la résistance. Voilà. pour les faire tourner sans que personne n'ait plus de contrôle sur rien. Et c'est contre ça que les salariés de Google ne sont pas d'accord et c'est pour ça qu'ils ont publié cette lettre là. Ils sont pas du tout contre les États-Unis ou le Pentagone. Évidemment que non. Ni sur le fait que l'IA peut peut jouer un rôle dans la défense. Mais c'est pas de ça dont il s'agit. Et tout le monde l'a bien compris dans cette histoire. De quoi il s'agit les amis? Et bien des réseaux classifiés. En gros, tout ce qui concerne la planification des opérations militaires, le ciblage de qu'est-ce qu'on tape à quel moment? Euh c'est pas de la bureaucratie hein, c'est pas de voilà, c'est des usages prioritaires de militaire, command and contrôle, de décision logistique. Faut être ici ou là, mettre des troupes là là, euh piloter des armes plus ou moins autonomes, des drones d'attaque et cetera, de faire du renseignement bien évidemment, voir de l'attaque cyber et cetera. Toutes tous ces modèles vont être utilisés pour toute cette panoplie du de l'arsenal militaire américain. Le but du jeu, nous dit le Pentagone aussi, c'est de protéger nos combattants au sol bien entendu. Ben oui, évidemment du coup si c'est pour protéger les humains, bien sûr qu'on va pas être contre. Donc d'avoir la supériorité décisionnelle du combattant sur le terrain avec tout un tas de dispositifs et donc de l'IA dedans. Il nous faut l'IA la plus puissante mise sur des données classifiées sur le terrain de sur le terrain de combat. Voilà. Donc euh bah c'est comme ça que le Pentagone justifie cette ce truc-là et Google a signé cette ce cet avenant qui est un avenant. Il y avait déjà un contrat mais qui était beaucoup plus léger avant cet avenant qui dit "OK, on vous refile nos intelligences artificielles." Il y avait déjà des contrats qui courait sur tous les grands éditeurs d'IA américaine. Il y a eu également un truc qui est totalement game changer et qu'il vous faut comprendre, c'est il y a 1 an presque jour pour jour, il y a 10 11 non il y a 11 mois de ça, il y avait déjà eu un accord de Google et du Pentagone sur IL6. Donc c'est le fait de pouvoir agir. Lia peut agir sur le niveau de classification le plus élevé des informations que ni vous ni moi on aura jamais. Impossible. Voilà le niveau de classification le plus élevé. Il est interdit à quasiment tout le monde sauf à l'IA de Google. Et puis le deuxième truc qu'il vous faut comprendre le Airgaped. Le Airgaped c'est le fait d'avoir un système IA qui soit autonome du cloud. C'est-à-dire en gros un gros modèle de Gemini mais qu'on fait tourner sur une bécane qui est dans une valise sécurisée et cetera qu'on on emporte sur le terrain d'opération et qu'on ait une connexion ou pas une connexion. On a assez gros modèles. Alors je croyais qu'ils étaient pas disponibles ailleurs que dans le cloud de Google ces modèles. Si pour le pentagone américain, c'est possible. Ils sont disponibles dans des mallettes. Dans des mallettes mon avis, c'est des gros trucs parce qu'il doit y avoir un un méga un méga PC ordi pour le faire tourner cette histoire. Mais donc, il y a cette logique-là qui était qui est enclenchée également depuis près d'un an euh entre les éditeurs, entre Google et le Pentagone américain. Et c'est pour ça que ça a déclenché cette fronde, cette révolte de notdivided.org. Sachez qu'il y a plus de 20 vice-présidents et directeurs. Donc c'est pas que les les petits salariés, c'est les vice-présidents aussi de Google qui ont signé ce tru-là. Alors un/ers l'a fait de façon anonyme parce que c'est pas qu'on a peur mais on n'est pas fier. Bon ben s'ils sont fiers je pense mais ils ont peur quand même. Peut-être mais ils refusent clairement que ce soit que les IA tournent sur du classifié par la défense. Pourquoi? Tout simplement nous disent-il. Parce que si on construit ces systèmes, on doit rester responsable des usages. Ce qui va se passer, c'est qu'on donne l'IA à qui bah ça va sortir de la sphère privé, il y a plus de contrôle. Voilà, donc ça va venir chez les militaires. Mais lesquels? Sur des trucs qui sont autonomes, voire sur le airgape dont je vous parlais tout à l'heure sur une manette qui se qui se balade sur le terrain d'opération qui est connecté à que dalle. Le modèle, il devient totalement autonome. Nourri par quelles informations? Qu'est-ce qui va sortir aux combattants sur place ou aux unités sur place? On ne sait pas. Comment on le contrôle? On ne peut pas. Est-ce que des informations remontent pour être monitoré? Pas du tout. Bref, on ne sait plus du tout qui est aux commande de ces IA militaires qui bossent sur des données classifiées défense de niveau le plus élevé. Si vous avez regardé Terminator, on est dedans. Voilà, c'est ce qui est en train de se passer. En tout cas, c'est moi ça, c'est moi qui romance et qui vous le dit comme ça, mais il y a un vrai sujet de fond là-dessus. Il y avait déjà eu un mouvement en 2018 qui s'appelait Maven où il y avait voilà des petites choses. On se disait tiens les Yal peuvent aider à faire des armes et tout le monde s'était élevé contre notamment les salaries de Google et Google avait reculé en disant non finalement on y va pas. Là les amis, 2026, on est dans un tout autre game, c'est on y va, on y va, on y va. Et pour ceux qui râent de chez Google, on s'en fiche, on y va quand même. C'est parfaitement flippant ce trucl et je voulais vous en parler parce que quand on a effectivement l'accélération du Pentagone, tout ce qui se passe à travers le monde, les règles des entreprises privées surpuissantes comme Google qui s'assouplissent plus les résistances morales ou éthiques qui sont on s'en fiche complètement et puis ben tout ça fait qu'on peut se demander qui contrôle qui quand notamment tout est secret parce que c'est classifié et donc on saura jamais rien sur ce qui se passe, sur ce qui se passera ou sur ce qui peut se passer. Voilà, je suis pas sûr que ce soit bon pour la démocratie. Je suis à peu près sûr que c'est bon pour l'efficience militaire américaine, mais je suis pas sûr que les deux soient compatibles. Oh, je vais encore me faire insulter sur euh dans les commentaires, mais vous ferez bien comme vous voudrez. Au moins, je vous aurai passé l'info. On revient des trucs plus réjouissants. Oui, enfin, s'il vous plaît. Allez, on passe à nos amis de chez Stralmi. Hop là, il faut que je vous le montre comme ça. Mistral Médium 3.5 est là et il fait des tas de trucs. Je vais vous partager. euh la page euh sur Mistral Médium 3.5. Et alors, elle m'amuse beaucoup cette page parce qu'elle est multiple. Si vous regardez ce petit bandeau de chez Mistral qui passe, bah en fait vous avez plusieurs informations parce que oui, ça y est, enfin Mistral a décidé de rassembler toutes les brebis égarées chez lui et de faire un seul modèle pour les gouverner tous. C'est exactement ce qui se passe avec ce Mistral Médium 3.5. Il est disponible absolument partout. Il est super efficace. Il est à la hauteur des plus gros. Alors pas des plus gros de dernière génération mais de juste l'avant-dernière. Il a des capacité absolument exceptionnelles. Il va tourner dans Vibe, l'environnement de code de chez Mistral. Il va tourner dans le chat bien entendu. Il va permettre des remote agent comme vous l'avez vu passer ici sur le truc, j'arrive pas à vous le pointer du doigt. Bref, il est génial. Ce que vous devez retenir là-dessus, c'est que c'est la première fois qu'il y a un flagship modèle chez Mistral qui soit un modèle merge. C'est-à-dire qu'il fait tout. Voilà, il fait le code, il fait le raisonnement, il fait le texte, il fait le multimodal, il fait un modèle merged. Enfin, on a plus les destral d'un côté, les magistrales de l'autre et les machins. Ça y est, on a un modèle unique pour les gouverner tous et il s'appelle Mistral Médium 3.5. C'est aussi la première fois que ce enfin la première fois c'est pas la première fois mais notez que c'est un modèle qui est en 128 milliards de paramètres dense. C'est pas mixture of expert. Donc 128 milliards de paramètres ça vous indique un petit peu le la mémoire qu'il vous faut. Donc il vous faut une super grosse bécane. Même un PC de gamer, ça va pas le faire. Ou alors il faut un PC de gamer plus++ plus++ ou un mini ordi fait exprès ou un ordi fait exprès pour l'intelligence artificielle pour faire tourner ça. Sachant que c'est pas mixture of expert comme le fait souvent Mistral c'estàd que ça ne prend pas que une partie des paramètres, ça les exploite tous et du coup ça fait aussi la performance de ce modèle là. Ça fait l'instruction, ça fait le raisonnement, ça fait le code dans un seul jeu de poids qui de coup doit être complet. Ça fait bien sûr texte plus image. Et puis les efforts de raisonnement, ils sont réglables hein. Si vous utilisez euh les choses en requête ou par API, vous pouvez régler le niveau de réflexion, de profondeur, de raisonnement, on va dire ça comme ça. Et ça c'est euh hyper intéressant euh aussi. Les scores sont très très bons euh pour être clair avec vous, on est à la hauteur. Alors, ça dépend des benchmarks tout ça, donc on va pas s'appentir là-dessus, mais en clair euh Mistral se mesure au gros modèle euh au modèle pardon chinois qui sont open source parce que oui, enfin qui sont open weight pardon, parce que oui, Mistral, ce modèle médium 3.5, 5, il est aussi open weight, c'est-à-dire que vous pouvez le récupérer gratuitement et le faire tourner. Bon, il vous faudra la mémoire, on est d'accord, mais pas non plus un mastodonte absolu. C'est un modèle 128 milliards de paramètres. Donc c'est beaucoup plus léger que les concurrents d'en face. Donc ça peut tourner sur une machine accessible pour une PME, voire pour un geek qu'on a sous le pied. Bref, ce modèle, il est open weight. Alors sur une licence qui est modifiée, c'est pas à page 2.0, c'est une licence MIT modifiée. En gros, vous pouvez récupérer ce modèle, vous pouvez en faire commerce, vous pouvez l'intégrer dans vos applications et revendre l'application et cetera. Vous en faites absolument ce que vous voulez mais sous le seuil de 20 millions de revenus mensuels. Si vous avez un business monumental grâce à ce modèle-là que vous avez intégré dans quelque chose ou grâce à sa revente et que vous dépassez 20 millions de revenus euh de dollars de revenus euh mensuel mondial, bah il y a c'est 100 frontières maintenant, et bien vous devez soit passer par l'API, soit demander à Mistrral une licence commerciale exprès. Bon, ça laisse du voilà quand vous serez à 20 millions de dollars, ce sera un bon problème à mon avis. Bref, vous pouvez récupérer ce truc surging face en plusieurs en plusieurs paramètres de compression et cetera et cetera, mais il vous faudra quand même une grosse bécane pour le faire tourner. Il est très peu cher par rapport à la concurrence chinoise. Il rivalise aussi là-dessus. Et par rapport aux Américains, je vous dis pas l'histoire puisque sur ces sur ces prix, je suis en train de vous chercher ça les amis, il est en gros deux fois moins cher que le Sony 4.5 sur du code qui concurrence parce que oui, ce fameux Mistral Médium 3.5 sur la partie code, il est à ce niveau-là d'un claude son 4.5. Alors pas les toutes dernières, mais voyez, il est à ce niveau-là. ce qu'on utilise aussi dans les systèmes agentiques et ben il sait super bien faire ça et il est deux fois moins cher. Bon et ben ça mérite qu'on y regarde de plus près hein sur ce de ce à ce qu'on regarde de plus près pardon à ce nouveau modèle de chez Mistral notamment aussi parce que c'est également sur la même page, je vous le disais tout à l'heure, il vient de remplacer les bons modèles Deathstral 2 dans Vibe. Vous savez Vibe c'est l'environnement. Alors, ils ont tous ça, les gros éditeurs de Dia et Mistral ne fait pas ne fait pas défaut là-dessus. Le fait de pouvoir avoir une un système antique avec un modèle propre au code et à l'âge antique pour faire vraiment des tâches de code un peu balaises, bah ça s'appelle Mistral Vibe, accessible en mode terminal. Voilà, sur du côté de chez Mistral pardon. Et on a ce fameux modèle Mistral Médium 3.5 qui remplace aussi euh Deathstral 2 qui faisait partie de Vibe. Donc vous voyez, c'est vraiment un modèle unifié qu'on peut utiliser à toutes les sauces. Et c'est vachement bien parce queon va être à l'image de ce que fait Anthropiic par exemple sur des modèles sur un modèle qu'on va pouvoir utiliser pour tout faire du code de l'agentique orchestrer des agents de code orchestrer des agents de texte qui vont mettre du texte dans du code et cetera et cetera et cetera. Bon, le modèle est aussi fait pour les tâches longues, hein. Ça c'est fait, c'est fait pour vibe, mais on va pouvoir creuser tout ça. Ça va être hyper intéressant, notamment avec, je vous le repartage, ça y est, trouvez ma touche. Je vous le repartage ici, le fait de pouvoir agir en mode en mode à distance, en mode indépendant. Voilà, je vais y arriver à trouver le mot remote agents. Voilà, c'était dans mes notes, c'était pas loin. Les agents à distance en bac à sable, en fait à l'image des gros géants américains et de ce qu'ils font récemment, Mistral s'y met aussi d'avoir ce fameux remote agents. Donc la possibilité, voilà, je vous le remets ici, c'est ça, Vibote Agent, la possibilité de faire tourner des agents IA avec ce modèle là, mais en mode sur le cloud de Mistral. Et on peut même faire une euh ça c'est une ça c'est assez intéressant aussi une translation, une téléportation du truc. En gros, vous êtes sur votre Vib, vous êtes en train de faire un agent, vous lui vous dites "Bah bah tiens, cet agent il s'est vachement bien refactorisé, c'est vachement bien documenté, rechercher des failles dans mon problème, dans mon logiciel ou je ne sais pas trop quoi. Bref, développer un truc super long." Vous pouvez commencer à faire ça sur votre bécan et dire "Tu sais quoi? Ce machin là, je le transforme en remote agent." Donc cet agent-là, bloom, il va se retrouver dans le cloud de Mistral et pouvoir continuer sa petite vie pendant que vous vous allez faire autre chose ou lancer autre chose et hop, vous remettez un autre agent remote dans le cloud que vous pouvez réutiliser après pour une autre tâche. Ça utilise les workflows dont je vous avais parlé la semaine dernière qui était sorti chez Mistral. Ça utilise cette logique-là de pouvoir piloter à distance des agents qui vont avoir leur vie autonome mais dans un bac à sa dans un un environnement cloud euh euh juste packagé comme ça dans le cloud et ça va tourner. C'est idéal pour l'étage super longue. Bon l'usage est clairement professionnel pour les équipes de dev mais c'est le positionnement de Mistral et c'est vachement bien aussi cette logique de Mistral Vibe et de Vibe Remote Agent. Et puis enfin les amis, pour en revenir à des usages beaucoup plus individuels, personnel, privé, individuel, voilà, vous avez la logique de ce nouveau modèle qui arrive également ici. Est-ce que vous le voyez sur mon écran? J'espère que oui. Donc sur Mistral le chat, sur le chat, votre chat en ligne, vous avez la nouvelle logique travail que vous voyez ici. Donc le work mode, le mode travail dans le chat, accessible pour tout le monde les amis, qui là aussi est fait pour avoir un travail indépendant d'un agent. C'est la mode chez tout le monde. Ouf! Mistral a rattrapé le gap là-dessus parce que ça fait quelques semaines qu'on s'inquiète de Mistral en disant mais toutes les yas mondiales sont en train de passer au mode de réflexion agentique unifié d'un modèle surpuissant qui fait plein de trucs. Et Mistral, ils en sont où? Ils en sont encore à l'époque d'avant. Et ben non, c'est réparé. Le la logique work mode là, le mode travail dans le chat arrive. il est à disposition de tout le monde. En gros, vous avez sep agent basé sur ce nouveau modèle de mistral qui va pouvoir lancer des réflexions de fond, avoir une une je définir un plan de route par rapport à ce que vous lui demandez. C'est fait pour les staches longues, multiétapes, les réflexions. Vous lui demandez pas de faire un poème sur Mickey. Voilà, vous lui demandez de faire un truc un truc un petit peu un petit peu chaud. Et ben, il va planifier tout ça. Il va choisir de lui-même les outils que vous avez décidé de connecter au chat de Mistral. Il va pouvoir faire des appels en parallèle. Tiens, pendant que je prends des informations là-dessus, je vérifie les informations du premier truc et ensuite je vais aller choper les trucs dans le drive de Renault et puis il peut vous demander votre approbation s'il y a des actions sensibles à faire. Tu es sûr que j'accède à ton compte bancaire? Oui, non, peut-être, et cetera et cetera. Il y a tous les connecteurs qui sont actifs par défaut. Tout ce que vous avez mis dans le chat et bien votre mode travail là, votre work mode, il va pouvoir les utiliser. Vous avez le mode web, il fait la recherche web dans sa logique évidemment. Le mode canvas aussi. euh où vous avez euh l'écriture à quatre mains qui est qui est disponible. Alors, il y a pas la notion de memories euh mais euh bon, ils sont très peu à l'avoir pour le coup. Et il y a encore quelques petites choses qui sont en preview pour l'instant qui méritent d'être corrigé comme par exemple le fait que quand vous alliez dans ce mode de travail, vous pouvez pas revenir dans un autre mode. Du coup, faut redémarrer une conversation et il y a pas la mémoire. Bon, tout ça va s'améliorer mais en l'occurrence pour tous les usages de productivité pure, vous avez ce modèle, vous avez le mode de travail, vous avez le les répercussions sur Vibe et sur les agents remote dont je vous parlais tout à l'heure. Bref, Mistral vient de sortir sa dinguerie unifiée à la hauteur des géants, pas des toutes dernières générations mais juste avant qui rivalise du coup en terme de prix et qui rivalise aussi en terme d'open avec les Chinois. Vous voyez cette troisème voie vraiment européenne, cette troisème voie française, elle est vraiment portée par Mistral et on aurait tort de passer à côté. Donc vous regarder ça de très près, vous le testez sur vos systèmes agentiques, sur votre code et cetera et cetera. Vous regardez combien de de token et combien de pognons ça vous dépense et peut-être que ce sera une très très bonne solution pour vous que ce dernier modèle de chez Mistral. Merci Mistral. En plus, c'est des français, c'est cool. Enfin, jusqu'à bon, on va surveiller ça de très près. Et enfin, dernière information les amis de cette revue d'actualité. Là qui diagnostique mieux que votre médecin aux urgences. Ça fait un petit moment que je vous parle de ce genre de choses. Souvent, vous me dites "Mais il y a pas d'études sérieuses pour de vrai et vous avez raison." Ben, vous aviez raison jusqu'alors. Pourquoi il y a pas d'études sérieuses sur ce truc? Parce que à chaque fois c'est des benchmars qui nous disent "Oui, Li médecine." Oui, sauf que sur des QCM de médecine, bah toutes les dernières I qui sont très performantes et très intelligentes, elles tapent le plafond du test. Elles ont bon partout parce que c'est des données qui existent. Du coup, elles ont raison à chaque fois. Bon bah, elles ont 20/ 20, super. Un autre médecin, il a 20/ 20 aussi. Bravo, bravo. Du coup, Lia est à hauteur des médecins. Attends mon ami, faudrait vraiment comparer les deux en situation réelle. Et ben, ça y est. et le le la réponse le est sans appel. Voilà, c'est publié dans une dans la revue Science, très officielle revue Science et l'étude, elle est extrêmement sérieuse et le pire, c'est le modèle sur lequel ça a été testé les amis. Alors, cette étude, elle nous vient de chez Harvard et également du Betraël. C'est un du Betê Israël Medical Center, donc un hôpital euh euh en voilà un hôpital israélien. Et puis il y a eu également un hôpital d'urgence à Boston qui a été utilisé pour faire aussi une partie de ces études. En gros, il y a eu six expériences différentes qui ont été faites sur 76 patients d'urgence à Boston et puis le reste sur des centaines de patients d'un petit peu partout, des cas cliniques de patients mais pas des patients réels. Mais il y a eu également 76 patients réels arrivés aux urgences à Boston ou en Israël. Et on a pu comparer dans cette étude là, je vais vous montrer quelques chiffres qui sont en dessous les performances. Voilà. Comparé entre O1. Donc le fameux modèle O1, on a dit, je dis fameux parce que quand il est sorti, il était fameux et nous a tous bluffé par ses capacités de raisonnement. Maintenant, il est totalement déprécié le modèle O1 chez Open AI. On dit qu'il est nul par rapport aux dernières générations de modèles. Bien, ce modèle-là, il a été testé sans entraînement supplémentaire sur des cas réels. Il y a des gens dans ce bête Israël Hospital là qui ont dit "Bah nous, on veut bien être confronté à l'intelligence artificielle." On manquait de ça. Donc il y a eu des gens au triage des urgences de ces établissements là qui ont dit "Bah, je suis d'accord. J'espère qu'ils ont pas été virés depuis parce que le score il est un peu sans appel mais bon on va y revenir. Euh en tout cas ils ont dit je suis d'accord pour être confronté à un système d'intelligence artificielle et c'est au on imagine que maintenant 3 et d'autres et ben ça va être pulvérisé ces scores là. Ça a été publié très officiellement ce 30 avril, donc il y a quelques jours et c'est en train de secouer le monde médical, notamment le monde hospitalier puisque en effet en fournissant les mêmes informations, le dossier patient écrit, le dossier patient écrit, on le donne à l'urgentiste, voilà, on le donne à Oan et les scores sont sans appel. O an bat à chaque fois sur les 76 cas dont je vous ai parlé, il bat l'humain qui a un score de entre 50 et 55 % là où Oan a un score de 67 %. Un score de quoi? Bah de j'ai eu raison à l'analyse du dossier médical du triage du patient. On sait les premières minutes, les premiers instants quand on arrive aux urgences, nous en France dans nos déserts médicaux, c'est tout engorgé et ben on sait que c'est hyper important de dire "Je connais pas la personne, je vais prendre le dossier médical, on va me dire en gros tiens voilà les notes des pompiers machin de ce qui est arrivé. Bon je dois faire un choix, je dois faire un diagnostic différentiel. Imaginez les différentes possibilités. Je dois faire ce raisonnement, je dois dire attends, on va plutôt l'orienter vers telle analyse ou alors pas parce que ça va perdre du temps ou alors que cette analyse là elle peut faire du tort à mon patient." Voyez toutes ces ces choses très très très importantes notamment aux urgences, elles ont été mesurées. Et ensuite une fois que tout ça est passé donc au One d'un côté et des urgentistes qui font le triage de l'autre et bien des des gens expérimentés he là-dessus et bien on a donné le dossier à têtre posé une fois qu'il était clit raison au moment du triage? Et bien les humains ont raison entre 50 et 55 % du temps et ça nous va à tous. Et one il a raison beaucoup plus beaucoup plus 67 % il a il s'est pas gouré sur le diagnostic. Ce truc est en train de tout bousculer parce que effectivement nombre d'hôpitaux voient cette étude là et sont déjà en train de se dire comment on associe les deux. Parce qu'il est hors de question quand on s'occupe de la santé des gens, quand on est un scientifique de dire "Oui mais l'IA c'est nul parce que c'est de l'IA et parfois ça fait des images assooig on laisse ça au médiat voilà ou qui veulent qu'on soit qu'on reste obé les scientifiques, les urgentistes, les médecins, les hôpitaux, eux bah ils ont la vie des gens entre leurs mains et ils peuvent pas se permettre de refuser 67 % quand ils ont 55 %. C'est pas possible. Maintenant, la question se pose. Certains sont en train de publier des commentaires sur cette étude là. Vous verrez tout ça dans le dans le document si vous avez envie de chercher. Certains disent et bien je pense que il faut absolument pas que les systèmes d'IA soient en frontal avec le patient parce que les données du dossier patient peuvent être confrontées à ce que on voit, à ce qu'on observe, à ce qu'on ressent, à est-ce que il y a un discours bizarre ou pas du patient en l'occurrence. Bref, on peut avoir des informations complémentaires. Oui, n'empêche que le score, il est déjà plus élevé sans information complémentaire. Alors, on imagine qu'avec en plus, ça va être l'écart va être encore plus balaise. Certains disent bah, il faut avoir des binôes, réussir à faire travailler le médecin urgentiste et l'intelligence artificielle. Oui, mais comment et qui va être aux ordres de qui? Alors certains disent tout simplement "On laisse les humains travailler, avoir le contact avec le patient mais les humains devront en référer à l'IA parce que visiblement c'est elle qui se trompe le moins, qui a le plus souvent raison." Donc en gros, le patron du du service des urgences, ça va être une intelligence artificielle et encore on est sur Oan là-dessus. Bon donc ça va être bien supérieur à ça. Bon d'autres disent "C'est pas possible que le patron de l'humain ce soit l'intelligence artificielle faut inverser." Oui mais les scores sont moins bons du coup. Bref, on est à la croisée du des chemins dans un domaine aussi sérieux que le médical, dans des études aussi sérieuses que celle-là vraiment euh sur le terrain et euh et confronté, publié dans une revue aussi sérieuse que Science et c'est en train de bouger le monde. Je voulais vous détailler cette étude, vous retrouverez tous les liens dans les articles qui sont publiés sur le site rena-dcode.fr. Parce que oui, il y a pas que du mauvais dans cette arrivée de l'intelligence artificielle, il y a du très bon et on ne peut pas le refuser. Même si parfois ça veut dire des emplois en moins, ça veut dire des humains relégués. Le côté Terminator, il a peut-être un bon côté, mais on dit comme ça, c'était foireux. Mais vous voyez ce que je veux dire, on y réfléchit et on n'hésite pas à en discuter en commentaire et sur le site renaud-dcodes.fr. Voilà les amis pour cette revue d'actualité. Je vous l'avais dit, il y avait du danse, il y avait du un peu flippant. Bon, on essaiera d'y voir d'y voir clair dans tout ça. Est-ce qu'il faut refuser en bloc l'IA parce que c'est en train de nous échapper sur le militaire et sur le classifier et tout le bastring. Est-ce qu'il faut refuser d'utiliser les I non locales parce qu'elles prennent nos données, ell les monillent et c'est nous le produit et c'est n'importe quoi cette histoire. Est-ce que contraire, il faut l'accepter à bras ouverts en se disant bah pour les hôpitaux, pour notre santé et cetera, c'est quand même un plus un progrès, donc il faut y aller vraiment. Est-ce que la 3e voix européenne, ni chinoise, ni américaine, mais européenne française, illustrée par Mistrral ici, même si elle est un peu moins performante, devient à la hauteur de tout le monde et qu'il faudrait miser dessus. Bref, ça fait beaucoup de questions et je les confie à votre sagacité et bravo d'avoir suivi tout ça. Merci par avance de vos commentaires et de vos réflexions sur renaud-dcodes.fr. Je bombe le torse pour que vous voyez bien le lien. Assurez-vous d'être bien abonné à cette chaîne, d'avoir activé la petite cloche et je vous donne rendez-vous très bientôt pour une prochaine revue d'actualité IA Web digitalte tech sur Renault des codes.

More from AI