
Tech • IA • Crypto
Le paysage de l’IA se fragmente rapidement entre des modèles généralistes premium, de puissantes alternatives ouvertes, des outils spécialisés et des systèmes d’agents émergents qui transforment les flux de travail.
GPT-5.5 est actuellement considéré comme le modèle premium le plus équilibré pour un usage quotidien, combinant un raisonnement solide, de la polyvalence et moins de contraintes d’utilisation. Il offre des performances constantes sans nécessiter de spécialisation poussée, ce qui en fait le choix par défaut pour de nombreux utilisateurs. Son accessibilité et sa flexibilité lui donnent un avantage sur des concurrents plus restrictifs.
Claude Opus 4.7 reste une référence pour les tâches complexes comme le raisonnement long, le développement logiciel et les flux de travail basés sur des agents. Il excelle en précision et en profondeur, surtout en environnement professionnel. Toutefois, ses coûts plus élevés et ses limites strictes le rendent moins pratique pour un usage occasionnel ou intensif.
Gemini 3.1 Pro conserve des atouts de niche, notamment pour le traitement de documents volumineux, de contextes longs et l’intégration dans l’écosystème Google. Avec Google I/O qui approche, les attentes sont élevées pour Gemini 3.5, qui pourrait rebattre les cartes.
Les modèles open-weight chinois comblent rapidement l’écart avec les systèmes occidentaux. DeepSeek V4 rivalise avec des modèles premium d’ancienne génération à une fraction du coût, avec un long contexte et de bonnes capacités de raisonnement. Il est surtout adapté aux déploiements en entreprise.
Qwen 3.6 se distingue comme un modèle léger, optimisé pour des environnements locaux. Il permet d’exécuter l’IA directement sur des machines ou serveurs privés, idéal pour des besoins de confidentialité, de personnalisation ou hors ligne.
Kimi K2.6 est conçu pour des environnements multi-agents complexes, capable d’orchestrer des centaines de sous-agents simultanément. Il est particulièrement efficace pour le code, l’automatisation et les chaînes de raisonnement avancées, se positionnant comme une alternative économique aux modèles premium.
Une nouvelle génération d’outils spécialisés surpasse les généralistes dans des domaines précis. GPT Image 2 domine la génération d’images avec des visuels de haute qualité, du rendu de texte et de l’édition avancée. Gemini 3.1 Flash TTS offre une synthèse vocale avancée avec nuances émotionnelles et support multilingue.
En génération vidéo, Sora perd de l’élan tandis que des concurrents de type Sora 2.0 émergent. Le modèle chinois alternative “Sora 2.0” (ex. Kling/Sens 2.0) se distingue par le contrôle du mouvement et la cohérence, malgré une accessibilité limitée.
Claude Design marque un bond majeur dans le design UI automatisé, générant des interfaces détaillées prêtes pour la production. Combiné à des systèmes de code, il permet des pipelines quasi complets, du concept à l’exécution.
Le changement le plus significatif vient des systèmes agentiques comme Hermes Agent. Ils peuvent gérer des tâches de façon autonome, coordonner des sous-agents, conserver une mémoire et s’améliorer avec le temps, signalant le passage vers des flux de travail entièrement autonomes.
Le développement de l’IA entre dans une phase de spécialisation et d’automatisation, où le bon choix de combinaison de modèles et de systèmes devient plus crucial que l’usage d’une seule solution dominante.
On a un petit peu de mal à y voir clair. Bah oui, parce que il y a une avalanche de nouveaux modèles, de nouveaux systèmes, des nouvelles ia dans plein d'usages différents et dans plein de domaines différents. Il y a des trucs de Chine, des trucs open source, on sait pas trop, des trucs commerciaux et chat GPT a répondu à Claude qui du coup a aussi mis un système en place alors que Jemini est distancé mais en fait ils font leur Google IO dans 3 semaines donc ils vont nous sortir un modèle et puis en même temps il y a des trucs d'imag mais qui se trouvent chez l'un alors que nous on voulait pour du texte chez l'autre et qu'en même temps la vidéo il y en a qui l'arrêtent alors qu'il y en a qui misent dessus. Oh là là là là vas-y. On y comprend que dalle. Il y en a de partout mais si on y comprend si on suit Renault Descottes régulièrement en live tous les lundis midi, mercredi midi, vendredi midi et puis les actues. Ah ouais mais faut du temps tout ça. Il y a les récap le dimanche, il suffit de s'inscrire sur rena-dcodes.fr, c'est libre, ouvert, gratuit. Tu te crées un compte là-dessus, tu profites du meilleur de toute la communauté. Tu as plein de ressources, tu as plein de trucs et cetera et plein de choses à partager. Et en plus, tu auras un récap tous les dimanches des actualités. Bon, tu as quand même loupé les trucs parce que ça fait beaucoup de modèles et qu'il faut démêler tout ça. Alors, on y va les amis. Je vais vous parler des différents modèles qui sont sortis. Je vais vous dire un petit peu pour quel usage ou dans quelle logique se trouvent ces différents modèles. On va commencer par les grands modèles généralistes premium. Donc, les Américains, les sorties que nous avons ou que nous n'avons pas sont celles-ci. Alors, dans l'ordre, on a Claude Opus 4.7, celui du milieu d'entropique qui reste à ce jour et à mon avis. Alors les amis, je vais vous dire un truc très simple. Ce que je vous dis ici, c'est à mon avis, d'accord? Après, en fonction des usages, des appétences, des goûts et des couleurs, vous pourriez vouloir autre chose. Moi, je pense que Claude Opus 4.7 à ce jour, alors que le premier là, il est aussi sorti de entre-temps, ça reste une référence dans le sérieux, dans le code, dans le professionnel, dans l'âge antique, dans les tâches longues. Quand on veut faire des trucs de code avec du raisonnement long sur un projet, c'est Claud Plus 4.7. Quand on veut faire un truc de fond, ça va chercher de l'information, raisonner dessus, ne pas se tromper, ne pas être d'accord avec nous tout le temps et cetera, voyez, raisonnement profond, agentique et cetera. C'est Claude Opus 4.7, c'est pour ça. Bon, en même temps, juste après est sorti GPT 5.5. Bon, il est là GPT 5.5. Alors, GPT 5.5, il est sorti et il est bluffant. D'ailleurs, on le voit dans le LM Arena. J'espère qu'on le verra très rapidement. On a ces modèles là qui sont donc de Cludopus 4.7 notamment thinking ou les précédents qui sont qui trustent complètement le chat classique en terme de on préfère celui-là. Oui, mais enfin il y a pas que le on préfère celui-là, il y a aussi le combien qui coûte. Est-ce que mon abonnement me permet de pas être limité tous les deux jours? Et est-ce que je fais vraiment des trucs de raisonnement sérieux, profond, code? Bah tous les jours que je vis avec l'intelligence artificielle? Non, on est d'accord, pas forcément. Bon alors le vrai modèle, le vrai champion aujourd'hui à mon sens encore une fois des modèles généralistes premium américains, c'est GPT 5.5. Oui, il passe devant. À mon avis, il s'impose comme le meilleur modèle généraliste premium du moment. Oui, devant Claude Opus 4.5 pour un usage généraliste quand on veut tout faire avec, quand on veut un truc polyvalent qui est bon dans un à peu près partout, qui est pas non plus une voilà aussi érudit et précis et tout ça que Claudopus 4.7, bah GPT 5.5 va très bien et en même temps Open et High sont un peu plus permissifs que en Tropic actuellement. Ça aussi ça peut changer surtout ce qui est limite. Al les limites d'usage sur Claude, bah c'est un petit peu pénible. En même temps, si on fait des trucs plus fouillés, plus sérieuses, plus pro, des grosses tâches longues de codage avec un gros contexte et avec beaucoup de raisonnement, tu m'étonne qu'on crame des jetons chez Claude. Bon bah, choisissez à mon avis GPT 5.5 qu'on avait tous déserté depuis l'arrivée des des derniers modèles de d'anthropique et ben j'ai envie de dire GPT 5.5, c'est le modèle à aller à avoir dans son petit bouquet garni. L'essentiel à mon avis, c'est celui-là. Et si on veut aller plus loin, si on veut du mieux, si on veut du plus fort, on va sur Clodoplus 4.7. Il y a des études américaines qui sortent qui nous disent que bah on travaille, on a de meilleures positions sociales, on a un meilleur salaire, on a un meilleur tout ça quand on utilise Clodoplus 4.7. Alors il y a un effet de bord dans ces trucs à l'américaine là, voilà, c'est que forcément si tu as de la tune, bah tu peux prendre des abonnements partout et y compris les plus chers et rallonger. Bon, tu vois. Bon mais voilà, c'est un peu mon panorama des modèles généralistes premium avec la serise sur le packbo qui va sortir très bientôt, c'est Gemini 3.5. Aujourd'hui, on est en Gemini 3.1 Pro, on a tendance à l'oublier le Gemini là. Quand on veut mettre des grosses traductions, transcription de vidéos, quand on veut mettre tout un tas de bouquins que ça se perde pas dans le contexte, c'est Jemini. quand on veut bah tout le le l'écosystème Google, bah c'est forcément Gemini être intégré à tous ces outils magiques, être accéder depuis les outils ou depuis Gemini aux outils. Bref, avoir toutes ces logiques également sur des sur des vidéos, sur des longs PDF et cetera, sur du la recherche documentaire, c'est Gemini. Or Gemini 3.1, ça correspond à la version d'avant. Là, Claude et JPT ont sorti leurs dernières armes. Chez Gemini, on n pas sorti sa dernière arme. Or, il y a la Google IO qui se tient de mémoire le 20 mai. Enfin, autour de ça, mi mi fin mai, donc dans quelques semaines. À mon avis, il est pas impossible que Gemini nous annonce à 3.5 qui va peut-être replier le game. Mais en l'occurrence, pour l'instant, on en est là. Donc GPT 5.5, le grand généraliste premium. Claude opus 4.7 pour aller plus loin, plus haut, plus fort, plus balaise en raisonnement et en code. Et puis le Gemini 3.1 si on veut pas changer de créerie tout de suite en attendant 35 qui va pas tarder ou 3 je sais pas combien qui va pas tarder à arriver alors que c'est vachement pratique d'avoir l'écosystème Google. C'est bon, vous reprez à peu près dans cela. Bon, en face les copains, on a les modèles chinois. Et là, le truc, il est un petit peu plus tordu, mais je vais vous la faire simple. Rassurez-vous, ça va bien se passer. Voilà, je vous montre le slide bien comme il est puisque là aussi il y a euh une deuxième grande bascule hein qui vient des modèles euh ouverts, on va dire. Al, ils sont pas tous ils sont pas open source, ils sont open weight, mais ils sont quasiment tous chinois, ils sont quasiment tous sur la même logique et il y en a pas mal qui sont sortis. Alors, je vais mettre un petit peu de côté GLM 5.1 de Z et I qui s'inscrit dans cette logique là et qui est sortie également. Mais je vais m'attarder sur les trois modèles que vous voyez ici. Dipsic V4, il vient de sortir. Lui, c'est un gros modèle. C'est un très gros modèle. Alors, il a plein de logiques assez particulières pour que on puisse quand même le faire tourner en local. Mais très clairement la version de Dipsig V4, il va falloir un ou deux serveurs H100 à 30000 € à mettre dans un RAC un serveur tout le basting. Tu vois, c'est pas un truc qui fait pas tourner sur ton PC. Et la version Pro, il en faudra 16 DH100. On dirait ça représente un petit budget, c'est une centaines de milliers d'euros puis il faut le faire tourner après. Mais Dipsic V4, c'est l'équivalent des GPT, J mini machin truc. un peu en dessous des gros modèles commerciaux un peu seulement. Il est même un peu au-dessus de la génération d'avant, genre Gemini 3.1, bim, Dipsic V4 sur certains usages, il est devant. Bon, l'usage pour deic V4, c'est pas tant à titre de chatbot toute la journée parce qu'autant prendre une version gratuite d'un modèle commercial qui sera un petit peu meilleur. Voilà, un petit peu plus paramétrable. Et vous allez voir V4, c'est que c'est assez assez light. Vous le verrez si vous le découvrez. Mais clairement pour avoir un gros système, un gros équivalent et pour énormément moins cher, il a un contexte super long. Il est capable de raisonnement, de code, d'agentique, il est extrêmement puissant. Il coûte 35 fois moins cher si on l'utilise par API. On peut louer du cloud, du DH1 sur le cloud pour le faire tourner dans sa boîte et on peut l'internaliser parce qu'il est open. Donc c'est vraiment la version open des grands modèles des géants américains. C'est pas pour le grand public. On est d'accord là-dessus? Oui, ils ont dit oui. L'autre dont je vous ai parlé récemment aussi, c'est Quen. Donc Quen 3.6. Alors lui clairement c'est le local de l'étape. Donc c'est un peu l'inverse de Diepsy. Lui, il est fait pour tourner à peu près partout. Donc il est révolutionnaire là-dessus. Il est sorti un petit peu avant les autres. Mais lui pour le coup, c'est le modèle qu'il faut utiliser quand vous voulez une IA locale. Enfin, le modèle pour en utiliser d'autres mais une IA locale open source, ils savent faire de l'open source les Chinois, il y a pas de problème. Que vous récupérez et qui va tourner, c'est très bien. Il est en mode mixture of expert comme tous les petits modèles locaux. C'est un petit modèle donc il tourne sur vos machines. Enfin si vos machines, ça dépend si c'est des machines qui qui datent énormément, peut-être pas. Il faudra de la Veram, mais vous pouvez le déployer un petit peu partout, le mettre dans vos différents systèmes, le mettre dans vos workflow, le mettre dans vos systèmes agentiques et cetera qui tourne en local ou sur serveur et cetera. Bref, Quen 3.6 pour être le petit cerveau et pas euh pas les grands cerveaux qu'on a vu jusqu'al, ben c'est la solution. Et l'autre modèle qui est sorti qui est absolument bluffant, alors c'est un peu le meilleur des deux mondes dans un modèle. Il s'appelle Kimika 2.6. Je vous en ai parlé récemment. Alors, c'est un gros modèle, il est même plus gros que deepsic, je crois, en sur certains aspects parce que deepsic, il est super optimisé. Donc, Kimik à 2.6, c'est pas un petit modèle local, vous allez pas pouvoir l'intégrer. C'est Quen 3.6 qu'il vous faut pour ça. Mais Kimika 2.6, il est super balaise. En tout ce qui est code, tout ce qui est agentique, coordination d'agent, il est capable de faire bosser 300 sous-agent qui 2.6 dans un système à la Open Clow, à la Hermes dont je vous ai parlé récemment, Hermes agent. Voilà, c'est le cerveau hyper brillant, hyper pro, hyper balaise pour faire du code, du multiagent, de l'agent qui a bloc de faire vraiment des développement complexe avec du raisonnement long et du raisonnement un peu fragmenté comme ça, des sous-raisonnements qui alimentent un raisonnement principal et cetera. B c'est le petit génie de la bande, mais c'est pas un petit modèle. Pourtant, il peut être utilisé dans des outils qui ont l'air d'être des outils faits pour les petits modèles. Méfiez-vous de ça. Souvent, on me dit bah dans un Open Clow, dans un euh Hermes agent, dans ce genre de trucs nanoclow et cetera, bah on a tendance à vouloir mettre une iia open source gratos. Bah du coup sur sa machine gratos, trop bien, vous avez raison. Oui, mais si c'est gratos et local comme ça, alors c'est un petit modèle. Or pour tirer toute la puissance de ces systèmes agentiques comme Open Clow ou encore plus Hermess Jun qui est magnifiquement brillant, ils vous font un gros modèle. Bah oui, mais du coup euh Claude d'entropique, bah ouais, mais ça coûte une blindasse. C'est là qu'intervient Kimic à 2.6 pour faire ça, pour être le cerveau des agents. Si vous voulez euh pour être clair, c'est un peu l'équivalent par rapport au gros modèle. Voilà, si vous voulez Quen 3.6, c'est le petit modèle, c'est l'équivalent de Mistral chez nous. Voilà, les modèles un peu plus légers qu'on peut télécharger, qu'on peut récupérer, qui tourne en local. Voilà, le concurrent de Mistral, c'est Quen 3.6 et concurrence aussi OSS de chez Opener. Ey, voyez les petits modèles open source locaux qu'on peut tous avoir chez nous. Dipsig V4, lui c'est le concurrent on va dire de chat GPT. Voilà, toute la gamme chat GPT dipsig V4 est en face. Voilà, en plus bah on peut le récupérer et en faire quelque chose si on a une grosse boîte. C'est un gros modèle. Et ça Kimika 2.6, bah c'est le concurrent de Claude en face avec le multiage antique, les tâches de code, les tâches longues, le raisonnement et tout le basting. Vous avez la panorama. Ouais, je vous ai mis un petit peu des trucs là genre souveraineté souveraineté européenne. Bon bah et nous il en a mistral, on se bat, on se bat. et Mistrade, il est plutôt sur ce terrainlà ou celui-là. Bref, donc vous avez euh le panorama de ces gros modèles pour vous y retrouver. Est-ce que c'est clair pour vous? Ceux qui font le cerveau des Open Clow et des Hermes agent, c'est ceux-là. Ceux qui sont en local pour vos workflow pour tourner vachement bien, c'est ceux-là. Ceux qui sont l'équivalent pour les boîtes ou pour le pour acheter des ressources cloud ou avoir des H dans sa boîte et plus rien payer jamais, c'est le concurrent de enfin en sur le segment de chat GPT, c'est celui-là. C'est bon pour vous. Voilà. Et puis vous avez l'équivalent dans les modèles commerciaux qu'on a vu maintenant. les copains. Bah il y a aussi d'autres trucs qui sont sortis, c'est les euh modèles spécialisés. On va faire beaucoup plus vite là-dessus, mais euh parce que simplement la donne a changé euh également sur ces modèles-là. Donc, on a Gemini 3.1 Flash TTS qui est sorti. Ce modèle-là, les copains, c'est un modèle de TTS, donc de text to speech pour faire de la synthèse vocale. C'est le modèle qui a plié le game récemment et il est de chez Gemini, disponible sous forme d'API et cetera. Il vous fait du vocal avec une voix naturelle, avec des émotions dans la voix. Vous pouvez le prompter très simplement. Il fait du multilingue, il fait du multi personne qui parle si vous avez envie. Bref, partout vous voulez mettre de la voix il a regardez Gemini 3.1 flash TTS. Bah à moins que vous vouliez faire de la musique ou des trucs, mais c'est voilà le modèle excellent et en plus il est moins cher que d'autres et cetera notamment notamment chez Open Air et cetera. Donc il y a une dinguerie qui est sortie il y a pas très longtemps et cette dinguerie là G Mini 31 flash TTS, il vous faut un petit compte API. Vous avez pas besoin d'un abonnement, vous pouvez y accéder directement par API. La deuxième dinguerie qui est sortie, c'est la plus grosse à mon avis du panel, même si j'ai du mal à faire un classement, c'est pété image 2. Alors là les amis, on va la faire très très simple. Tant qu'il y a pas un nouveau truc qui sort, on attend la réplique de Google. Attention, on attend la réplique de Google, ça va arriver. Donc tant qu'on n pas changé de paradigme avec un autre modèle qui arrive, j'ai pété image 2, il est là dans LM Arena, j'espère que vous voyez les chiffres qui sont ici. Il surclasse absolument tout le monde. Donc à l'heure où je tourne cette vidéo, j'enregistre avec vous en est en live, oubliez-moi tout le reste. Voilà, et aller directement dans Ah, je caricature un peu, ça va, on peut caricature un petit peu. Oubliez tout le reste. Allez sur GPT Image 2. Bien sûr, vous pourriez avoir envie, par exemple, d'avoir de l'inspiration absolument graphique, magique qui vous transporte à aller conserver votre petit midjournée bien évidemment pour être inspiré. Vous pourriez vouloir de la souveraineté européenne avec Luxe et Black Forest qui sont géniaux et cetera. Bien sûr, vous pouvez faire absolument ce que vous voulez. Mais si vous voulez pas vous compliquer la vie, j'ai pété image 2, que ce soit en édition pour faire des photos, pour faire des infographies, pour mettre du texte dedans, pour faire des trucs réaliste ou pas, pour faire des BD, pour le machin. Bon bah, j'ai pété Image 2, vous êtes à peu près sûr de pas vous gourer. Vous êtes sûr de pas vous gourer. Bon, à moins d'usage extrême. Un petit peu le même topo du côté de Sidens. Alors là, ça a beaucoup bougé. Vous le voyez en bas à gauche sur la partie IA générative de vidéo les amis, puisque vous le savez probablement, il y a un un géant qui est sorti de la boucle. C'est Sora. Alors, ça fait un petit moment qu'on a la compétition entre le premier qui est arrivé dans l'IA génératif de vidéo qui était Sora d'Open AI et le deuxième qui est VO de chez Gemini. Bah, il se tire d'abour, il se tire la bour, il se tire labour. Là, il y en a un qui est apparu, c'est Sidens 2.0 chinois, beaucoup moins cher, grosse cohérence, le mouvement qu'on contrôle absolument comme on veut, mouvement de caméra, fait des trucs autour. C'est le plus cohérent de tous ceux que j'ai pu tester. Peut-être je me gours, ça dépend des usages, vous me direz. Bref, vous pouvez faire absolument tout avec Sens 2.0. Bon, ça reste de lien génératif de vidéo. Vous trouverez des des imperfections à l'appel. Voilà. Oui, mais ça se voit que c'est OK. Bon, attendez la 3, la 4, la 5. Ne rallez pas, allez-y, découvrez. Si 2.0, vous êtes à peu près sûr de pas vous gourrer en tant que modèle et sa il y en a plus. Open AI a arrêté pour se concentrer sur tout ce qui est pro et qui rapporte de la tune en bouffant pas de l'inférence de leur data center. Donc, il y a un acteur en moins et ben il a fait mieux que prendre la place Sidens 2.0 parce qu'il était déjà clairement au-dessus. La difficulté de Sidence, c'est l'accessibilité du modèle. Voilà, il est disponible dans TikTok. Enfin, vous voyez tout tout l'écosystème euh chinois et du coup, c'est un petit peu compliqué d'aller choper des trucs. Enfin, c'est pas juste on va sur Sidens et puis c'est tout intégré dans quelque chose de commercial. Ben non, justement. Donc c'est la petite difficulté. Et le dernier petit euh spécialisé qui est apparu aussi euh dans ces derniers jours, c'est Cloud Design. Et lui aussi bouscule le truc. Cloud Design, c'est la couche qui permet de faire du design et de se servir de cette couche là pour faire après un développement d'application. Par exemple, vous dites à Cloud Design, "Fais-moi la maquette nickel au pixel prêt d'un site web ou d'une application mobile, c'est bon, c'est fait. Bon et ben vous exportez ce qui vous a produit qui est d'un résultat absolument dingue. C'est hyper probant, hyper fin, c'est pas toujours la même chose. Vous pouvez lui mettre toute votre charte graphique, votre logo, tout ça, il va il va s'en servir pour ajouter des petites touches hyper malignes, hyper balaise. Enfin, c'est vraiment un gros gap franchi en design. C'est pas juste je te mets des blocs et puis tu te débrouilles. Non non, ça va beaucoup plus loin. On peut aussi faire des on peut faire des maquettes, on peut faire des PDF, on peut faire des slides, on peut faire tout ce qu'on veut et cetera. Cloud Design, c'est un banger là-dessus. Et en fait, cette couche là de par exemple tes tes écrans d'application mobile, tu peux la donner à Cloud Code après qui est quand même un bunger depuis un petit moment sur la partie la partie code et tu lui dis bah tu vois ça c'est le petit package de toute la couche front qui se voit. Bah tout ce qui se voit pas parce que ça marche pas dans cloud design, c'est que du front. Voilà. Et ben tu le développes toi cl code blim. Donc ça décuple totalement les capacités de tout le monde à faire des choses et c'est absolument dingo. Donc l' design, voilà, si vous voulez des modèles spécialisés à noter et vous dire bah c'est ceuxl que je teste en Prums. Pour le design, c'est CL design. Pour les images, c'est GPT image 2. Pour la vidéo, c'est Sidens 2.0. Il y a des afficiennados parmi vous qui vont dire "Non, moi je suis encore fan de VO." Tu as raison. Mais ceux qui veulent découvrir avoir une référence, c'est celle-là. Et pour tout ce qui est synthèse vocale, j'ai mini 3.1 flash TTS. Oui, mais dans 11 Labs machin. Voilà. Donc, j'essaie de vous faire une grille de lecture Panorama. Maintenant, faudrait détailler détailler tout ça. Je termine par un dernier petit slide qui va intéresser les plus geek d'entre vous, mais je recommande très vivement au moins geek d'entre vous de regarder ce trucl et de suivre ce tru-là. Et je vais en terminer là-dessus les amis, c'est tout ce qui est système agentique parce que s'il y a un truc qui bouleverse 2026, pareil, ça fait un moment que je vous le dis mais je vous le rabâche à chaque fois parce que faut que vous le répétiez à tout le monde. Voilà, sans vous gourrer. Mais je sais que vous allez pas vous gourer, mais osez le dire à tout le monde. Dis donc, tu as vu les systèmes agentiques? De quoi tu me parles? Fous-moi la pé Renault. Non, attends, prends 5 minutes s'il te plaît parce que j'ai un truc à te raconter. Qu'est-ce que c'est? Et bien, c'est ces systèmes agenti qui sont sortis ces derniers temps et qui sont une dinguerie. On a eu plein de choses qui sont sorties. Vous vous souvenez de la vague open clos? Alors, maintenant, je l'ai pas mis là-dedans open clos parce que ça date un petit peu. Et moi, je je vous recommande vivement. Il faut que vous alliez tester Hermes agent, c'est le troisème là, celui qui se trouve juste là. Il faut que vous allez tester ce trucl. Je vous ai fait un méga tuto là qui est sorti ce weekend sur YouTube sur comment installer Hermessen. C'est pas compliqué. Ça va vous coûter 7 balles si vous voulez l'auto héberger chez mon partenaire Hostinger. Bref, c'est super fast à faire. Vous pouvez faire autrement en mode geek si vous avez envie. Si vous avez déjà un hébergeur hostinger un c'est ou autre c'est un docker. Donc en fait bref c'est un peu geek mais vous installez un docker, vous avez Hermess Jun. Je vous explique dans le tuto tout ce qu'il faut pour vous l'installiez et après vous jouez avec. Jouez avec un modèle. Normalement vous êtes pas gouré. Le modèle que vous pouvez mettre dedans à là vous pouvez mettre du GPT 5.5 parce que ça va prendre votre abonnement mais ce sera pas le top. Vous pouvez mettre un clos dernier modèle parce que ça va être le top pour ce genre de chos. Vous pouvez aussi vous orienter, je vais passer de slide en slide vers un petit Kimi K2.6 qui fera très bien le boulot dans des open clos ou dans des Hermes agent. Mais bon, je focus quand même sur cette partie là parce que des tas de dingueries sont sorties ces derniers temps. Après Open Clow, Hermun qui est beaucoup plus pro que Open Clow qui fait vraiment des choses. C'est pas juste le truc bluffant qui répond à un truc sympa quand tu es à distance. Open clos super marrant. il t'a vu, il tourne sur ma machine, il peut classer les photos des enfants. C'est super, c'est bluffant et ça nous a permis de comprendre où aller l'agentique. Là, si tu veux vraiment de l'agentique en mode swarm, enfin ferme d'agent, de sous-agent, le truc qui s'améliore tout le temps, de la mémoire continue basé sur des sur de l'Obsidian sur des fichiers Markdown qui du coup va décider lui-même qui va créer sous ton contrôle des nouveaux skills pour améliorer ce qu'il va faire après. Le système qui te permet de se dire "ça fait trois fois que je lu demande la même chose" et ben Hermes et Jun, il comprend que ça fait trois fois du coup maintenant je vais faire les choses comme ça différemment qui prend le contrôle de ta machine totalement. C'est pour ça qu'il vaut mieux l'auto héberger et cetera et cetera. Bref, Hermes et Junt, vraiment c'est la nouvelle dimension des de systèmes agentiques. Il faut que vous allez découvrir ça. C'est sorti il y a pas si longtemps si longtemps que ça. On a également l'application Codex qui est à surveiller. Alors Codex pardon Open et mais vous brouillez les pistes sévères. Codex ça a été un modèle spécialiste de code, ça a été une appordre. Ça a été un système intégrant le modèle mais pas l'app. Ça a été une plateforme enfin une entrée vers le code avec le modèle derrière. Enfin bref, Codex a eu 3000 vies. Retenez que il y a le projet qui se constitue sous nos yeux d'avoir une méga app du côté de chez Open AI. C'est ce que construit Cloud que j'ai mis ici. Donc chez Entropic, on construit ça. Maintenant, on a une app Cloud dans lequel il y a les connecteurs, dans lequel il y a les skills, il y a les MCP et il y a à la fois Cloud le chat. Il y a Claude Cowork, l'assistant dont je parlais tout à l'heure et il y a Claude Code, le truc que normalement vous connaissez qui est absolument bluffant. Le tout dans une super app, tout coïncide, ça pourrait faire des surcouches. À mon avis, Claude Design, il va arriver là-dedans comme ça, il discutera avec Claude Code qui est à côté mais euh il pourra se nourrir de Claude Cower qui est à côté. Enfin, vous voyez la logique euh agentique, système agentique, il y a la logique où on a une super app globale. Claude va dessus. Allez découvrir Cloud Cowork si c'est pas déjà fait. J'ai fait des tutos là-dessus pour voir comment ça marche. C'est votre assistant à côté de vous. Voilà, sachez que Open AI va sur cette logique là parce que c'est ce qu'il faut euh c'est ce que tout le monde attend pour la suite de 2026 et ils sont en train d'y aller pour les mêmes les mêmes logiques et surveiller bien sûr les systèmes globaux là qui bossent à votre place. Là ça vous remplace avec tout un tas de collaborateurs et un petit génie qui est dans le fauteuil, c'est pu vous. Voilà donc les Open Clow et les surtout Hermes que je vous recommande euh d'aller voir. Est-ce que c'est bon pour vous tous? Je vous la refais courte. Voilà, ça c'est les modèles généralistes premium, ça à tout faire. Le spécialiste pro, lui on attend qu'il sorte du bois. Très bien. Les modèles ouverts chinois, si tu veux télécharger un truc en local, c'est celui-là. celui-là si tu veux un concurrent de chat GPT pour faire des grosses dingueries mais il est très gros mais c'est super cool et le pour tes essins d'agent et tes outils magnifiques de système agentique Kimique à 2.6 Ça c'est l'armada chinoise par rapport à ça. L'armada américaine, on est bon là-dessus. Les modèles spécialisés, tu loupes pas, tu prends cela, tu es sûr de pas te gourer, mais va aller découvrir les quatre pour voir ce qu'ils ont dans le bidou, ne serait-ce que 3 minutes de clés design ou 4 minutes de de TTS pour aller voir ce que ça a dans le ventre parce que ça pourrait bien te surprendre notamment celui-ci et celui-ci puis aussi celui-ci. Enfin bref, ils sont tous surprenants. Et enfin, les systèmes agentiques, c'est SA 2026. Il y a encore du boulot à faire d'uniformisation là-dessus de rajouter des briques mais c'est déjà hyper puissant. Il y a beaucoup de boulot d'assemblage ici mais la repost arrive avec Open qui a déjà commencé et puis c'est dinguerie de Open Clow et Hermes Agent qui font bah qui font le futur de ce que sera l'intelligence artificielle ou des entreprises qui bossent toute seule. On verra tout ça. Si vous voulez un panorama global de ce trucl, il y a un slide global. Je vais pas vous embêter parce que c'est ce que je vous ai montré juste avant. Bien sûr que tout ça est fait par LIA. Laquelle? Quel modèle d'IA j'ai utilisé pour ces slides? Fast-il, la réponse est dessus. Voilà, donc non, il y a pas de filigramme mais la réponse est dessus. Je voulais indiquer quel était le tueur li génératif d'image qui qui plombe tout le monde en ce moment. Ah. Voilà. Et qui est capable de faire un slide comme ça, bim, sans se gourer avec tout ce qu'il faut, avec les bons euh les bonnes couleurs, les bons logos et tout le basting. Bref, ce slide là, je le mettrai bien entendu sur le site rena-dcode.fr si vous allez vous avez envie de revoir ça, la vidéo, le petit slide qui va bien. Si vous voulez expliquer aussi à d'autres gens autour de vous, bah dites coucou quand même Renault descodes parce que j'aurais dû mettre mon logo dessus. Mais n'hésitez pas à aller dire ça à vos collègues, à votre patron, aller dire tiens bah tiens le petit slide qui va bien pour t'expliquer dernier modèle et à quoi servent. Allez le dire autour de vous. C'est important qu'on soit pas largué par ces trucs-là et c'est tellement tellement facile d'être largué par ces trucs là actuellement que voilà, faut tous qu'on œuvre pour donner un peu ses indications. Si vous avez envie de rentrer dans le détail, je vous l'ai dit, presque chacun de ces outils dont je vous parle ici, j'en ai fait soit des tutos complets, soit des informations complètes, nombre de paramètres, machin, comment ça marche, dipsic V4, je vous ai fait une actu du décor du truc et en quoi c'est une dinguerie et en quoi il y a des faiblesses et cetera. Je vous ai tout expliqué. Donc si vous voulez creuser, bah vous savez où c'est. Voilà, renault-descode.fr. Répétez tout ça et j'espère que vous y verrez clair jusqu'aux sorties prochaines notamment de chez Google, on les attend euh de nouveaux modèles qui vont encore bousculer le truc. Vous savez quoi? Avec Lia, on mettra à jour les slides, ce sera Fastoche. À très bientôt.