
Tech • IA • Crypto
New technical methods allow using Claude Code in a more cost-effective, flexible way by combining local AI models with cloud services, optimizing computing resources and preserving privacy.
Integration of Claude Code with Alternative AI Models It is now possible to run Claude Code environments using different AI models like OS 120B through Claude CLI. This approach leverages free server access and enables the combination of cloud and local computing resources to reduce costs and extend usability, creating an efficient hybrid workflow.
Using Virtual Studio Code as the Base Interface The setup begins with installing Visual Studio Code, a versatile code editor where users add extensions such as Claude Code (CL Code), Codex, and Kline. These extensions facilitate comprehensive control over coding, terminal operations, and interface management. Installing Node.js (LTS version) and Python environments is also required for full functionality.
Cloud and API Connection Options Users can connect their Claude Code interface three ways: direct cloud subscription synchronization, API key integration (costly for heavy use), or through Tropic's servers hosted on platforms like AWS, Vertex AI, or Microsoft. The recommended method is cloud subscription for optimized cost-efficiency.
Olama Interface for Model Management Olama provides a central interface to access various AI models, including Nvidia's Nemotron, Mistral, Ken, Kimi, GLM, and DeepSic variants. Some models have transitioned to paid plans, with typical pricing around $20/month, but offer high-performance reasoning capabilities suited for AI agent systems.
Local Model Deployment and Quantization Users with suitable GPU hardware (e.g., NVIDIA 4090, 5090) can download quantized versions of AI models from Olama to run on their local machines. Models requiring 8-14 billion parameters typically need 10+ GB of VRAM. Quantized models allow extensive offline use with privacy advantages and reduced cloud dependency.
Hybrid Use of Cloud and Local Models By switching between cloud-based and local models, users can balance computational power with cost savings. For example, running a GPT OS 120B model on cloud servers supports complex reasoning with immediate responses, while smaller local models enable continuous offline work, including summarizing files or managing tasks agentically.
Cost Optimization Strategy By limiting cloud usage to high-value tasks and relying on local models for routine processes, individuals can maintain a $20 subscription plan while achieving the output volume normally associated with a $200 plan. This approach avoids unexpectedly high bills from API pay-per-use models.
Privacy and Security Considerations Running AI locally safeguards sensitive data since files and commands are processed offline without cloud transmission. This setup is crucial for enterprises handling confidential information or requiring strict data governance, ensuring sensitive inputs do not train external models.
Advanced Use: Overclocking for Speed To enhance local model performance during intensive tasks (e.g., filming while running AI), overclocking the GPU can significantly increase inference speed, yielding a smoother user experience even under heavy loads.
Multi-Instance and Profile Management Visual Studio Code allows multiple simultaneous sessions, enabling different AI agents or models to work in parallel on separate projects or tasks. Users can also organize workspaces by loading specific folders and profiles to streamline workflows.
Demonstrated Prompt Injection Vulnerability Testing revealed that less secure models running under Claude CLI environments can be susceptible to prompt injection attacks, potentially exposing system-level instructions. This highlights risks in integrating less robust models with sensitive enterprise workflows and argues for caution in using them within write-enabled systems.
Accessing New Models like G Mini 3 Flash Preview Olama offers emerging models such as G Mini 3 Flash in free preview versions accessible through simple command modifications, expanding the diversity of tools available to users without immediate cost.
Command-Line Control and Cleanup The use of terminal commands such as "clear" facilitates interface management and session control, ensuring clean workspaces. Users learn to launch and exit various AI sessions fluidly, maximizing productivity.
Customizable Model Configurations Users can adjust reasoning effort levels (e.g., low, medium) and select model versions within Olama and Claude CLI to suit the computational needs and complexity of their tasks.
Professional AI Training Offer Alongside technical tutorials, there is an offering to train users professionally in AI systems within 15 days, covering agent design, coding, deployment, data security, and certification, aimed at elevating AI literacy in businesses.
The emergence of techniques combining Claude Code with alternative AI models both locally and on cloud servers offers a powerful, cost-efficient, and privacy-focused approach for AI development. By smartly balancing compute resources and safeguarding data, this hybrid model workflow can enable professional-grade AI projects without prohibitive expenses or security trade-offs.
Imagine pouvoir travailler avec Claude Code rapidement, moins cher et plus longtemps. C'est exactement ce que je vais te montrer dans ce tuto. Je me suis rendu compte qu'il était possible de lancer l'environnement Code code avec d'autres types d'IA. Dans ma fenêtre, je suis en train de faire tourner l'environnement de Claude CLI avec OS 120B. Tout ça sur un serveur gratuitement. Mieux que ça. Il est possible d'envoyer Claude Code en utilisant Dipsic V4 Pro. Je garde l'architecture dans Tropiic mais je fais tourner un autre modèle. L'objectif: réduire les coûts et utiliser les appels de cloud uniquement lorsque j'en ai besoin pour des fonctions bien précises. Là où il est le meilleur. En d'autres termes, optimiser mon forfait, utiliser le forfait à 20 dollars mais coder comme si j'en avais 200. C'est tout l'idée de ce tuto. Et ce qui est encore plus dingue, c'est que si tu as une carte graphique, je vais te montrer qu'on va pouvoir connecter des IA en local et faire exécuter un ensemble de travail directement à partir de ta machine. Dans ce tuto, je vais te montrer comment on va installer Cloue CLI. C'est très facile, je vais te le montrer pas à pas et après on va installer l'environnement pour pouvoir utiliser Claude avec différentes IA. Tout ça à partir de ton ordinateur. À la fin de cette vidéo, c'était complètement inattendu parce qu'on a fait cette vidéo complètement en live. Je vais te montrer comment je suis arrivé à passer toutes les barrières de protection de Cloud code CLI et extraire le prompte système en quelques instants. Tout ça juste à la fin. Alors, première étape qu'on a vu préalablement, aller télécharger VS Code dans l'interface Virtual Studio Code. Download pour la plateforme que vous avez, soit Windows ou une autre. Je vous laisse cliquer là-dessus, appuyer sur pause sur la vidéo et on revient une fois que vous avez installé votre première interface. Voilà, vous venez d'installer Virtual Studio Code. Bienvenue et bravo. Ce qu'on va faire maintenant, c'est qu'on va installer euh les extensions latéral que j'ai ici. Je vais vous montrer en fait sur prendre connaissance en fait de l'interface. Sur la partie gauche, vous avez une fonction qui s'appelle extension. Ces extensions, il y en a certaines qui sont intéressants. Vous avez donc celle qui va vous intéresser, c'est CL code. Vous avez possibilité, comme on l'a déjà fait préalablement, d'installer Codex et d'installer Kline qui est un système similaire à Codex qui va prendre le contrôle également de votre écran et même du terminal. Donc les trois-là sont intéressants. Ce qui fourra également et c'est le système qui va vous le dire si c'est pas fait, c'est d'installer dans votre environnement not JS. Vous choisissez dans l'interface download la version la version LTS pour le système d'exploitation que vous utilisez. Vous renez, vous installez et on a déjà la première partie du packaging. Et bien sûr, on pourra avoir également l'interface Python. Donc on va dans la partie download, vous choisissez la machine que vous disposez, Windows ou autre et en général vous cherchez quelque chose qui est stable. Voilà, vous cliquez dessus et on déploie. Et maintenant, on se retrouve dans l'interface de Virtual Studio Code. Alors, maintenant qu'on est dans cette interface, ce qui va se passer, comment ça se passe en pote au niveau de la structure? Ce qu'on a ici, c'est un système qui va permettre d'ouvrir des fichiers, un nouveau fichier. Donc si on clique ici, on va voir créer un fichier. Ce fichier ici, ça va être un fichier que vous allez pouvoir taper et définir l'extension. Ça veut dire que c'est comme un fichier texte et l'extension que vous allez mettre va définir quel type de fichier c'est. Donc vous pouvez le structurer au niveau du texte comme c'est un fichier texte, mais vous pouvez également écrire du code de différents formats. Python, HTML, CSS, Markdown. Donc ces fichiers ici permettent en fait de générer du contenu. Ensuite, vous allez pouvoir ouvrir plusieurs instances en simultané. On a la partie New, on peut ouvrir donc des instances en parallèle. Donc on peut envoyer différents travails dans différentes interfaces. Pour rendre la chose encore plus intéressante, vous pouvez avoir plusieurs profils. On peut aussi aller recharger ou charger des informations avec ce qu'on appelle ouvrir un folder. Admettons que je veux aller travailler dans un répertoire et que j'ai besoin de charger mes dossiers sur un dossier en cours et que ce répertoire, c'est celui-ci. Donc je sélectionne le folder et ce qui va se passer que dans la section ici open folder la zone welcome, je vais aller chercher donc mon répertoire et il va se charger automatiquement dans la barre latérale. Ça ça va vous permettre voilà de charger les informations des documents. Alors les documents comme vous voyez si vous cliquez vous avez les le répertoire initial et les sous-répertoires qui apparaissent à l'intérieur. Vous avez vu que quand on a installé notre extension on a maintenant chat GPT et Codex. Donc au moment où vous allez cliquer deux solutions. Si vous l'avez déjà configuré, ben vous êtes déjà connecté. Sinon il va falloir le connecter. Donc vous avez trois possibilités de connexion. La possibilité de donner à Cloud la connexion par rapport à une page internet votre forfait, de faire de l'API. Donc pour vous allez renseigner une clé API, dans ce cas-là, vous payez à l'usage, chose que je déconseille parce que les factures vont très vite. Et ensuite on a tropic qui a des serveurs à travers bedrock vertex à WS. Donc ça c'est si vous lancez vos propres serveurs avec des connexions SSL que vous avez configuré, mais la majorité d'entre nous, on va être sur une connexion la moins cher avec Cloud Sustruction. Donc il suffit de cliquer sur le bouton, vous allez avoir une page qui va ouvrir et qui va vous demander de synchroniser votre compte et ça va vous permettre voilà maintenant de fermer la fenêtre et d'avoir maintenant l'interface de Cloud. Donc Cloud maintenant est présent dans l'extension latérale. Dans cette section, nous allons installer Cloud Code sur Virtual Studio Code. Autrement dit, on va terminal pour installer l'interface Cloud Code. La manière la plus simple, c'est celle d'utiliser la partie du code qui est notée en fonction de votre machine. Si vous êtes sur Mac, Windows, Omru, Winget, vous utilisez la ligne de commande respective. Vous ouvrez simplement votre terminal dans la partie de VS Code et ici vous allez copiercoller la ligne en question. Dès que vous allez vouloir installer le système, il va vous demander de vous connecter. Dans le cas précis, vous allez signer avec votre compte, que ce soit GitHub, Google, Apple ou autres. Une fois installé l'interface, vous allez donc synchroniser pour lancer la fonction de cloud dans le terminal. C'est aussi simple que ça. Vous allez taper la fonction close et taper entrer. Vous allez donc maintenant choisir le type de visualisation. Et pour sélectionner, vous utilisez la flèche du haut, la flèche du bas pour choisir la version que vous souhaitez. Je vais donc taper sur le bouton entrer. Et maintenant, le système me demande de synchroniser mon compte. Trois possibilités. soit de synchroniser avec le cloud subscription, ce que je vous conseille de faire pour une question de coût, soit la possibilité de faire une clé API et de payer directement sur l'interface qui peut revenir facilement très cher. À titre d'information, j'arrive à faire 40 € en 30 minutes. Et sur les plateformes, on a la possibilité dans certains cas d'utiliser des serveurs de chez Amazon Bedrog AWS, Microsoft ou Vertex pour pouvoir installer Cloud. Dans le cas précis, je vais utiliser donc la synchronisation. On tape sur entrée, on va synchroniser notre compte, autoriser la connexion et le lien est fait. On va pouvoir retourner à la fenêtre présentation, taper le bouton entrer. Bravo, vous avez réussi à installer l'interface Cloud Code dans la version terminale. Et si tu apprenais à utiliser l'intelligence artificielle de manière professionnelle pour ton entreprise ou ton activité, c'est ce que je te propose de faire en moins de 15 jours. Passer de débutant à pro à utiliser un écosystème complet. les agents IA, coder tes propres systèmes, travailler à ton rythme, les mises à jour incluses, des cas concrets pour utiliser en entreprise, sécuriser tes données. Je t'aide à passer la certification officielle Google. Je te montre comment on code des systèmes agentiques et comment on déploie ces systèmes. Tout ça est en description, le meilleur de l'IA. Les infos sont juste en dessous. Étape numéro 2. Maintenant qu'on a installé VS Code pour faire tourner Claude Cli, on va pouvoir installer l'environnement au lama. Alors, c'est super simple parce que Outama, ils ont pensé à tout. Vous cliquez sur le bouton download au lama. Vous choisissez si vous êtes sur Mac, Linux, Windows et vous avez aussi la possibilité de l'installer directement dans l'interface PowerShell en copiant cette commande et en lançant le système PowerShell. Vous cliquez, vous appuyez sur pause au niveau de la vidéo, vous installez, vous déployez et je vous montre juste après comment ça se configure. Bienvenue dans l'interface de la map. Cette interface va vous permettre de lancer des I serveurs qui sont définis cloud, c'est-à-dire des serveurs en accès distant. C'est une base qui permet d'avoir certains modèles gratuits et d'autres modèles payants. Olama a en fait une batterie de modèles. Dans l'onglet modèle, vous avez bah tous les modèles qui sont disponibles. Certains modèles sont payants, c'est-à-dire que jusqu'à il y a quelques jours, tous les modèles étaient en accès à peu près gratuit jusqu'à un certain taux de message par jour. Mais maintenant, suite, je dirais à la demande et puis le fait qu'ils ont beaucoup investi avec les nouveaux processeurs de chez Nvidia, maintenant propose donc un forfait pour pouvoir accéder à certains modèles avancés. Mais ça reste hyper avantageux pour plusieurs raisons. Premièrement, parce que on a des modèles qui sont des modèles de raisonnement. Donc, c'est ceux qu'on va utiliser essentiellement avec les systèmes agent IA. Donc, il y a le modèle Nemotron de chez Nvidia, le Mistral, le Ken, le Kimi, le GLM. Alors attention, GLM est passé euh en payant et pour vous donner une idée de prix au niveau pricing, je vais vous montrer aussi on va pouvoir tester un truc mais vous voyez que c'est 20 dollars par mois. Logiquement on peut euh faire en sorte de faire tourner donc tous ces modèles en quasi illimité en utilisant ce qu'on appelle des modèles quantisés. Je t'explique, lorsque tu es sur l'interface de lama, tu vas voir que tu as plusieurs modèles. Par exemple, tu as des modèles Dipsic R1 et Dipsic V3. et ensuite un chiffre 6715B 14B 671. Donc les systèmes 671, ça veut dire que c'est le modèle avec l'ensemble de milliards de paramètres. 671 milliards de paramètres. Donc ce système-là peut être installé uniquement en ayant des serveurs, mais globalement si tu veux louer tes puces, tu es capable de faire tourner ton propre modèle pour toi ou pour ta boîte. Le système on est limité va utiliser des modèles quantisés et donc ça va dépendre de la puissance de la carte vidéo que tu as. On va dire que pour faire tourner un 8B, il faut environ 10 Go de V RAM. Ça te donne une idée. Donc tu peux avoir un i5, un i7, mais derrière ta carte graphique, il faut qu'elle ait grosso modo 2 Go de plus de ce que tu as pour faire tourner ton modèle. Donc dans l'idée, on peut télécharger les modèles en cliquant sur la version que tu souhaites utiliser. Donc si tu ne sais pas ce que tu as comme carte graphique, tu peux commencer par un modèle ultra light avec un deepsic 7B par exemple ou un 14B. En cliquant là-dessus, tu vas dans l'interface Oama et tu colles cette information. Et tu vois que tu as plusieurs possibilités. Celle de télécharger. Automatiquement, le modèle va donc être téléchargé sur ta machine et il va se trouver donc dans l'interface de lama. À partir de là, tu as donc installé une version quantisée de Diepsic. Donc si on commence une discussion, je vais tourner sur le processeur de ma carte graphique. Alors je suis en train de filmer et j'ai en même temps, je pense environ 35 fenêtres parce que j'ai cinq écrans. Alors ce que je vais faire pour augmenter la vitesse de l'ensemble, je vais overclocker le processeur de ma carte graphique et je redémarre. Mais en tout cas, ce que tu peux voir, c'est que le modèle me répond. Mais je vais quand même overclocker ma carte et je vais relancer ça comme ça ça va me donner un petit coup de boost pendant que je filme. Nous voilà sur l'interface. On va voir comment ça se passe maintenant. Donc j'ai lancé au lama, j'ai overclocké ma carte et on va voir la vitesse à laquelle ça répond sur le BB. Malgré le fait que je filme, voilà, ça va beaucoup plus vite. On va trois fois plus vite, c'est beaucoup mieux. Donc là, on a un système complètement illimité, c'est-à-dire j'ai un Deeps One sur lequel je peux travailler. Quand tu vas en souhaite switcher sur les modèles, tu as deux possibilités. Tu as la possibilité de basculer avec des modèles qui sont sur le cloud. Donc, tu vas tourner sur les processeurs Nvidia. Donc ça veut dire que si je passe sur un OSB, je peux gérer par exemple le niveau de mémoire de mon système. Donc je lui dis euh donc là on est sur le cloud donc c'est la réponse est instantané et tu as le système de raisonnement du modèle. Mais comme on peut également le faire tourner sur la machine, je peux le faire tourner sur ma machine à moi et on peut repartir sur la même idée. Je vais lui poser une question, tu vas voir la vitesse à laquelle ça peut répondre également sur ta machine. Alors c'est vrai que euh on est sur un 20B, je suis en train de parler en même temps, de filmer, mais ça va relativement assez vite et ce qui va permettre de travailler complètement en illimité pour pouvoir faire fonctionner le système. Ah, ça été super rapide sur ce couplà. J'ai même pas eu le temps de vous dire que j'étais en train de taper un message. Bref, je lui demandé si c'était la version de chat GPT. Donc ça s'affiche immédiatement. Donc au final avec un 4090 ou un 5090 au niveau cartographique, c'est vraiment fluide. Tu peux vraiment bosser. Donc il faut laisser toujours ouvert ton système et lancer VS Code. Donc on lance Virtual Studio de Code, on récupère la session et voici comment ça va se passer. Ici tu as la zone terminale, new terminal. C'est ici qu'en fait tu vas lancer une commande pour pouvoir ouvrir un ou plusieurs terminales. Alors comment lancer clude code avec différentes? Ça c'est la ligne de commande qui permet en fait de lancer les modèles. Donc tu copies cette ligne. Alors il faut savoir que aujourd'hui un certain nombre de modèles haut de gamme, le Kimika 2, le Diptic V4 Pro sont devenus payants sur l'interface au lama. Tu peux plus les utiliser gratuitement comme avant. Mais il y a une astuce. L'astuce c'est qu'on va en fait utiliser la même partie de la ligne de commande mais on va changer de modèle. On va utiliser les modèles GPT OS le 120B par exemple. Donc, il suffit de remplacer la version modèle par la version qui est en accès gratuit sur l'interface. Donc ici, je remplace uniquement la version de la ligne de commande. Pour éviter d'installer le modèle sur ta machine, tu vas rajouter cette instruction 2.120B- cloud. Avec cette ligne de commande, on va utiliser directement le serveur de chez Olama. et on m'a maintenant lancé GPT hos 120 milliards de paramètres directement sur les serveurs. Alors le modèle, il a trois niveau de système de raisonnement. Ce qui veut dire que ici tu vas sur la la section effort, tu vas pouvoir le passer par exemple en l'OW et donc tu bascules en système lot. Par rapport à cloud CLI, qu'est-ce que ça change? Bah, tu auras pas toutes les fonctions. Si tu veux la dernière fonction Advisor, par exemple, ça tu pourras pas l'avoir. Le modèle n'est pas conçu pour avoir une supervision faite avec Claude Opus 4.7. Par contre, le système agentique, travailler avec des documents, lui faire des recherches, ça c'est tout à fait possible. Donc si on continue à travailler avec le modèle et lui poser une question, on va avoir des réponses quasiment simultanément. Donc c'est arrivait immédiatement et là tu vas pouvoir travailler. Donc dans l'idée quand tu bosses, c'est de pouvoir équilibrer ton travail avec un autre modèle comme ce qu'on vient de faire juste à l'instant. Et dans l'autre interface, bah tu peux lancer cloud et distribuer donc ton travail avec les deux éléments. Tu vas chercher par exemple une interface où tu travailles avec Obsidian, un fichier, un document, une source. tu donnes le répertoire et on est bien basculé en système l' manière que l'aurait fait Cloud la possibilité de prendre le contrôle de mon ordinateur, de me lister les fichiers et si je lui demande donc de travailler sur chaque fichier, de me faire un résumé, d'extraire des données, ben au lieu de utiliser Claude qui va utiliser mon forfait, ben je vais utiliser le modèle que je vais utiliser gratuitement et travailler de manière complètement autonome. Et on peut aller encore plus loin. Donc je l'ai lancé, il est en train de bosser, il fait son taf, c'est un système agentique, il sait ce qu'il a à faire et il me répond. Bref, j'ai plus qu'à récupérer la question et la réponse et le transférer vers Cloud si j'ai besoin de continuer mon mon job. Donc l'idée c'est d'optimiser mon forfait cloud pour arrêter d'exploser mon forfait à chaque demande. Et on peut aller plus loin parce que là je suis en train d'utiliser donc le 120 hos et ce que je vais faire c'est que je vais stopper ma session. Donc contrôle D fois, tu sors de la session ici tu clôtures ta session. Je vais lancer une nouvelle session, mais cette fois-ci, on va modifier euh la ligne de commande et on va marquer GPT hos 2.2B. Et comme on l'a déjà intégré au niveau de la machine, ce qui va se passer que je suis en train de tourner sur mon processeur. C'est pour ça que je l'ai overclocké pour me permettre de en même temps filmer et de lancer des demandes. Donc juste le temps que le système euh se connecte. Zéro token, je suis en en médium, non pardon, je suis en low au niveau de l'effort, donc j'ai le feedback, je suis bien GPT hos 20. Et donc là, je tourne complètement sur mon processeur mais avec l'architecture de Cloud. Alors oui, je vais pas avoir la puissance de calcul de raisonnement de cloud, mais c'est ce que je veux, c'est pouvoir travailler avec mon système. Et si je lui demande de lister encore une fois des fichiers, accéder une base de données, je lui donne donc la commande, je vais chercher mon répertoire de travail, je lui donne la section de répertoire de travail et je vais utiliser donc le modèle complètement local. Donc là, je suis complètement hors ligne mais j'utilise mon processeur, l'interface et honnêtement, on est en train de filmer, j'ai le 20B qui tourne sur la carte. Je trouve que c'est super fluide et il travaille, il va faire son job. Donc on a la possibilité d'avoir ce qu'on appellera une privacy euh de travail. Donc le système a tout listé, il est en train d'identifier mes fichiers. Je lui demande de faire un résumé pour chaque file euh d'un répertoire. Il a donc pour des tâches où on aurait peut-être demandé à Claude. On peut optimiser maintenant notre travail en demandant un deuxième modèle complètement indépendant, soit sur des fichiers que tu ne veux même pas partager en ligne et qui vont rester complètement privés, soit lorsque tu as besoin de plus de puissance de calcul. Dans ce cas-là, bah tu vas lancer une instance avec un autre modèle, par exemple le 120B cloud. Donc, tu peux lancer plusieurs instances en parallèle, travailler avec ton interface et utiliser Cloud Code uniquement lorsque vraiment tu as besoin de plus de puissance et plus de système de raisonnement et d'avoir euh Cloud Sony 4.6 ou Opus 4.6. Et ici, tu peux choisir ton modèle, basculer sur le système Opus et configurer ton architecture de manière complètement autonome. Je trouve que ce système est assez intéressant parce qu'il va permettre de travailler moins cher, de manière efficace. Et pour ceux qui veulent vraiment avoir de la privacy, bah utiliser des modèles qui n'entraînent pas du tout les modèles. Notamment sur les serveurs d'OAMAS sont des serveurs indépendants et en plus tu peux faire tourner tes propres modèles sur l'interface. Si tu veux utiliser d'autres modèles, ce que tu dois rechercher au niveau euh des interfaces, c'est est-ce que tu veux une fonction vision sur ton modèle? Est-ce que tu veux qu'il soit capable d'utiliser des outils, donc un format de type agentique? Est-ce que les modèles ont besoin de raisonnement? En fonction de tes critères, tu vas sélectionner les différents modèles chez Olama. Alors, je vais faire un petit test. J'ai vu qu'il y a le modèle Gini qui existe en Flash Preview sur les serveurs au LAA et je veux voir si on peut l'avoir en version cloud et on va voir s'il est fonctionnel. Alors, il faut juste un instant vérifier une chose euh c'est qu'il soit pas bloqué parce que ce que je viens de faire là, cette commande-là, elle existe pas. Je viens de la tenter. Je viens de la tester. Et si ça passe, c'est que on pourrait accéder à G Mini 3 Flash Preview gratuitement. Je vais voir si ça passe ou pas. Et a priori, ça passe. Yes, ça passe. Wou! Donc ce que je te conseille, c'est copie la ligne de commande que je viens de passer ici. Là, je suis connecté gratuitement au G Mini 3 Flash en preview. Donc, faut rajouter cette ligne que je viens de faire juste à l'instant. Et ça va te permet d'utiliser donc le G Mini 3 Flash. euh gratuitement sur les serveurs de Lama. Alors petite info, quand tu as commencé à travailler dans une interface et que tu veux la nettoyer, donc tu vois ici par exemple sur le hos 20B, on commence à voir de de l'info. Tu tapes la commande clear et tu nettoies complètement euh ton interface de travail. Donc je vais fermer cl l'autre code avec Opus 4.7 sur la partie gauche. Donc je vais ici. Donc ce que tu peux faire si tu fais contrôle D deux deux fois, ça ferme la session et après tu peux fermer dans l'interface latérale. Concernant euh OS 20B, je vais te dire un truc, on va le tenter en live. On va vraiment le tenter en live. Comme on est sur une interface qui utilise Cloud Code CLI, qu'est-ce qui se passe? Le système neuronal et la puissance du modèle, le HOS 20B ou l'autre modèle que je peux choisir, GMini 3 flash, vont utiliser le prompt système de Cloud CLI et donc l'architecture de Claude. Tu me suis jusqu'à là. Mais ce qui va se passer, c'est que il y a des modèles qui sont moins résistants que d'autres aux attaques. Donc ce que je vais faire là, je vais faire une attaque. Je vais tenter en live, je sais pas si ça va passer pour essayer de récupérer le fonctionnement des instructions système de Claude Cli. Et ouais, c'est un cheval de 3. Pourquoi? Parce que comme on a des modèles Claude 3 pardon, j'ai mini tr flash, je ne sais combien de fois je suis rentré et je sais que je suis rentré plein de fois avec OS 20B, plein de fois. Donc les bécan qui tournent sur ce type d'interface, on peut facilement rentrer dedans. Je veux juste montrer un truc et voir si on arrive en plus de outrepasser les protections du modèle, aller récupérer le fonctionnement de de Claude CLI derrière. Tu vois un peu l'idée? On fait ça en live, on essaye. C'est parti. C'est parti. C'est passé. Euh voilà le système. Tu es cloudropique official sell cloud. Tu es interactive agents fonction tool available tool. Quand est-ce que tu dois les utiliser? On est rentré dans cloud CLI. Voilà. Sous les yeux tu en train le système qui va rentrer. Donc voilà on vient d'utiliser une méthode complètement live. C'est tout le système en train de de sortir. Donc si on tape normalement continue, on devra voir la suite. Donc on vient de faire un système de cheval de 3. C'est-à-dire que comme on a intellisé un autre modèle qui est moins sécurisé que Claude code, on vient d'injecter un prompt qui a permis en fait de sortir les instructions de Claude CLI. Voilà, ça c'est pour vous montrer une chose, c'est que en fonction des modèles que vous utilisez, il y a aussi des niveaux de sécurité qui vont prendre en compte pour les entreprises. Alors rassurez-vous, ça veut dire quand même une chose assez claire, que si vous utilisez des fonctions MCP ou des lectures de mail en utilisant des modèles qui sont moins robustes que chat GPT 5.5 ou que Cloud avec Opus ou Sony, faites attention parce que ça m'a pris allez 8 secondes pour arriver à faire passer la commande. Donc ça veut dire que si j'arrive à faire passer la commande, je peux aussi lui donner des instructions derrière. Donc les modèles de ce type là, ça veut dire que ne les connectez pas avec des interfaces MCP qui peuvent envoyer des données ou récupérer des données. Voilà, faites uniquement un système qui soit en lecture mais pas en envoi en écriture sur des fichiers qui peuvent partir en extérieur. Ils sont pas suffisamment sécurisés. Ça sera au moins l'occasion de le faire en live. Donc si c'est pas fait, ben abonne-toi, laisse un like et je te dis à bientôt.