ENFR
8news

Tech • IA • Crypto

BriefingVidéos du jourBriefings vidéoTopicsTop 50 du jourRésumés quotidiens

Comment je me suis construit un « deuxième cerveau » IA (Obsidian + Claude Code)

Ingénierie IABen BK14 avril 202618:51
0:00 / 0:00

Résumé

INTRO

Un projet innovant permet de transformer un grand modèle de langage (LLM) en un deuxième cerveau personnel, capable de compiler, organiser et enrichir automatiquement des connaissances dans un wiki persistant utilisant Obsidian.

Points clés

  • Concept du deuxième cerveau persistant

    Inspiré par un tweet viral de Carpati, cofondateur d'OpenAI et ancien dirigeant de l'IA chez Tesla, ce projet repose sur la création d’un wiki intelligent, auto-entretenu et évolutif. Contrairement aux Memory LLM traditionnels qui piochent des extraits à chaque requête, ce système compile une base de connaissances consolidée et persistante.

  • Problématique des LLM classiques

    Les modèles de langage comme Claude disposent de ce que l’on qualifie de "mémoire de poisson rouge" : ils oublient les échanges passés à chaque nouvelle session. Les méthodes existantes comme le Retrieval-Augmented Generation (RAG) impliquent de relire intégralement les sources à chaque requête, sans construire une mémoire persistante.

  • Architecture en trois couches

    Le modèle proposé s’organise en trois couches distinctes. La première couche stocke les sources brutes (PDF, articles, transcriptions) que le LLM lit sans modifier. La deuxième couche est un wiki en fichiers Markdown (.md) structurés, que le LLM actualise continuellement. La troisième couche est un fichier cloud.md, sorte de schéma directeur définissant les conventions, la structure et la gouvernance de tout le système.

  • Rôle d’Obsidian

    Obsidian, éditeur Markdown gratuit et local, est choisi pour héberger ce wiki. Ses avantages majeurs sont sa nature locale (pas de dépendance au cloud), son format texte universel (.md), et la visualisation graphique des connexions entre notes grâce au Graph View. Cela garantit une totale propriété et pérennité des données.

  • Fonctionnement du modèle

    Le LLM agit comme un programmeur, Obsidian comme un IDE et le wiki comme une base de code. En enrichissant continuellement le wiki avec les nouvelles connaissances, le système "s’autocompile" et s’auto-optimise, améliorant la cohérence et l’interconnexion des données au fil du temps.

  • Processus d’installation et mise en place

    Il est facile de démarrer avec ce deuxième cerveau. Après avoir téléchargé et installé Obsidian, un "vault" (coffre fort) est créé pour une thématique, par exemple une veille en IA. Le fichier cloud.md (schéma) et d’autres fichiers de commandes prédéfinies (ingest.md, lint.md, query.md, save.md) sont mis en place, souvent disponibles via GitHub.

  • Ingestion automatique de contenus

    Grâce à l’extension navigateur Obsidian Web Clipper, n’importe quelle page web ou article intéressant peut être converti en fichier Markdown et importé directement dans le dossier de sources ("raw"). Le LLM va ensuite ingérer ces données, en extraire les concepts clés, et produire des pages de synthèse reliées entre elles (comme dans Wikipédia), créant un réseau de connaissances enrichi.

  • Exemple concret avec des articles d’actualité IA

    En ingérant plusieurs articles, le système a créé des fichiers décrivant des projets comme Glass Wing, lié à la sécurité chez OpenAI, et a détecté les interconnexions entre concepts comme l’attaque supply chain d’Axios, la faille Zero Day sur FreeBSD, ou encore des outils liés à Anthropic.

  • Interaction intelligente et synthèse

    Le LLM peut répondre aux questions sur la base de connaissances enrichie et en proposer une synthèse qu’il classe automatiquement comme une nouvelle entrée dans le wiki. Cette boucle permet de maintenir la cohérence et la mise à jour permanente du cerveau numérique.

  • Fonctions avancées pour la qualité des données

    Des commandes de vérification ("lint") permettent d’évaluer la qualité des informations, détecter des incohérences ou erreurs, garantissant la fiabilité de la base de connaissances.

  • Un outil polyvalent pour différents usages

    Ce deuxième cerveau numérique s’adresse tant aux personnes assurant une veille technique que aux développeurs cherchant un contexte riche et évolutif pour leurs projets. Il peut fédérer des informations personnelles, professionnelles et techniques en un seul endroit structuré.

  • Avantages majeurs

    Ce système évite la répétition de travail liée aux accès fragmentés aux sources, permet un apprentissage continu et construit une mémoire vivante et croissante de l’utilisateur. Tout est stocké localement dans un format ouvert, assurant sécurité, propriété et pérennité.

  • Perspectives

    En transformant la connaissance en un code vivant, cette approche pourrait révolutionner la manière dont les individus gèrent leurs savoirs et projets, offrant un assistant intelligent capable d’apprendre, organiser et synthétiser en continu sans perte d’informations.

  • Adoption et expansion

    Avec déjà plus de 5000 étoiles sur GitHub en une semaine, cette méthodologie séduit la communauté technologique, confirmant son potentiel disruptif dans la gestion personnelle des connaissances à l’ère de l’intelligence artificielle.


Ce projet démocratise l’idée d’un assistant cognitif personnel puissant et auto-évolutif, architecturé autour de technologies ouvertes et familières, capables de supporter des mémoires étendues et dynamiques, adaptées aux besoins individuels complexes.

Transcription complète

Hello à tous. Dans cette vidéo, on va créer un deuxième cerveau. Alors, ce second cerveau, ça sera utile pour plein de choses dans votre vie. Moi, je l'utilise pour plusieurs choses. Déjà, ben pour ma VIIA, dès que j'ai quelque chose, ça vient l'ajouter dans mon cerveau. Maintenant, ça peut aussi être super utile si vous êtes développeur, vous travaillez sur un projet et vous voulez avoir un maximum de contexte sur ce projet. B, ici, cette vidéo sera super utile pour vous. On va créer un cerveau de connaissance. On va apprendre à rajouter des choses dans ce cerveau de connaissance. Ce cerveau de connaissance va gérer tout lui-même automatiquement. Il va s'entretenir, s'améliorer automatiquement et vous allez le voir, c'est même pas si compliqué en fait. Restez juste jusqu'au bout de la vidéo. Carpati, la personne qui a cofondé Open AI et qui a aussi dirigé Lia chez Tesla, a posté quelque chose sur Twitter qui a absolument explosé. On voit que son tweet a fait 20 millions de vues et en une semaine, ce projet a reçu 5000 étoiles sur Guitub. Et le concept est tellement simple que tu vas te demander pourquoi personne n'y avait pensé avant. et il a trouvé comment transformer Claude en un deuxième cerveau qui grossit tout seul, un wiki personnel comme Wikipédia mais sur toi, sur tes projets, sur ta veille, sur tout ce que tu veux, sur tout ce que tu aimes. Et dans cette vidéo, on va essayer de comprendre de quoi il s'agit et surtout de le recréer. Si tu utilises des LLM chaque jour, tu as peut-être remarqué un petit souci, c'est que ton IA à la mémoire d'un poisson rouge. Par exemple, [raclement de gorge] tu poses une question à Claude sur quelque chose que tu viens de faire, super, il arrive à répondre. Tu reviens le lendemain, il a déjà tout oublié. Là, tu vas me dire "Mais oui, mais ben il y a les projets, il y a la mémoire, notebook LM, les custom GPS". OK, oui, mais tout ça c'est du rag et le rag a un problème fondamental. À chaque question, le LLM vient piocher des petits bouts, des chunks et reconstitue une réponse à chaque fois depuis le début. Et vraiment à chaque fois, c'est depuis le début. Et c'est ça un peu le problème d'ailleurs. Rien ne s'accumule, rien ne se construit réellement. Tu peux balancer 500 PDF dans Notebook LM et le modèle n'a toujours pas compris ton domaine. Le lendemain, les mêmes questions, le même boulot à refaire. Et Carpati s'est demandé mais est-ce qu'on pourrait pas lui faire compiler la connaissance une bonne fois pour toutes ? Compiler c'est le mot ici. Et là je vous encourage à aller sur le lien en description. lien super intéressant. Et là, l'idée est la suivante : au lieu que le LLM relise tes sources à chaque question, il construit et maintient un wiki persistant. Et là, on va avoir une architecture en trois couches. Au niveau de la première couche, on va mettre ici tout ce qui est source brut, PDF, article, transcripts et le LLM va les lire mais jamais y toucher. La deuxième couche, ça sera le wiki. Là, on aura des fichiers point MD que le LLM va écrire et maintenir. On aura des pages pour chaque concept, pour chaque modèle. Et si par exemple mon but c'est de faire vraiment un outil qui va me permettre de me souvenir de toute ma veille I, bah le principe ici sera d'avoir des pages pour chaque concept, chaque modèle, chaque boîtilla, chaque benchmark et on aura aussi des liens entre elles comme sur Wikipédia. Et enfin, on aura la troisème couche, le schéma. Et là, ça sera simple, ça sera un fichier cloud.m. Il va venir expliquer à Clou comment structurer et quelle convention suivre. C'est quelque part ton contrat avec lui. Et le principe ici c'est que Obsidian deviendra l'IDE, le LLM sera le programmeur et le wiki sera la code base. Le principe c'est que ta connaissance devienne du code. Et ici, au fur et à mesure qu'on va ajouter des connaissances, on va venir enrichir les pages existantes. On va vraiment avoir quelque chose qui s'autocompile, qui s'auto maintient et qui grossit à chaque source ajoutée. Or déjà ici, pourquoi on choisit Obsidian ? AL Obsidian, c'est un éditeur markdown local et gratuit. Il a trois super pouvoirs. Le premier, c'est local plus markdown. Donc, on n'est pas sur des bases de données propriétaires. Ici, on n'est pas sur du cloud obligatoire. Et si Obsidian disparaît demain, ben ton dossier dans lequel tu vas mettre ton savoir, c'est des fichiers. MD. Ça pourra s'ouvrir avec n'importe quel éditeur de texte. Donc même si Obsidian disparaît, c'est pas grave parce que ici le but c'est que ton deuxième cerveau t'appartienne vraiment. Deuxième super pouvoir, c'est le graph view. On le verra un peu plus tard mais c'est absolument génial pour visualiser les choses. Et ça ça permet littéralement de voir la forme de ta connaissance. Et enfin Claude parle très bien le point MD. pas de souci à ce niveau-là parce que le point MD, c'est quelque part le format le plus présent dans son training. Pour lui, écrire une page de wiki propre, c'est super facile. Pareil, si tu veux lui demander de synthétiser 50 pages, il le fait extrêmement bien. Allez, c'est parti, on va mettre tout ça en place. Donc déjà, je vous encourage ici vraiment à télécharger Obsidian. Alors, que vous soyez sur Windows ou Mac, ce tutoriel fonctionnera très bien. Pas de souci à ce niveau-là. Donc, allez, je [grognement] vais télécharger Obsidian de mon côté. C'est parti. Ensuite, on va l'installer. Allez, très bien. Et voilà, c'est déjà terminé. Et là, je vais le lancer. Très bien. Et vous arrivez un peu sur cette interface là. Et écoutez, on va créer un coffre fort, un volt dans lequel je vais par exemple mettre ma veille IA. Donc, je clique là-dessus et je vais créer un nouveau volt. C'est parti. Donc là, je peux l'appeler veille i par exemple. Je peux aussi choisir exactement où je veux venir stocker ça. Donc je peux mettre ça par exemple ici. Voilà. Et c'est parti. Très bien. Et j'arrive là-dessus. Alors de mon côté, je préfère quand même le dark mode. Donc on va juste venir changer ça. Voilà. C'est quand même un peu mieux comme ça. Enfin, je trouve. Et à côté, on va aussi venir ouvrir notre Volt. Alors, je vais bien ouvrir le bon c'est le VI. Ici, je vais l'ouvrir directement avec VS Code. Et là, on voit déjà qu'on a un peu des fichiers là-dedans. C'est tout à fait normal. Et on va venir lancer Cloud. Allez, c'est parti. Et ensuite, on va venir reprendre tout le texte qui était sur le lien présent en description. On fait un copier. On rentre ça directement dans Cloud. Alors, il faut savoir que Cloud ici est déclenché vraiment au niveau du dossier dans lequel j'ai ma veille, le tout relier avec Obsidian. Et alors là, bon, j'ai fait déjà pas mal de tests. Je vous conseille quoi qu'il arrive de tout mettre en anglais. J'ai déjà essayé de mettre les choses un peu en français. Bon, c'est mieux de taper en tout cas les commandes en anglais, je vous préviens. Et là, je peux lui dire quelque chose du style. Alors, il faut savoir ici que vraiment tous les textes, je vous les mettrai directement sur mon GitHub. Le lien sera aussi en description. Mais qu'est-ce que je lui dis ici ? On avait repris la structure de Carpati et là je lui dis à partir de cette structure de ces informations, tu es désormais mon agent LLM Wiki. Mets en œuvre ce fichier d'idée tel quel pour qu'il serve de deuxième cerveau complet. Guide-moi étape par étape. Créer le fichier de schéma cloud.md avec toutes les règles. Configure index.md et log.m. Définis les conventions de nommage des dossiers. Montre-moi le premier exemple d'ingestion. Ingestion, on va venir lui placer différentes choses et il va devoir ingérer, venir traiter ses données. Vous verrez ça un peu plus tard. Et à partir de maintenant, chaque interaction suivra ce schéma. C'est parti, on va lancer ça. Donc là, il va me créer des fichiers et des dossiers. Donc je lui dis "Vas-y, allez, c'est cool, c'est parti." Alors, par contre, je me suis trompé de dossier, mais c'est pas grave, je vais tout déplacer. Ça ira aussi, c'est pas grave. Très bien, il vient de terminer. Alors juste un truc, c'est que row wiki cloud.md index.md log.md, ça va ici directement dans veille IA. Voilà, très bien. Et R ça va dans VIIA aussi. Par contre, c'était dans R. OK. Donc on a cette structure là. Regardons un peu ce qu'il y a au niveau du fichier cloud.m. Très bien. Très bien. Donc là, vous pourrez lire ça. He c'est assez intéressant. Tout ça, ça a été généré en fonction des instructions de Carpati qu'on a copiercollé. Il y a pas de souci à ce niveau-là. Et au niveau du wiki, je vais avoir des concepts, des entities, des sources et des synthèses. Je trouve que la structure des dossiers est bonne pour de la VIIA. Donc, il y a pas de souci à ce niveau-là. Et d'ailleurs, on va le voir un peu plus tard, ça sera intéressant. Enfin, vous allez surtout le voir un peu plus tard, mais ça sera peut-être pertinent ici de venir modifier avec le temps le fichier cloud.md pour l'adapter vraiment à ce que vous voulez faire ici. Par contre, dans ce dossier ici, on va créer un point cloud et on va créer ensuite des commandes des slash commandes customs commands. On aura ici plusieurs slash commandes différentes. On aura ingest.md MD. Ensuite, on va avoir lint.md. Je vais tout vous expliquer he vraiment l'intérêt de chaque commande ici. Query.md. Et pour finir, on aura save.mmd. Et ensuite, au niveau du contenu de ces commandes, bah encore une fois, vous allez faire des copiers collés de tout ce qui est disponible directement sur le lien GitHub. Tous ces fichiers ici seront disponibles. Vous pouvez faire des copiers collés ou les télécharger. Il y a pas de souci à ce niveau-là. Maintenant, ça serait pas mal de venir tester tout ça. Mais dans un premier temps, on va télécharger une extension navigateur qui s'appelle Obsidian Web Clipper, qui est vraiment pas mal et qui permettra vraiment quand vous serez sur une page, voilà, vous êtes sur la page euh d'un blog IA et vous voulez directement convertir le contenu de la page en fichier.m, MD. Ben pour faire cela, ça sera absolument nickel et ça permettra de l'ajouter cette page automatiquement directement à Obsidian. Alors cette extension est à la fois disponible sur Firefox ou sur Google Chrome. Donc c'est parti. Moi, je vais l'ajouter ici à mon Firefox. Voilà. Et on voit très bien que désormais, j'ai l'extension ici. Alors maintenant, supposons que je sois par exemple sur un blog qui est super bien et je vois un article qui m'intéresse beaucoup et c'est vraiment un article super. J'ai envie de l'intégrer dans mon second cerveau. Qu'est-ce que je peux faire ? Je peux aller directement ici sur l'extension et on voit qu'il a bien mis en forme l'article et que je peux directement l'ajouter à Obsidian. C'est parti. Et on voit très bien mon article ici. Il est dans les clippings et je vous rappelle que d'abord on a envie de mettre les données dans le dossier row. Vraiment c'est là on va tout venir placer en bordel et de toute façon c'est Claude qui va faire le tri. Donc là on est pas mal. Bah ce que je vais faire, c'est que je vais mettre ça directement dans row et assets. Et ensuite, bah par exemple, je peux tomber potentiellement sur un autre article, Open AI blog. Regardons un peu ce qu'il y a sur le blog d'open AI. Voilà, c'est nickel. Ça vient un peu en plus en corrélation avec l'article qu'on vient de voir. C'est un peu sur la sécurité ici de tout ce qui est IA mais aussi de tout ce qui est NPM là pour le coup. En tout cas, je vais venir récupérer ça et le mettre sur Obsidian directement. Voilà, c'est parti. On regarde un peu quand même ce que ça nous donne. Très bien. Et on vient mettre ça directement dans row assets. Maintenant, j'ai envie que mon Claude traite toutes ces données, qu'il me crée un espèce de de second cerveau, qu'il traite ses données vraiment du mieux possible et ensuite on pourra voir ses données directement ici dans Obsidian. Vous allez le voir, c'est vraiment super sympathique. Donc pour cela, ce que je peux faire, c'est déclencher la commande ingest. Ingest qui veut dire ingérer. Il va venir prendre ici les articles qu'on lui a donné et il va venir traiter ça à sa façon, de la bonne façon pour que ce soit ensuite le plus clair possible pour que je puisse bien m'y retrouver. Donc là, je vais pouvoir lancer la commande ingest et ça sera sur Alors là, juste pour information, j'ai renommé mes article en article 1.md, article 2.md parce que avant il y avait pas mal de caractères spéciaux et aussi d'espace et il n'aime pas trop ça visiblement. Donc ici, on a l'article 2, mais j'aimerais aussi avoir l'article 1.md. Très bien. Et on va lui dire déjà d'ingérer ça et on va voir un peu le résultat. Ça va être super intéressant. Très bien. Donc on voit vraiment les informations importantes de l'article et ça correspond avec en effet ce qui a été dit dans l'article. Là ici je lui autorise à créer les fichiers point MD correspondant. Il y a pas de souci à ce niveau-là. et il m'en crée plusieurs hein. Il crée un fichier MD avec le projet Glass Wing. Il me crée un fichier MD qui vient expliquer ce que c'est Sony 4.6 Opus 4. On va vraiment voir dans un instant ce que ça va donner sur Obsidian. Super intéressant. Je pense que d'ailleurs on peut déjà un peu regarder ici le résultat. Yes, c'est en train d'être mis en place. Donc en fait dans mon article, j'avais des informations sur Free BSD. En effet, il y a une faille zé day qui a été trouvée. Et voilà. Et ça c'est lié aussi avec ben le Cloud Mythos preview, un autre article. On voit que ça c'est lié avec Opus 4. Que Opus 4.6 c'est lié avec Anthropique et on peut voir vraiment comment tout ça communique ensemble directement là. Donc quand vous allez ajouter de la connaissance, ça va essayer de voir s'il y a pas déjà quelque chose qui existe. Euh le mettre à jour, l'améliorer et tout va communiquer avec l'existant. Je trouve ça vraiment génial. Donc par exemple pour le projet Glass Wing qui a été créé suite ici en effet au preview de Clone Mythos. Vous savez Clone Mythos c'est trop puissant tout simplement. On a ici potentiellement des soucis de sécurité qui peuvent apparaître au niveau des grosses applications, des grosses entreprises. Donc a décidé de créer le projet Glass Wing et il regroupe vraiment ici Facebook, Windows dedans pour essayer vraiment de corriger les failles de sécurité que Claude Mythos trouve avant de le donner au grand public. Donc voilà, là on voit vraiment que tout est relié et on peut revenir là-dessus. On voit que les choses s'ajoutent. Regardons à présent ce qu'on a ici au niveau du cloud. Très bien. Maintenant, je vais lui dire ben ça serait peut-être temps ici de venir ingérer le deuxème article. Article 2.md. Allez, c'est parti. Encore une fois, il arrive vraiment à comprendre de quoi il s'agit et il est en train de créer les pages maintenant. Voilà. Alors, j'aime bien quand il est en train de créer les pages, j'aime bien aller sur Obsidian et regarder un peu ce qu'il se passe. Donc en effet, on a eu ici vraiment une attaque sur Axios. On voit que tout est relié avec Open AI, OK, avec l'article, avec Codex, bref, il est en train de me créer des choses pour à peu près tout. Donc là, je vois en effet que Axio s'est relié à pas mal de choses. On a eu une attaque de supply chain. On peut aller dessus et on voit que ça c'est aussi relié à d'autres choses. C'est super intéressant. Et tout commence ici à se mélanger. Voyons voir un peu ce que l'on a niveau de Cloud. Très bien. Bon, maintenant, OK, je suis en train ici d'ajouter de la connaissance. Mais ce qui est super intéressant aussi, c'est une fois que vous avez cette connaissance, c'est de taper des requêtes. Dis-moi ce qu'il s'est passé au niveau de l'attaque de supply chain Axios. Voilà. Donc là, je lui demande d'interroger mon deuxième cerveau. Voilà. Donc là, il me dit la réponse, il me dit exactement ce qu'il s'est passé et surtout là, il a travaillé sur quelque chose. Donc il me demande, "Veux-tu que je classe cette réponse comme synthèse dans le wiki ?" Oui, classe cette réponse comme synthèse. OK, très bien. Donc, on voit ici que la synthèse est désormais classée et cette synthèse va se retrouver directement ici sur mon obsidian. Donc à chaque fois que vous allez interagir aussi pour demander des choses, ça va aussi lui permettre ben de voir de comprendre de nouvelles choses et de mettre à jour le second cerveau. Maintenant, ça pourrait aussi être utile d'avoir un lint, ce qui permettra tout simplement un peu de corriger les erreurs, de faire un peu un tour dans le second cerveau pour voir s'il y a des contradictions, des choses qui vont pas et cetera. Allez, très bien. Et là, on a le report. Donc il y a pas de contradiction. Bon voilà, il a fait certaines choses ici sans doute pertinentes. Faudrait que je regarde un peu plus en détail. Mais on a aussi une commande pour venir un peu inspecter la santé de notre second cerveau. Et désormais, dès que je vais avoir un nouveau truc au niveau de la VIIA, je vais le mettre dedans. Je vais le mettre là-dedans et j'aurai par conséquent vraiment mon petit cerveau ici visuel pour voir comment tout est relié. Je trouve ce concept vraiment super. Si vous avez aimé cette vidéo, n'hésitez pas à liker, commenter et à partager. et on se retrouve très bientôt dans la prochaine vidéo.

Sur le même sujet : Ingénierie IA