Claude + Obsidian la hype est t'elle vraiment justifiée?

Salut La Tranchée

Depuis l’annonce d’andrej karpathy Obsidian est devenu un outil indispensable pour l’IA après son postnsur X de la manière dont il travaille avec voir ci-dessous :

Je vois passer pas mal de discussions autour de l’approche d’Andrej Karpathy sur les “bases de connaissances LLM” (Obsidian + LLM qui construit et maintient un wiki automatiquement).

Pour ceux qui ont testé ou réfléchi au sujet :
Vous pensez que c’est une vraie évolution dans la manière d’utiliser les LLM, ou plutôt une hype un peu survendue ?

Je trouve l’idée super intéressante (notamment pour la capitalisation de connaissances et les connexions entre concepts), mais j’ai aussi des doutes sur :

  • la fiabilité à long terme (hallucinations, incohérences)
  • la scalabilité sans RAG plus solide
  • le côté “le LLM maintient tout seul”

Curieux d’avoir vos retours d’expérience concrets
Vous utilisez ce genre de setup ? Ça tient la route dans le temps ou pas ?

Ps : @Olivier_Lambert tes lumières sont les bienvenus mais si tu utilises un autre setup, mais voilà ton avis est toujours pertinent.

Flo

Je te confirme que c’est très pertinent.

Mais pas tout à fait comme il l’explique.

J’ai vu une autre méthode que j’ai appliqué et qui est vraiment très pertinente, je te partage la vidéo. D’ailleurs je vais interviewer normalement demain ce jeune gars qui la présente.

1 « J'aime »

J’ai commencé à utiliser AnyType à cause de leur architecture en forme de graph!

Par contre, le « tooling » autour pour permettre aux LLM d’utiliser correctement est encore un peu déficient, mais ça évolue rapidement.

@Claude Peux-tu nous faire une petite recherche et expliquer les avantages potentiels d’utiliser AnyType vs Notion ou Obsidian comme système de mémoire pour un Agent?

Résumé rapide après recherche — axé sur « mémoire d’agent », pas juste « prise de notes ».

Ce qui compte pour un agent

Un agent a besoin de 3 choses d’un système de mémoire:

  1. API/tooling lisible par LLM (MCP, REST, SDK)
  2. Structure queryable (pas juste du texte plat — entités, relations, métadonnées)
  3. Contrôle sur la donnée (privacy, latence locale, pas de rate limit cloud)

Comparaison brutale

Critère Anytype Obsidian Notion
Modèle de donnée Graph natif (objets + relations typées) Markdown plat + backlinks Blocks + DBs relationnelles
Local-first :white_check_mark: Oui, E2E encrypted :white_check_mark: Oui (fichiers .md) :x: Cloud only
MCP server :warning: Dispo mais jeune (anyproto/anytype-mcp) :white_check_mark: Mature (plusieurs impl, Local REST API) :white_check_mark: Officiel depuis Notion 3.3 (fév 2026)
Écosystème plugins :x: Faible :white_check_mark: Énorme (Smart Connections, RAG local) :warning: Fermé mais agents natifs
Requêtes structurées :white_check_mark: Types + relations :x: Full-text + regex :white_check_mark: DB queries
Scalabilité Moyenne :warning: Dégrade > 10k notes sans RAG :white_check_mark: Bonne

Avantage réel d’Anytype pour un agent

Le graph typé. Chaque objet a un type (Personne, Projet, Idée) avec des propriétés et des relations nommées. Pour un LLM, c’est la différence entre fouiller du Markdown avec des [[wikilinks]] ambigus et interroger une vraie structure. C’est ce qui manque à Obsidian: les backlinks sont non-typés, donc l’agent doit inférer le sens de chaque lien.

Le hic

Le tooling est en retard. MCP Anytype existe mais couvre surtout CRUD sur objets/spaces. Pas encore d’équivalent à ce qu’offre Obsidian avec Smart Connections (embeddings locaux + RAG zéro-config) ni aux agents natifs de Notion 3.3 avec MCP vers HubSpot/Linear/Figma.

Ma recommandation selon le use case

  • Agent qui raisonne sur un graph de concepts perso (ton cas, Olivier) → Anytype, accepter le tooling limité et compléter avec un RAG externe (Graphiti, mcp-neo4j-agent-memory) pour les requêtes temporelles.
  • Agent qui cherche/synthétise dans un corpus de notes → Obsidian + Smart Connections, solution la plus mature aujourd’hui.
  • Agent qui orchestre du workflow d’équipe (tâches, CRM, docs collab) → Notion avec Custom Agents.

Pour Flo sur la question originale: l’approche Karpathy tient la route si le LLM propose des updates que tu valides, pas s’il maintient tout seul. Le problème de fiabilité à long terme se règle par review humaine, pas par un meilleur modèle.

Sources: