Aller au contenu principal

Blog

Réflexions sur l'IA, le code et l'écriture

Ralph Loop vs AutoResearch vs AIDER — quel agent autonome en 2026 ?
6 avril 20266 min
IA

Ralph Loop vs AutoResearch vs AIDER — quel agent autonome en 2026 ?

Trois approches du coding autonome comparées : boucle Ralph, sessions persistantes et pair programming IA. Laquelle choisir ?

Lire
Quantification du KV-Cache : TurboQuant et l'état de l'art en 2026
6 avril 202611 min
IA

Quantification du KV-Cache : TurboQuant et l'état de l'art en 2026

Le KV-cache explose en contexte long. TurboQuant compresse 7x avec moins de 1 % de perte. Deep dive sur les techniques de quantification 2026.

Lire
Construire un Context Engine comme Code Buddy — l'architecture complète
6 avril 202612 min
IA

Construire un Context Engine comme Code Buddy — l'architecture complète

Hooks, token budgets, scoring d'importance, compression JIT : anatomie complète du context engine qui pilote les agents de code modernes.

Lire
Les 10 commandes Claude Code que j'utilise tous les jours
6 avril 202611 min
Technique

Les 10 commandes Claude Code que j'utilise tous les jours

Plan mode, agents parallèles, hooks, skills, MCP servers : les 10 fonctionnalités Claude Code qui ont transformé mon workflow quotidien.

Lire
Écrire un thriller technologique : structure narrative et recherche technique
6 avril 202613 min
Écriture

Écrire un thriller technologique : structure narrative et recherche technique

Du worldbuilding technique à l'arc émotionnel : comment structurer un thriller où l'IA est un personnage. Retour d'expérience sur 107 000 mots.

Lire
Construire un agent LLM en Python avec LangGraph
6 avril 20269 min
IA

Construire un agent LLM en Python avec LangGraph

Guide pas à pas pour créer un agent ReAct avec LangGraph en Python : state graph, nodes, edges, tools et pièges courants à éviter.

Lire
Le KV-Cache des LLM expliqué aux développeurs
6 avril 202611 min
IA

Le KV-Cache des LLM expliqué aux développeurs

Comprends enfin pourquoi ton LLM consomme 32 Go de RAM pour 128K tokens. KV-cache, attention, Flash Attention et PagedAttention décryptés.

Lire
Comment j'ai écrit 107 livres avec l'IA sans perdre ma voix d'auteur
6 avril 202611 min
Écriture

Comment j'ai écrit 107 livres avec l'IA sans perdre ma voix d'auteur

Mon workflow quotidien pour écrire 3 000 mots/jour avec l'IA : ce que je délègue, ce que je garde, et pourquoi la voix reste humaine.

Lire
Self-publishing en France : 5 erreurs qui m'ont coûté des mois
6 avril 202611 min
Publication

Self-publishing en France : 5 erreurs qui m'ont coûté des mois

Couvertures ratées, pricing mal calibré, mots-clés ignorés : les 5 erreurs concrètes de self-publishing que j'aurais aimé éviter.

Lire
Claude Code + Ralph Loop : mon workflow de développeur en 2026
6 avril 202611 min
IA

Claude Code + Ralph Loop : mon workflow de développeur en 2026

15 commits/jour, 80 % de debugging en moins : mon workflow quotidien avec Claude Code, Ralph Loop et agents parallèles en 2026.

Lire
La Boucle Ralph : quand l'IA code pendant que tu dors
4 avril 202612 min
IA

La Boucle Ralph : quand l'IA code pendant que tu dors

Geoffrey Huntley a inventé une boucle bash de 3 lignes qui a révolutionné le coding autonome. Trois heures de session dégradée m'ont convaincu — voici les 5 principes, le backpressure, et mon setup concret.

Lire
TurboQuant : compresser le KV-cache des LLM par 7x sans perdre en qualité
3 avril 202611 min
IA

TurboQuant : compresser le KV-cache des LLM par 7x sans perdre en qualité

Le KV-cache de Llama 3.1 8B à 128K tokens pèse 16 Go. TurboQuant le réduit à 2,3 Go avec +0,8 % de perplexité. Architecture en 7 couches, code Rust, et benchmarks.

Lire
Comment Code Buddy gère 200K tokens sans perdre la mémoire
2 avril 202611 min
IA

Comment Code Buddy gère 200K tokens sans perdre la mémoire

6 stratégies de compression, 9 types de mémoire, et un Context Engine à 7 hooks — anatomie complète d'un agent IA qui n'oublie pas, avec le code TypeScript sous le capot.

Lire
J'ai corrigé 120 livres avec l'IA — 65 000 corrections en 8 passes
28 mars 202613 min
Écriture

J'ai corrigé 120 livres avec l'IA — 65 000 corrections en 8 passes

20 agents Claude Code en parallèle, 8 passes spécialisées, des regex sed et des pièges mémorables — récit complet d'une correction orthographique massive sur 4 835 chapitres.

Lire
Pourquoi les LLM oublient -- et comment y remédier
25 mars 202612 min
IA

Pourquoi les LLM oublient -- et comment y remédier

100 % des modèles dégradent en contexte long. NoLiMa montre que 11 sur 13 passent sous 50 % à 32K tokens. Voici pourquoi, et les solutions d'architecture qui changent la donne.

Lire
AudioReader : transformer vos Markdown en audiobooks professionnels
10 janvier 202513 min
IA

AudioReader : transformer vos Markdown en audiobooks professionnels

J'ai créé un outil open-source pour convertir Markdown, PDF et EPUB en audiobooks de qualité pro -- 100 % local, multi-voix, voice cloning, sans frais de licence.

Lire
Pourquoi j'écris sur les agents LLM (l'histoire de la facture à $847)
15 décembre 202412 min
IA

Pourquoi j'écris sur les agents LLM (l'histoire de la facture à $847)

Après avoir dépensé $847 en une nuit sur une facture API et vu mon agent supprimer des fichiers critiques, j'ai décidé de documenter mes erreurs. 51 pièges, 17 chapitres, 3 livres.

Lire
L'IA comme partenaire d'écriture : ce qui marche, ce qui piège
10 décembre 202414 min
Écriture

L'IA comme partenaire d'écriture : ce qui marche, ce qui piège

Comment j'utilise Claude et GPT pour écrire mes romans -- sans perdre ma voix d'auteur. Workflow concret, pièges à éviter, et pourquoi l'IA n'écrira jamais à ma place.

Lire