AccueilBlogActu IA
Actu IA26 février 2026· 5 min

Anthropic mesure l'autonomie de ses agents : les sessions dépassent 45 minutes

Anthropic vient de publier une recherche sur la durée des sessions d'agents IA : 45 minutes en moyenne, le double d'il y a 6 mois. Claude Code 2.5, Perplexity Computer, OpenAI Frontier : la semaine qui change tout pour l'IA autonome.

Anthropic a publié il y a deux jours une recherche sur la mesure de l'autonomie des agents IA. Le chiffre qui claque : les sessions d'agents durent maintenant 45 minutes en moyenne, contre 20 minutes il y a six mois. Ce doublement n'est pas anodin. Il signale un basculement.

Le 24 février 2026, Anthropic a lancé en parallèle Claude Code 2.5 et poussé ses agents enterprise avec des plugins pour la finance, l'ingénierie et le design. Mais c'est la recherche sur l'autonomie qui mérite qu'on s'y arrête.

Les agents IA tiennent maintenant 45 minutes sans supervision : c'est quoi le changement ?

L'étude Anthropic publiée le 25 février 2026 mesure l'autonomie par la durée des "turns" — les séquences d'actions qu'un agent enchaîne sans intervention humaine. Le résultat : la durée médiane a doublé en 6 mois.

Concrètement, ça veut dire qu'un agent peut aujourd'hui :

  • Ouvrir une codebase, comprendre l'architecture, écrire des tests, corriger des bugs, ouvrir une PR
  • Faire du research web, croiser des sources, rédiger un rapport structuré
  • Gérer un workflow complet de support client sans escalade humaine

Ce n'est pas de la science-fiction. Sur claw-bot.fr, on fait tourner ce type d'agents depuis plusieurs mois. Ce qui change avec ces nouvelles capacités, c'est que l'échec silencieux devient le vrai risque. Plus l'agent est autonome, plus il peut se tromper loin du point de contrôle.

Claw-Bot recommande toujours de définir des checkpoints explicites dans chaque workflow long — pas pour brider l'autonomie, mais pour avoir un filet de sécurité quand l'agent part dans une mauvaise direction.

Claude Code 2.5 : c'est quoi qui change vraiment pour les devs ?

Claude Code 2.5 est sorti avec deux améliorations majeures selon les notes de release Anthropic :

  1. Meilleure gestion des contextes longs — l'agent peut maintenant traverser des codebases de 100k+ tokens sans perdre le fil
  2. Autonomie accrue sur les décisions d'architecture — au lieu de demander confirmation à chaque étape, il prend des décisions intermédiaires et reporte seulement les choix structurants

Pour les devs qui utilisent OpenClaw avec Claude Code, ça change le paradigme d'usage. Avant, tu lançais un agent sur une tâche courte et tu supervisais de près. Maintenant, tu peux lui confier des tâches de fond qui durent 30-60 minutes.

Un chiffre de la recherche Anthropic : 46% des développeurs et CTOs ont des agents IA en production selon VentureBeat (février 2026). Parmi eux, ceux qui utilisent des agents 45+ minutes sont encore minoritaires — mais ils représentent les early adopters du prochain cycle.

Claw-Bot voit dans ces chiffres une tendance nette : les équipes qui maîtrisent les agents longs avant leurs concurrents vont avoir un avantage structurel de 12-18 mois.

Perplexity lance "Computer" : la guerre des agents autonomes est ouverte

La même semaine, Perplexity a lancé son produit "Computer" — un agent autonome concurrent d'OpenClaw dans la catégorie. Et OpenAI a officialisé "Frontier", sa plateforme enterprise pour construire et gérer des agents.

En une semaine : Anthropic, Perplexity, OpenAI. Le marché des agents autonomes ne se consolide pas, il explose.

Quelques données pour situer l'ampleur :

  • 80% des executives considèrent les agents IA comme critiques à la survie de leur entreprise d'ici 2027 (Cisco, février 2026)
  • 10,9 milliards de dollars : projection du marché agentic IA pour 2026
  • 45 minutes : durée médiane d'un turn agent selon Anthropic (contre 20 min en H2 2025)
  • 40% des apps enterprise intègreront des agents autonomes d'ici fin 2026 (Gartner)

Ce que Harvard et MIT ont publié en parallèle — leur papier "Agents of Chaos" — tempère l'enthousiasme. Leurs tests montrent que les agents autonomes échouent de manière imprévisible dans des environnements qu'ils n'ont pas vus pendant l'entraînement. La durée d'autonomie augmente, mais la fiabilité dans des contextes nouveaux reste fragile.

Est-ce que les agents IA sont prêts pour des responsabilités réelles en 2026 ?

La réponse honnête : ça dépend du contexte.

Pour des tâches bien définies dans un domaine maîtrisé (génération de code, research documentaire, gestion de tickets support) — oui, les agents 2026 sont prêts. On le voit tous les jours sur les installations Claw-Bot.

Pour des décisions qui ont des conséquences irréversibles (email externe, transaction financière, modification de production) — non, pas sans supervision. Même à 45 minutes d'autonomie.

Claw-Bot a une règle simple : toute action irréversible nécessite un checkpoint humain, quelle que soit la durée de session de l'agent.

La mesure d'autonomie d'Anthropic est un outil utile, mais elle ne mesure pas ce qui compte vraiment : la confiance que tu peux avoir dans les décisions que l'agent prend pendant ces 45 minutes. C'est le prochain chantier de recherche — et probablement le sujet des prochaines sorties.

Pour creuser la mise en place d'agents longs avec OpenClaw, consulte la FAQ claw-bot.fr et les cas d'usage terrain.

Un projet OpenClaw ?

Setup sécurisé, formation, support. On en parle ?