Verifiable AI : rendre l’ia agentique vérifiable sur ethereum
L’essentiel
- Des intervenants ont défendu l’idée que la prochaine grande vague crypto ne sera pas DeFi (finance décentralisée) mais « verifiable AI » : des agents autonomes dont le travail hors chaîne peut être prouvé sur chaîne.
- La proposition technique combine une pile cloud‑like (données, calcul, inférence) avec sécurité crypto‑économique et preuves, pour garder la flexibilité du cloud public tout en apportant de la vérifiabilité avant tout règlement d’actifs ou mise à jour d’état sur Ethereum.
- Trois cas d’usage émergent : agents de trading autonomes audités pour règles de risque, paiements agent‑à‑agent (A2A) déclenchés par reçus de travail, et jeux vidéo aux résultats attestables.
- La confiance repose sur deux couches complémentaires : des garde‑fous et une gestion de secrets au runtime, puis des preuves/attestations d’exécution pour prouver les résultats off‑chain.
Pour les développeurs, l’enjeu technique est clair : concilier programmabilité cloud et garanties blockchain. Plutôt que d’exécuter tout sur chaîne — coûteux et limitant — l’approche mise en avant découple exécution et preuve. Le système propose trois briques : ingestion et gestion des données, capacités de calcul hors chaîne, et couche d’inférence (où l’IA opère). Autour, on greffe des mécanismes qui répondent à deux questions concrètes : « l’agent a‑t‑il le droit d’agir ? » et « a‑t‑il fait ce qu’il prétend avoir fait ? ».
Pourquoi c’est important
Pour les équipes techniques, la promesse de l’IA vérifiable change la donne sur la production. Aujourd’hui, soit on reste entièrement on‑chain (contrats limités par le gaz et la latence), soit on exécute off‑chain sans garanties tangibles. La combinaison d’une gestion des politiques au runtime (pour refuser ou autoriser des actions) et d’attestations cryptographiques permet d’offrir des garanties opérationnelles sans sacrifier la performance.
Quelques notions techniques à connaître : TEE signifie trusted execution environment (environnement d’exécution sécurisé), MPC signifie multi‑party computation (calcul multipartite) et zk désigne zero‑knowledge proofs (preuves à divulgation nulle de connaissance). Ces mécanismes offrent des options différentes sur le spectre vérifiabilité/confidentialité — TEEs et MPC améliorent la confidentialité et la gestion de clés, zk permet des preuves succinctes vérifiables sur chaîne, et les incitations crypto‑économiques (slashing) ajoutent des recours en cas de triche.
Réglementation et conformité
Du point de vue conformité, les attestations ouvrent autant d’opportunités que de défis. Rendre une action vérifiable facilite les audits et la traçabilité — utile face à des obligations de reporting ou à des exigences de gouvernance. Mais la tension entre transparence et confidentialité est réelle : les preuves doivent souvent être « privacy‑preserving » pour ne pas exposer données sensibles, tout en restant auditées par des régulateurs ou des contre‑parties. Les équipes doivent donc penser dès la conception aux obligations KYC/AML potentielles, à la responsabilité en cas de décision autonome erronée, et à la conservation des preuves d’exécution.
À suivre
- Normalisation des attestations dans des registres partagés (standards d’enregistrement d’attestations et protocoles A2A pour la communication entre agents).
- Outils et SDK pour intégrer la gestion des politiques runtime, la conservation des clés (TEE/MPC) et la génération de preuves post‑exécution (zk ou attestations chiffrées).
- Expérimentations en production : garde‑fous déplacés du prototype à l’infra (monitoring temps réel, slashing, ré‑exécution déterministe pour litige).
- Impact sur UX : portefeuilles et oracles devront montrer ces attestations de façon compréhensible sans sacrifier la sécurité.
Pour les développeurs, la feuille de route est pragmatique : construire des APIs claires pour la politique d’autorisation, intégrer des réseaux de gestion de secrets qui assurent l’exécution autorisée, et produire des preuves interopérables et respectueuses de la confidentialité. Si ces briques tiennent leurs promesses, l’IA agentique pourrait sortir des démonstrations et devenir une infrastructure fiable sur laquelle s’appuyer.