21 avril 2026

CYBERSECURITÉ ET SOUVERAINETÉ NUMÉRIQUE <br> MYTHOS, LE DANGEREUX POUVOIR DE L’IA ENTRE LES MAINS DU PRIVÉ

Anthropic a annoncé la semaine dernière qu’elle limitait la sortie de son dernier modèle Mythos à quelques dizaines de partenaires technologiques pour leur permettre de corriger des systèmes, affirmant que le modèle surpassait la plupart des humains dans la découverte et l’exploitation de vulnérabilités technologiques.

Qu’est-ce qu’une vulnérabilité technologique ?
Imaginez une serrure de porte avec un défaut de fabrication qui permettrait à n’importe qui d’ouvrir la porte avec une simple carte de crédit. Dans le monde numérique, une vulnérabilité est exactement cela car une faille dans un logiciel, un système d’exploitation ou un réseau qui peut être exploitée par des personnes malintentionnées pour accéder à des données, perturber des services ou prendre le contrôle d’un système. Ces failles peuvent résulter d’erreurs de programmation, de configurations incorrectes ou de conception de sécurité défaillante.

Pourquoi Anthropic limite-t-elle l’accès ?
Cette décision s’inscrit dans une pratique appelée « divulgation responsable » (responsible disclosure en anglais). Lorsqu’une entreprise découvre une technologie particulièrement puissante ou dangereuse, elle peut choisir de ne pas la rendre publique immédiatement, mais de la partager d’abord avec un cercle restreint de partenaires de confiance. L’objectif est double car cela va permettre à ces partenaires de renforcer leurs propres systèmes contre de futures attaques, et éviter que des criminels n’accèdent trop tôt à un outil qui pourrait causer des dégâts massifs. Cette approche rappelle le débat historique autour de la recherche sur les virus. En 2011, des scientifiques néerlandais avaient créé en laboratoire une souche de grippe aviaire transmissible entre humains.

La communauté scientifique avait alors débattu intensément de la question de savoir s’il fallait publier ou non les détails de cette recherche, certains arguant que la transparence scientifique l’emportait, d’autres que les risques bioterroristes étaient trop élevés. Cette décision d’Anthropic a provoqué des réactions dans la communauté mondiale de l’IA et de la cybersécurité, suscitant des craintes qu’elle ne facilite des cyberattaques à grande échelle.

Qu’est-ce qu’une cyberattaque à grande échelle ?
Il s’agit d’une offensive numérique coordonnée visant simultanément des milliers, voire des millions de systèmes. L’exemple le plus célèbre reste l’attaque WannaCry de mai 2017, qui a infecté plus de 300 000 ordinateurs dans 150 pays en 24 heures, paralysant des hôpitaux britanniques, des usines Renault en France et des systèmes de transport. Le coût total de cette attaque a été estimé à plusieurs milliards de dollars. Avec un outil comme Mythos, capable de découvrir automatiquement des failles, de telles attaques pourraient devenir encore plus rapides et plus difficiles à contrer.

Anthropic a sélectionné des partenaires et organisations de confiance pour leur accorder l’accès. Elle a choisi 12 entreprises technologiques,  toutes dont le siège est aux États-Unis, dont Apple, Microsoft et Amazon comme cercle le plus proche. Elle a indiqué avoir accordé l’accès à 40 autres organisations sans les nommer, ajoutant qu’elle était en « discussions continues avec des responsables du gouvernement américain » à propos du modèle.

Pourquoi ce choix américain pose-t-il question ?
Cette concentration géographique révèle une réalité géopolitique de l’IA car les États-Unis abritent les principaux laboratoires de recherche en intelligence artificielle (OpenAI, Google DeepMind, Meta, et bien sûr Anthropic).
Selon les données de 2024, les entreprises américaines ont investi plus de 100 milliards de dollars dans l’IA, contre environ 15 milliards pour l’Europe.

Cette asymétrie crée une dépendance technologique car lorsqu’une entreprise comme Anthropic développe un outil stratégique, les décisions d’accès se prennent principalement à Washington et à San Francisco, laissant Bruxelles et les capitales européennes en position d’observateurs. Mythos nous donne un premier aperçu de l’importance cruciale de l’accès aux capacités d’IA de pointe pour les années à venir.

Que signifie « IA de pointe » ?
On parle de « frontier AI » en anglais, c’est-à-dire des systèmes d’intelligence artificielle aux capacités émergentes qui dépassent souvent ce que les humains peuvent accomplir dans des domaines spécifiques. Ces modèles nécessitent des investissements colossaux. L’entraînement de GPT-4, par exemple, aurait coûté plus de 100 millions de dollars en ressources informatiques. L’accès à ces technologies devient donc un enjeu de souveraineté. L’Europe, malgré ses efforts réglementaires avancés avec l’AI Act (loi sur l’IA), peine à développer des modèles comparables, ce qui la rend dépendante des décisions américaines pour des outils stratégiques.

Ces divisions rappellent également de manière frappante que le monde n’est pas parvenu à établir un système mondial pour traiter les risques de l’IA, malgré d’innombrables avertissements de technologues selon lesquels l’IA aura des répercussions graves sur l’économie et le marché du travail et pourrait même anéantir l’humanité.

Quels sont ces risques existentiels ?
Le terme « risque existentiel » désigne une menace susceptible d’entraîner l’extinction de l’humanité ou la destruction irréversible de notre potentiel de développement. En 2023, des centaines de scientifiques et de dirigeants technologiques, dont les PDG d’OpenAI et de Google DeepMind, avaient signé une déclaration affirmant que «mitiger le risque d’extinction due à l’IA devrait être une priorité mondiale, au même titre que les pandémies ou les guerres nucléaires».

Ces craintes ne sont pas purement spéculatives car des modèles capables de concevoir des virus, de manipuler des systèmes financiers ou de perturber des infrastructures critiques posent des questions concrètes de sécurité collective. Il est profondément préoccupant que ce soit aux entreprises technologiques,  plutôt qu’aux régulateurs,  de décider comment gérer les risques. Cela montre à quel point il était essentiel de mettre en place des moyens pour les gouvernements ou des tiers de contrôler la technologie  pour protéger le public».

Pourquoi ce contrôle est-il nécessaire ?
L’histoire nous offre des parallèles instructifs. Lors de la révolution industrielle du XIXe siècle, l’absence de régulation avait conduit à des catastrophes (accidents de mines, pollution massive) avant que des lois sur la sécurité du travail n’émergent. De même, le secteur financier avant 2008 avait largement autorégulé ses pratiques, avec les conséquences que l’on connaît. L’IA, par sa capacité d’action autonome et son opacité technique, pose un défi encore plus complexe ?

Comment réguler ce que l’on ne comprend pas totalement ? C’est pourquoi des voix comme celle de Yoshua Bengio,  l’un des «parrains » de l’IA moderne et prix Turing 2018 ,  plaident pour des instituts de sécurité indépendants, capables d’auditer ces modèles comme on auditerait des centrales nucléaires. Pour le Monde, ces événements ont mis en lumière un manque d’influence sur les entreprises américaines qui mènent le développement de l’IA et se sont érigé en tant que super-régulateur de la technologie.

Qu’est-ce qu’un « super-régulateur » ?
C’est une entité qui impose des normes qui dépassent ses frontières géographiques. L’Union européenne a souvent joué ce rôle, notamment avec le RGPD (Règlement général sur la protection des données) en 2018, qui a forcé les géants américains à modifier leurs pratiques mondiales. Cependant, en matière d’IA, l’Europe excelle dans la réglementation mais pas dans l’innovation. L’AI Act, adopté en 2024, est la première loi complète sur l’IA au monde, mais il s’applique principalement aux produits commercialisés sur le marché européen.

Or, Mythos n’est pas encore commercialisé et c’est précisément cette faille juridique qu’exploite Anthropic pour échapper au contrôle européen. L’impact réel des vulnérabilités découvertes est difficile à vérifier sans détails techniques. Une question pressante  est de savoir si des outils  d’une puissance aussi extraordinaire  comme Mythos seront à l’avenir sur le marché. Cette question, à son tour, a des implications profondes pour la sécurité et la souveraineté nationales.

Qu’entend-on par souveraineté numérique ?
C’est la capacité d’un État ou d’un bloc d’États à contrôler ses infrastructures critiques et ses données sans dépendre d’acteurs étrangers. Aujourd’hui, 70% du trafic internet mondial transite par des infrastructures américaines. Les outils de cybersécurité, qui protègent nos hôpitaux, nos banques et nos administrations, sont majoritairement conçus par des entreprises américaines. Si ces entreprises décident unilatéralement qui peut accéder à leurs technologies défensives les plus avancées, le Monde se retrouvent vulnérables face à des menaces qui ne connaissent pas de frontières.

Lors de l’annonce de Mythos, Anthropic a déclaré que le modèle démontrait que les modèles d’IA ont atteint un point où ils peuvent « surpasser tous les humains sauf les plus qualifiés » pour repérer et exploiter des failles cybernétiques. Cela fait de l’outil un puissant instrument défensif, mais aussi une arme dangereuse entre les mains de pirates malveillants.

Comment un même outil peut-il être à la fois défensif et offensif ?
C’est ce que les stratèges appellent le « dual-use » (double usage)  à savoir une technologie conçue à des fins pacifiques peut être détournée à des fins militaires ou criminelles. L’exemple classique est celui de la fission nucléaire, qui permet à la fois de produire de l’électricité et de fabriquer des bombes atomiques. En cybersécurité, un outil qui permet de trouver des failles pour les corriger peut également servir à les exploiter.

C’est pourquoi la communauté de la sécurité informatique fonctionne souvent selon un code d’éthique strict. Les « chapeaux blancs » (hackers éthiques) découvrent des failles pour les signaler, tandis que les « chapeaux noirs » les exploitent à des fins criminelles. Mythos brouille cette frontière en automatisant des capacités auparavant réservées à une élite de quelques centaines d’experts mondiaux. Étant donné que le modèle n’a pas encore été publié pour des tests, on ignore encore beaucoup de choses sur son fonctionnement exact et les types de failles qu’il est particulièrement bon à découvrir.

Pourquoi la transparence est-elle cruciale ?
Dans la science, la réplication et la vérification par les pairs sont des piliers fondamentaux. Qu’est-ce que la vérification par les pairs ? C’est un processus où des chercheurs indépendants analysent et valident les travaux d’un confrère avant leur publication officielle. Ce mécanisme, né au XVIIe siècle avec les premières revues scientifiques, garantit que les résultats ne reposent pas sur la parole d’un seul. Un médicament n’est pas mis sur le marché sans avoir été testé par des laboratoires indépendants : avant d’obtenir une autorisation de mise sur le marché, un nouveau traitement doit passer par trois phases d’essais cliniques impliquant des milliers de patients et des équipes de recherche multiples. Cette redondance volontaire — coûteuse mais essentielle — a permis d’éviter des catastrophes comme celle de la thalidomide dans les années 1960, un médicament anti-nausées qui causa des malformations chez des milliers de nouveau-nés parce qu’il n’avait pas été suffisamment testé sur des échantillons diversifiés.

De même, un modèle d’IA à haut risque devrait être évalué par des instituts de sécurité indépendants, et pas seulement par son créateur. Pourquoi l’indépendance est-elle si importante ? Parce qu’une entreprise qui développe un produit a naturellement des intérêts économiques à en minimiser les risques ou à en exagérer les bénéfices. C’est ce que les économistes appellent un conflit d’intérêts. L’histoire regorge d’exemples où l’autorégulation a échoué. En effet, l’industrie du tabac a longtemps nié les risques du cancer, et les agences de notation financière ont attribué la note maximale à des produits toxiques avant la crise de 2008. Un audit externe, mené par des experts sans lien capitalistique avec le développeur, offre une garantie de neutralité que l’auto-évaluation ne peut pas fournir.

Le Royaume-Uni a compris cela en créant son AI Security Institute en 2023, qui a pu tester Mythos. Ce laboratoire, rattaché au gouvernement britannique mais fonctionnant avec une charte d’indépendance scientifique, incarne une approche pragmatique,  plutôt que d’interdire l’innovation, on la soumet à un contre-pouvoir technique compétent. L’institut emploie des chercheurs recrutés à la fois dans le monde académique et dans l’industrie, créant une culture hybride où la connaissance des dernières avancées se combine avec une distance critique vis-à-vis des promesses commerciales.

L’Europe, en revanche, n’a pas encore cette capacité opérationnelle, bien que l’AI Office de la Commission européenne ait été créé précisément dans ce but. Qu’est-ce que l’AI Office ? Établi en 2024 pour superviser l’application de l’AI Act, ce bureau coordonne les évaluations des systèmes d’IA à haut risque. Cependant, il souffre d’une limitation majeure car il n’a pas encore de laboratoires de test propres, ni de personnel technique suffisant pour auditer des modèles aussi complexes que Mythos. Il dépend largement des rapports que les entreprises choisissent de lui soumettre, ce qui le place dans une posture de réception passive plutôt que d’investigation active. L’Allemagne, via son agence BSI (Bundesamt für Sicherheit in der Informationstechnik), a entamé des discussions avec Anthropic, mais n’a pas encore obtenu l’accès direct au modèle.

Alors pour le reste du Monde ?

La situation est encore plus inégale. Les pays du Global South (Sud Global) soit l’Afrique, l’Amérique latine, l’Asie du Sud-Est, n’ont généralement ni les ressources financières ni l’expertise technique pour évaluer de tels modèles. Pourtant, ce sont souvent les plus vulnérables aux cyberattaques. En 2021, l’hôpital de Düsseldorf en Allemagne avait été paralysé par un ransomware, forçant le transfert d’urgence d’une patiente qui décéda en chemin. Imaginez les conséquences dans un pays où les infrastructures médicales sont déjà fragiles et où la cybersécurité est considérée comme un luxe. Un outil comme Mythos, capable de découvrir des failles à une échelle industrielle, pourrait être utilisé pour paralyser des systèmes électriques, bancaires ou hospitaliers dans des nations qui n’ont aucun moyen de se défendre ni même de comprendre l’attaque.

Les Nations Unies ont tenté d’établir un cadre global via le Global Digital Compact et le G77, mais ces initiatives restent largement déclaratoires. Il n’existe pas aujourd’hui d’Organisation mondiale de l’intelligence artificielle équivalente à l’AIEA (Agence internationale de l’énergie atomique) pour le nucléaire. Cette absence est d’autant plus préoccupante que l’IA, contrairement aux armes nucléaires, est un bien non-rival car une fois développée, elle peut être copiée et diffusée à coût marginal, rendant les contrôles d’exportation traditionnels obsolètes. Le cas de DeepSeek, modèle chinois open source révélé en janvier 2025, l’a démontré car malgré les restrictions américaines sur les puces informatiques, la Chine a réussi à entraîner un modèle compétitif que n’importe qui peut désormais télécharger et modifier.

Quel modèle de gouvernance pourrait fonctionner ?
Plusieurs pistes émergent. La première est celle des instituts de sécurité nationaux, à l’image de ce que fait le Royaume-Uni, mais coordonnés entre eux. Le réseau des AI Safety Institutes, lancé à la Conférence de Séoul en 2024, réunit aujourd’hui une vingtaine de pays, mais sans mécanisme contraignant. La seconde piste est celle d’un traité international, comparable au Traité de non-prolifération nucléaire (TNP) de 1968, qui établirait des règles communes pour les modèles à haut risque, avec un droit d’inspection pour des observateurs internationaux. La troisième piste, plus radicale, propose de conditionner l’accès aux ressources critiques (puces informatiques, données d’entraînement) à des audits obligatoires, transformant les cloud providers (Amazon, Microsoft, Google) qui contrôlent ces infrastructures en gardiens de facto de la sécurité.

Cependant, chaque piste bute sur un obstacle majeur : la souveraineté technologique. Aucune nation ne souhaite renoncer unilatéralement à son avantage compétitif, surtout dans un contexte de tensions géopolitiques croissantes. Les États-Unis craignent que la Chine ne domine l’IA militaire ; la Chine refuse toute ingérence étrangère dans ses technologies ; l’Europe tente de réguler sans posséder les outils de production. Dans cet écheveau, les pays non-alignés, qui représentent pourtant la majorité de l’humanité,  n’ont aucun siège à la table des décisions.

C’est pourquoi l’affaire Mythos n’est pas qu’une querelle transatlantique. Elle révèle une fracture mondiale car d’un côté, une poignée de nations et d’entreprises qui décident du niveau de risque acceptable pour l’humanité entière ; de l’autre, des milliards de personnes qui subiront les conséquences de ces décisions sans avoir été consultées. Jusqu’à ce qu’un mécanisme global crédible émerge, la sécurité de l’IA restera un bien privilégié distribué selon les intérêts géopolitiques du moment, plutôt qu’un bien commun géré collectivement.

Les questions de sécurité de l’IA ont également été reléguées au second plan alors que les gouvernements du monde entier se sont recentrés sur la compétition mondiale pour l’IA. Le résultat est qu’il n’existe aucun mécanisme mondial pour examiner et contrôler ce que font Anthropic et ses pairs avec des technologies risquées.

Quelle est cette compétition mondiale ?
On parle souvent de « course à l’IA » entre les États-Unis et la Chine. En 2024, la Chine a investi massivement dans des modèles comme DeepSeek, qui a surpris le monde par ses performances à coût réduit. Les États-Unis ont répondu en assouplissant leurs régulations et en investissant dans des infrastructures de calcul, les « data centers » géants nécessaires à l’entraînement des modèles. Dans cette course, la sécurité est souvent perçue comme un frein à l’innovation. Pourtant, l’histoire montre que les accidents comme la crise financière de 2008 ou la catastrophe de Tchernobyl surviennent précisément lorsque la compétition l’emporte sur la prudence.

Le fait que des modèles ayant un impact considérable soient gouvernés par une entreprise privée est préoccupant. Pour les Européens, en vertu de la loi sur l’IA, les fournisseurs comme Anthropic doivent traiter les risques cybernétiques découlant de leurs modèles, et la loi sur la résilience cybernétique du bloc impose des exigences obligatoires en matière de cybersécurité  pour tous les produits avec des éléments numériques mis sur le marché de l’UE.

Qu’est-ce que la Cyber Resilience Act ?
Adoptée en 2024, cette loi européenne oblige les fabricants de produits numériques (logiciels, objets connectés, applications) à intégrer la sécurité dès la conception et à fournir des mises à jour pendant toute la durée de vie du produit. C’est une révolution par rapport à l’ancien modèle, où la sécurité était souvent une réflexion après-coup. Cependant, comme l’AI Act, cette loi s’applique aux produits commercialisés. Tant que Mythos reste en phase de test et n’est pas « mis sur le marché », Anthropic échappe à ces obligations, illustrant les limites du droit face à l’innovation rapide.

Néanmoins, le Monde -Europe et Sud Global- sont à la merci d’Anthropic et de ses pairs technologiques.

Cette question ouvre un débat stratégique fondamental. Si les Européens acceptent aujourd’hui qu’une entreprise américaine décide unilatéralement de l’accès à une technologie critique, que se passera-t-il demain si une entreprise chinoise fait de même? La Chine a déjà démontré sa volonté de contrôler strictement les technologies stratégiques. DeepSeek, bien qu’open source (son code est public), reste soumis à la réglementation chinoise. L’Europe se retrouve prise en étau. Elle est dépendante des États-Unis pour l’innovation, concurrente de la Chine pour la souveraineté technologique, et en retard pour développer ses propres capacités. C’est pourquoi des voix s’élèvent pour appeler à un « Airbus de l’IA » européen,  un consortium public-privé capable de développer des modèles souverains, à l’image de ce qui a été fait dans l’aéronautique dans les années 1970

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *