Aller au contenu
Accueil » Blog » L’intelligence artificielle peut désormais concevoir des virus biologiques : un pouvoir qui exige des garde-fous

L’intelligence artificielle peut désormais concevoir des virus biologiques : un pouvoir qui exige des garde-fous

L’IA générative peut désormais créer des virus : pourquoi il faut encadrer sa puissance

C’est une avancée scientifique aussi impressionnante qu’inquiétante. Pour la première fois, une intelligence artificielle a conçu des virus biologiques viables, capables d’infecter et de détruire des bactéries. Cette prouesse, dévoilée en septembre 2025 par l’Arc Institute et Stanford, marque un tournant technologique majeur : l’IA ne se contente plus de lire ou de réécrire l’ADN, elle est désormais capable de concevoir des génomes entiers, inédits, fonctionnels. Mais cette puissance soulève une question urgente : dans quelles conditions peut-on laisser une IA générative agir sans garde-fous ?

Les images générées par IA avaient déjà illustré ce dilemme. En quelques clics, des outils comme Nano Banana, Midjourney ou DALL·E peuvent créer des portraits hyperréalistes, tantôt artistiques, tantôt utilisés à des fins frauduleuses. La facilité d’accès, la qualité des résultats, l’absence de traçabilité… tout y est pour un usage détourné. Le même mécanisme est à l’œuvre ici, dans un domaine infiniment plus sensible : celui du vivant.

De la lecture à la création de génomes : une nouvelle frontière franchie

Le projet conduit par Brian Hie et Samuel H. King à l’Arc Institute, en partenariat avec Stanford, a mobilisé des modèles d’IA dits « genome language models » de la famille Evo. Entraînés sur des centaines de génomes de bactériophages – des virus biologiques ciblant les bactéries –, ces modèles ont généré 302 séquences synthétiques du phage ΦX174. Seize d’entre elles se sont révélées viables en laboratoire, capables d’infecter la bactérie E. coli. Certaines intègrent jusqu’à 392 mutations inédites par rapport aux génomes naturels les plus proches.

Ces résultats ont été publiés en prépublication sur la plateforme bioRxiv (King S.H. et al., « Generative design of novel bacteriophages with genome language models », 17 septembre 2025, https://www.biorxiv.org/content/10.1101/2025.09.12.675911v1). Ils sont également commentés dans un article technique de l’Arc Institute (https://arcinstitute.org/news/hie-king-first-synthetic-phage) et analysés par la revue Nature News (https://www.nature.com/articles/d41586-025-03055-y).

Entre promesse thérapeutique et menace biologique

Le potentiel médical est indéniable. Dans des essais menés sur des souches d’E. coli résistantes, les phages générés par IA ont surmonté les mécanismes de défense en quelques passages, là où les phages naturels échouaient. Cette capacité à générer une diversité évolutive rapidement exploitable pourrait faire franchir un cap décisif à la phagothérapie – une alternative aux antibiotiques dont l’efficacité repose sur l’identification de phages adaptés (Arc Institute, https://arcinstitute.org/news/hie-king-first-synthetic-phage).

Mais ce progrès soulève un défi de biosécurité. Comme le souligne David Bikard, microbiologiste à l’Institut Pasteur, dans une tribune pour Le Figaro (« L’IA conçoit ses premiers virus biologiques », https://www.lefigaro.fr), cette technologie est exposée au risque de double usage. Rien n’empêche, en théorie, un acteur malveillant d’entraîner un modèle similaire sur des virus biologiques pathogènes pour l’humain ou l’animal. Les garde-fous techniques mis en place par l’Arc Institute – filtration des données, spécificité d’hôte, exclusion des virus humains – sont nécessaires mais insuffisants à l’échelle globale.

Genetic Engineering & Biotechnology News aborde également ces enjeux dans son article de synthèse : « AI Designs Viable Bacteriophage Genomes, Combats Antibiotic Resistance » (https://www.genengnews.com/topics/artificial-intelligence/ai-designs-viable-bacteriophage-genomes-combats-antibiotic-resistance/).

Le parallèle avec la génération d’images : même puissance, mêmes risques

Comme pour les outils de génération d’images, le danger ne réside pas dans la technologie elle-même, mais dans son accessibilité sans contrôle. La génération d’images a rendu possibles les faux profils, les fraudes documentaires, les deepfakes. Demain, la génération de virus biologiques pourrait servir à des fins bien plus destructrices. Dans les deux cas, la traçabilité est lacunaire, les garde-fous législatifs à la traîne, et l’évaluation des risques souvent déléguée aux acteurs eux-mêmes.

À ce stade, au vu des risques identifiés, on comprend la nécessité de mettre en place des formes de régulation pour encadrer l’usage des modèles génératifs dans le domaine biologique. Plusieurs experts appellent à définir des standards minimaux, incluant par exemple la traçabilité des séquences générées, des restrictions d’accès aux modèles sensibles, ou encore la vérification indépendante des garde-fous computationnels. Reste à trouver un équilibre subtil : protéger contre les usages malveillants sans freiner les avancées qui peuvent, elles, répondre à des défis majeurs de santé publique.

Conclusion : encadrer l’innovation pour mieux la sécuriser

L’IA générative ouvre des horizons fascinants, mais son immense pouvoir impose une responsabilité collective. Concevoir des virus biologiques viables en laboratoire n’est plus une fiction, c’est une réalité. Dans un contexte de baisse des coûts de synthèse et d’open source croissant, nous devons anticiper les dérives, au lieu de les constater a posteriori.

Comme pour la génération d’images, cette technologie doit être pensée avec des garde-fous dès sa conception. Non pour brider l’innovation, mais pour l’inscrire dans une trajectoire responsable, au service de la santé publique – et non de ses menaces.