Aller au contenu
Accueil » Blog » Quelles sont les catégories de risque définies par l’IA Act de l’UE ?

Quelles sont les catégories de risque définies par l’IA Act de l’UE ?

L’IA Act de l’Union européenne divise la réglementation des systèmes d’intelligence artificielle en quatre catégories de risque distinctes. Chaque catégorie impose des règles spécifiques visant à protéger les utilisateurs et la société.

Risque inacceptable : l'IA interdite

Les systèmes d’IA présentant un risque inacceptable sont totalement interdits par l’IA Act. Ces technologies peuvent porter atteinte aux droits fondamentaux ou causer des dommages irréparables. Par exemple, une IA conçue pour manipuler des comportements politiques ou exploiter des vulnérabilités humaines est interdite. Un cas réel pourrait inclure une IA utilisée pour la reconnaissance faciale à des fins de surveillance de masse sans consentement, violant ainsi les droits à la vie privée et à la liberté individuelle. En Chine, par exemple, des systèmes de reconnaissance faciale sont déjà utilisés pour surveiller la population, ce qui pose des risques importants pour les libertés civiles.

Risque élevé : conformité stricte

Les IA à risque élevé doivent respecter des critères de conformité très stricts. Ces systèmes nécessitent une surveillance humaine constante pour garantir leur bon fonctionnement et prévenir les dérives. Un exemple concret est l’utilisation d’IA dans le domaine médical pour diagnostiquer des maladies. Si une IA est utilisée pour analyser des images médicales et poser des diagnostics, elle doit être soumise à des exigences rigoureuses de qualité des données et à un contrôle humain constant pour vérifier les résultats.

Les obligations pour ces IA incluent :

  • Évaluation des risques : Identifier et évaluer les risques potentiels associés à l’utilisation de l’IA.
  • Gouvernance des données : Assurer une gestion et une protection adéquates des données utilisées par l’IA.
  • Contrôle humain : Les opérateurs humains doivent pouvoir intervenir et contrôler le système d’IA.
  • Transparence : Les utilisateurs doivent être informés sur le fonctionnement de l’IA.
  • Conservation des logs : Maintenir des enregistrements détaillés pour la traçabilité et les audits.
  • Documentation technique : Fournir des informations techniques complètes pour comprendre et évaluer le système.
  • Précision, robustesse et sécurité : Assurer que le système est précis, fiable et sécurisé.
  • Usage général : documentation et traçabilité

Systèmes à usage général

Les systèmes à usage général, comme ChatGPT, sont utilisés dans divers secteurs et applications. Ces IA doivent disposer d’une documentation détaillée expliquant leur modèle, leurs limites et leurs capacités. La traçabilité des bases de données utilisées pour l’entraînement est également cruciale. Cela permet aux entreprises de savoir exactement comment et pourquoi ces modèles fonctionnent, garantissant ainsi une utilisation plus sûre et plus informée. Par exemple, une entreprise peut utiliser ChatGPT pour répondre aux questions des clients, rédiger des articles de blog ou générer du contenu marketing. La documentation et la traçabilité assurent que l’entreprise comprend les capacités et les limites de l’IA.

Risque limité : marquage du contenu généré

Les systèmes d’IA à risque limité, comme les chatbots générant du contenu, doivent clairement marquer les contenus produits. Cette exigence de transparence permet aux utilisateurs de savoir quand une IA est à l’origine du contenu. Un exemple pourrait être un chatbot utilisé pour générer des articles de presse ou des messages sur les réseaux sociaux. Si le contenu généré par l’IA n’est pas clairement identifié, cela pourrait induire les utilisateurs en erreur.

De plus, les IA présentant un risque systémique doivent :

  • Être testées contre des attaques potentielles : Assurer que le système est résistant aux cyberattaques.
  • Documenter les résultats des tests : Enregistrer et analyser les résultats pour améliorer la sécurité.
  • Informer les utilisateurs des risques identifiés : Partager les résultats des tests et les risques potentiels avec les utilisateurs.
  • Obligations de cybersécurité

Pour les IA présentant un risque systémique, l’IA Act impose des mesures supplémentaires de cybersécurité. Ces systèmes doivent passer des tests rigoureux pour se protéger contre les cyberattaques. Par exemple, une IA utilisée dans le secteur bancaire pour détecter les fraudes doit être régulièrement testée pour s’assurer qu’elle peut résister à des tentatives de piratage sophistiquées. Les résultats de ces tests doivent être documentés et partagés avec les utilisateurs pour garantir une transparence et une sécurité accrues.

Conclusion

En conclusion, l’IA Act de l’UE met en place une réglementation stricte et bien définie pour les systèmes d’intelligence artificielle. Cette réglementation vise à protéger les utilisateurs, assurer la transparence et maintenir un haut niveau de sécurité et d’éthique dans le développement et l’utilisation de l’IA en Europe. Le revers de la médaille ? A court terme moins d’innovations fracassantes, mais compte tenu des enjeux cela semble acceptable non ?

Photographie générée avec l’IA avec l’outil Seelab

    Les réponses aux questions posées dans ce questionnaire sont nécessaires et seront utilisées uniquement pour répondre à votre demande de contact. Les informations recueillies sont destinées exclusivement à la société Absilis (propriétaire du site iaenaction.fr), responsable du traitement de ces données. Conformément au Règlement Général sur la Protection des Données (RGPD), vous disposez des droits d’accès, de rectification, et de suppression des informations qui vous concernent. Vous avez également le droit de retirer votre consentement au traitement de vos données à tout moment, ce qui inclut le droit de demander que nous cessions de vous contacter si vous avez opté pour cette possibilité. Pour exercer ces droits ou pour toute question sur le traitement de vos données, vous pouvez contacter Absilis par email à contact @ absilis.fr. Nous nous engageons à garantir la sécurité et la confidentialité de vos données personnelles. Aucune information n’est publiée, échangée, transférée, cédée ou vendue à des tiers sans votre autorisation explicite. Seule l’hypothèse du rachat d’Absilis et de ses droits autoriserait la transmission de ces informations à l’éventuel acquéreur qui serait également tenu de la même obligation de conservation et de modification des données. Nous vous remercions pour votre confiance.