← Retour au blog

Annexe III du Règlement IA expliquée : Systèmes d'IA à risque élevé et leurs implications pour les entreprises

Qu’est-ce que l’Annexe III du Règlement IA de l’UE ? Découvrez la liste des systèmes d’IA à risque élevé, pourquoi ils sont importants, et comment les entreprises américaines doivent se conformer. Évitez les amendes et assurez la conformité légale de votre IA.

16 mai 2026DILAIG

Annexe III du Règlement IA expliquée Systèmes d'IA à risque élevé et leurs implications pour les entreprises US et UE

Annexe III du Règlement IA : Systèmes d'IA à risque élevé

Dernière mise à jour 17 mai 2026 Temps de lecture 12 minutes


L’Annexe III est le cœur du Règlement IA de l’UE

Le Règlement IA de l’UE repose sur une idée simple. Tous les systèmes d’IA ne se valent pas. Certains présentent des risques plus élevés pour les droits fondamentaux et la sécurité. Ces systèmes nécessitent des règles plus strictes.

L’Annexe III est là où l’UE dresse la liste de ces systèmes d’IA à risque élevé. C’est le fondement de la réglementation. Si votre système d’IA figure sur cette liste vous devez vous conformer aux obligations les plus strictes.

Pour les entreprises américaines cela n’est pas négociable. Si votre système d’IA est utilisé dans l’UE et entre dans l’Annexe III vous devez respecter les règles. Les sanctions pour non-conformité sont sévères.

Ce guide expliquera ce qu’est l’Annexe III. Il listera les systèmes d’IA à risque élevé. Il montrera pourquoi ils sont considérés comme tels. Il vous aidera à comprendre ce que vous devez faire.


Qu’est-ce que l’Annexe III

L’Annexe III est une liste. Elle fait partie du Règlement IA de l’UE. Elle identifie les systèmes d’IA considérés comme à risque élevé.

Risque élevé ne signifie pas dangereux. Cela signifie que ces systèmes ont le potentiel de porter atteinte aux droits fondamentaux. Ils ont le potentiel de porter atteinte à la sécurité. Ils ont le potentiel de nuire à la société.

L’UE exige que ces systèmes respectent des obligations strictes. Celles-ci incluent des évaluations des risques. Celles-ci incluent la transparence. Celles-ci incluent la supervision humaine.


La liste complète des systèmes d’IA à risque élevé dans l’Annexe III

L’Annexe III est divisée en plusieurs catégories. Chaque catégorie inclut des cas d’usage spécifiques. Voici la liste complète.

Gestion et exploitation des infrastructures critiques

Systèmes d’IA utilisés pour la gestion et l’exploitation des infrastructures critiques. Cela inclut

L’énergie L’eau Les transports Les soins de santé

Exemple Une entreprise américaine fournit un système d’IA pour gérer un réseau électrique en France. Ce système est à risque élevé.

Éducation et formation professionnelle

Systèmes d’IA utilisés dans l’éducation. Cela inclut

La notation des examens La détermination des admissions L’évaluation des résultats d’apprentissage

Exemple Une entreprise américaine d’edtech propose un outil d’IA pour noter des examens dans des écoles allemandes. Ce système est à risque élevé.

Emploi gestion des travailleurs et accès à l’auto-entrepreneuriat

Systèmes d’IA utilisés dans l’emploi. Cela inclut

Le tri des candidats à l’embauche La conduite d’entretiens Le suivi des performances La gestion des travailleurs

Exemple Une entreprise américaine de technologie RH fournit un outil d’IA pour trier des candidats à l’embauche pour un employeur néerlandais. Ce système est à risque élevé.

Accès aux services privés et publics essentiels

Systèmes d’IA utilisés pour déterminer l’accès aux services essentiels. Cela inclut

La notation crédit La souscription d’assurances Les services de santé Les prestations sociales

Exemple Une entreprise américaine de fintech propose un système de notation crédit à une banque espagnole. Ce système est à risque élevé.

Application de la loi

Systèmes d’IA utilisés dans l’application de la loi. Cela inclut

La police prédictive La reconnaissance faciale dans les espaces publics L’évaluation des risques criminels

Exemple Une entreprise américaine de technologie fournit un outil d’IA pour la police prédictive à un département de police belge. Ce système est à risque élevé.

Migration asile et contrôle aux frontières

Systèmes d’IA utilisés dans la migration l’asile et le contrôle aux frontières. Cela inclut

Les demandes de visa automatisées Les évaluations d’éligibilité à l’asile La surveillance des frontières

Exemple Une entreprise américaine fournit un système d’IA pour évaluer les demandes de visa pour une ambassade française. Ce système est à risque élevé.

Administration de la justice

Systèmes d’IA utilisés dans l’administration de la justice. Cela inclut

Les assistants IA pour les juges Les outils de recherche juridique Les recommandations de peine

Exemple Une entreprise américaine de legaltech propose un outil d’IA pour assister les juges dans un tribunal suédois. Ce système est à risque élevé.

Processus démocratiques

Systèmes d’IA utilisés dans les processus démocratiques. Cela inclut

L’IA utilisée dans les élections Les outils de campagne politique Le profilage des électeurs

Exemple Une entreprise américaine fournit un outil d’IA pour profiler les électeurs pour un parti politique allemand. Ce système est à risque élevé.


Pourquoi ces systèmes d’IA sont-ils considérés comme à risque élevé

L’UE considère ces systèmes d’IA comme à risque élevé pour une raison. Ils ont le potentiel d’affecter significativement la vie des gens. Ils ont le potentiel de violer les droits fondamentaux. Ils ont le potentiel de causer des préjudices.

Voici pourquoi chaque catégorie est à risque élevé.

Infrastructures critiques

Les systèmes d’IA gérant des infrastructures critiques peuvent affecter la sécurité publique. Une défaillance peut entraîner des pannes de courant. Elle peut entraîner des pénuries d’eau. Elle peut entraîner des perturbations des transports.

Éducation

Les systèmes d’IA dans l’éducation peuvent affecter l’avenir des gens. Un système de notation biaisé peut désavantager des étudiants. Il peut limiter leurs opportunités. Il peut perpétuer les inégalités.

Emploi

Les systèmes d’IA dans l’emploi peuvent affecter les moyens de subsistance. Un outil de recrutement discriminatoire peut exclure des candidats qualifiés. Il peut renforcer les biais. Il peut conduire à des pratiques de travail injustes.

Services essentiels

Les systèmes d’IA déterminant l’accès aux services essentiels peuvent affecter la qualité de vie. Un système de notation crédit biaisé peut refuser des prêts de manière injuste. Il peut limiter les opportunités financières. Il peut perpétuer les inégalités économiques.

Application de la loi

Les systèmes d’IA dans l’application de la loi peuvent affecter la justice. Un outil de police prédictive biaisé peut conduire à des arrestations injustifiées. Il peut cibler des individus innocents. Il peut éroder la confiance publique.

Migration et contrôle aux frontières

Les systèmes d’IA dans la migration peuvent affecter les droits des gens. Un outil d’évaluation d’asile biaisé peut refuser un refuge de manière injuste. Il peut violer le droit international. Il peut mettre des vies en danger.

Administration de la justice

Les systèmes d’IA dans la justice peuvent affecter l’équité. Un assistant juridique biaisé peut conduire à des condamnations injustifiées. Il peut saper l’État de droit. Il peut éroder la confiance publique.

Processus démocratiques

Les systèmes d’IA dans les processus démocratiques peuvent affecter la démocratie. Un outil de profilage des électeurs biaisé peut manipuler les élections. Il peut saper la libre volonté. Il peut éroder les valeurs démocratiques.


Exemples concrets de systèmes d’IA à risque élevé

IA de santé dans l’UE

Une entreprise américaine d’IA de santé déploie son outil de diagnostic dans des hôpitaux italiens. L’IA analyse des images médicales. Elle assiste dans le diagnostic des maladies.

Ce système entre dans l’Annexe III. Il est utilisé dans le domaine de la santé. Il doit se conformer à des obligations strictes. Celles-ci incluent des évaluations des risques. Celles-ci incluent la transparence. Celles-ci incluent la supervision humaine.

IA RH pour une entreprise multinationale

Une entreprise multinationale utilise un système d’IA pour le recrutement. Le système trie les candidats à l’embauche. Il classe les candidats. Il est utilisé aux États-Unis et dans l’UE.

Ce système entre dans l’Annexe III. Il est utilisé dans l’emploi. Il doit se conformer à des obligations strictes. Celles-ci incluent des tests de biais. Celles-ci incluent des évaluations d’équité. Celles-ci incluent une révision humaine.

IA de notation crédit pour les banques européennes

Une entreprise américaine de fintech propose un système de notation crédit par IA à des banques dans l’UE. L’IA évalue la solvabilité. Elle détermine l’éligibilité aux prêts.

Ce système entre dans l’Annexe III. Il est utilisé dans les services essentiels. Il doit se conformer à des obligations strictes. Celles-ci incluent la transparence. Celles-ci incluent l’explicabilité. Celles-ci incluent la protection des données.


Comment déterminer si votre système d’IA entre dans l’Annexe III

Déterminer si votre système d’IA entre dans l’Annexe III implique plusieurs étapes. Voici comment faire.

Étape 1 Identifier le cas d’usage

Que fait votre système d’IA ? Où est-il utilisé ? Qui l’utilise ?

Exemple Votre système d’IA trie des candidats à l’embauche pour une entreprise dans l’UE.

Étape 2 Vérifier l’Annexe III

Consultez la liste des cas d’usage à risque élevé dans l’Annexe III. Votre cas d’usage correspond-il à l’un d’entre eux ?

Exemple Le tri des candidats à l’embauche entre dans la catégorie Emploi gestion des travailleurs et accès à l’auto-entrepreneuriat.

Étape 3 Évaluer l’impact

Votre système d’IA a-t-il le potentiel de porter atteinte aux droits fondamentaux ? A-t-il le potentiel de porter atteinte à la sécurité ? A-t-il le potentiel de nuire à la société ?

Exemple Un outil de recrutement biaisé peut discriminer certains groupes. Il peut violer le droit à la non-discrimination.

Étape 4 Consulter un expert

Si vous n’êtes pas sûr consultez un expert. Il peut vous aider à déterminer si votre système d’IA est à risque élevé. Il peut vous aider à comprendre vos obligations.


Quelles obligations s’appliquent aux systèmes d’IA à risque élevé

Si votre système d’IA entre dans l’Annexe III vous devez vous conformer à des obligations strictes. Voici ce qu’elles incluent.

Gestion des risques

Vous devez mettre en œuvre un système de gestion des risques. Cela inclut l’identification des risques. Cela inclut l’évaluation des risques. Cela inclut l’atténuation des risques.

Gouvernance des données

Vous devez garantir des données de haute qualité. Vous devez garantir la gouvernance des données. Cela inclut la collecte des données. Cela inclut le traitement des données. Cela inclut le stockage des données.

Documentation technique

Vous devez créer une documentation technique. Cela inclut une description du système d’IA. Cela inclut son objectif prévu. Cela inclut ses spécifications techniques.

Transparence

Vous devez garantir la transparence. Cela inclut la fourniture d’informations claires sur le système d’IA. Cela inclut ses capacités. Cela inclut ses limitations.

Supervision humaine

Vous devez garantir la supervision humaine. Cela inclut la révision humaine des décisions. Cela inclut l’intervention humaine lorsque nécessaire.

Précision robustesse et cybersécurité

Vous devez garantir que le système d’IA est précis. Vous devez garantir qu’il est robuste. Vous devez garantir qu’il est cybersécurisé.

Évaluation de la conformité

Vous devez effectuer une évaluation de la conformité. Cela inclut le test du système d’IA. Cela inclut l’évaluation de sa conformité.

Surveillance post-commercialisation

Vous devez surveiller le système d’IA après son déploiement. Cela inclut le suivi de ses performances. Cela inclut la résolution des problèmes.


Erreurs courantes avec les systèmes d’IA à risque élevé

Erreur 1 Supposer que votre système d’IA n’est pas à risque élevé

De nombreuses entreprises supposent que leurs systèmes d’IA ne sont pas à risque élevé. Mais si votre système est utilisé dans un secteur sensible il l’est probablement.

Vérifiez toujours l’Annexe III. En cas de doute consultez un expert.

Erreur 2 Ne pas mettre en œuvre la gestion des risques

Les systèmes d’IA à risque élevé nécessitent une gestion des risques. Le fait de ne pas la mettre en œuvre peut entraîner la non-conformité. Cela peut entraîner des préjudices.

Erreur 3 Ignorer la qualité des données

Les systèmes d’IA à risque élevé nécessitent des données de haute qualité. Ignorer la qualité des données peut conduire à des résultats biaisés. Cela peut conduire à des préjudices.

Erreur 4 Ne pas garantir la supervision humaine

Les systèmes d’IA à risque élevé nécessitent une supervision humaine. Le fait de ne pas la garantir peut conduire à de mauvaises décisions. Cela peut conduire à des préjudices.

Erreur 5 Sauter les évaluations de conformité

Les systèmes d’IA à risque élevé nécessitent des évaluations de conformité. Les sauter peut entraîner la non-conformité. Cela peut entraîner des amendes.


Comment DilAIg aide à la conformité avec l’Annexe III

Se conformer à l’Annexe III peut être complexe. DilAIg simplifie le processus.

Notre outil vous guide à chaque étape. Il vous aide à déterminer si votre système d’IA est à risque élevé. Il vous assisté dans la mise en œuvre des obligations nécessaires. Il génère la documentation requise.

Pour les entreprises américaines notre outil garantit la conformité avec les réglementations américaines et européennes. Il signale les exigences spécifiques à l’UE. Il vous aide à naviguer dans les complexités du Règlement IA.

Voici comment cela fonctionne.

1 Répondez à une série de questions sur votre système d’IA. Que fait-il ? Où est-il utilisé ? Qui l’utilise ?

2 Notre outil analyse vos réponses. Il détermine si votre système d’IA entre dans l’Annexe III. Il identifie les obligations que vous devez respecter.

3 Nous générons un plan de conformité complet. Il inclut toutes les étapes nécessaires. Il est prêt pour la mise en œuvre.

4 Nous fournissons des conseils sur la gestion des risques. Nous vous aidons à garantir la qualité des données. Nous vous assistons dans la supervision humaine.

Vérifiez si votre système d’IA entre dans l’Annexe III. Commencez votre vérification de conformité

Capture d’écran de l’outil de conformité Annexe III de DilAIg


FAQ Annexe III et systèmes d’IA à risque élevé

Q Qu’est-ce que l’Annexe III du Règlement IA de l’UE

L’Annexe III est une liste des systèmes d’IA à risque élevé dans le Règlement IA de l’UE. Ces systèmes ont le potentiel de porter atteinte aux droits fondamentaux à la sécurité ou à la société.

Q Pourquoi ces systèmes d’IA sont-ils considérés comme à risque élevé

Ces systèmes d’IA sont considérés comme à risque élevé car ils peuvent affecter significativement la vie des gens. Ils peuvent violer les droits fondamentaux. Ils peuvent causer des préjudices.

Q Les entreprises américaines doivent-elles se conformer à l’Annexe III

Oui si leurs systèmes d’IA sont utilisés dans l’UE et entrent dans l’Annexe III.

Q Quelles sont les obligations pour les systèmes d’IA à risque élevé

Les obligations incluent la gestion des risques la gouvernance des données la documentation technique la transparence la supervision humaine la précision la robustesse la cybersécurité l’évaluation de la conformité et la surveillance post-commercialisation.

Q Comment puis-je déterminer si mon système d’IA entre dans l’Annexe III

Vérifiez si le cas d’usage de votre système d’IA correspond à l’un de ceux listés dans l’Annexe III. Évaluez l’impact potentiel sur les droits fondamentaux la sécurité ou la société.

Q Que se passe-t-il si mon système d’IA entre dans l’Annexe III mais que je ne me conforme pas

Vous pourriez faire face à des amendes allant jusqu’à 7 % de votre chiffre d’affaires mondial ou 35 millions d’euros. Vous pourriez également subir des dommages réputationnels et une perte de confiance.


Points clés à retenir

L’Annexe III du Règlement IA de l’UE liste les systèmes d’IA à risque élevé. Ces systèmes ont le potentiel de porter atteinte aux droits fondamentaux à la sécurité ou à la société. Ils doivent se conformer à des obligations strictes.

La liste inclut les systèmes d’IA utilisés dans les infrastructures critiques l’éducation l’emploi les services essentiels l’application de la loi la migration la justice et les processus démocratiques.

Pour les entreprises américaines la conformité est obligatoire si leurs systèmes d’IA sont utilisés dans l’UE et entrent dans l’Annexe III. Les obligations incluent la gestion des risques la gouvernance des données la transparence la supervision humaine et plus encore.

Les erreurs courantes incluent supposer que votre système d’IA n’est pas à risque élevé et ne pas mettre en œuvre la gestion des risques. L’outil de DilAIg simplifie la conformité à l’Annexe III. Il vous guide à chaque étape. Il génère la documentation nécessaire.


Prochaines étapes

Vérifiez si votre système d’IA entre dans l’Annexe III. Commencez votre vérification de conformité

Mettez en œuvre les obligations nécessaires. Découvrez comment

Besoin d’aide ? Réservez une démo


Rejoignez la discussion

Votre système d’IA entre-t-il dans l’Annexe III ? Quels défis avez-vous rencontrés avec la conformité ? Partagez vos réflexions dans les commentaires ou envoyez-nous un tweet @DilAIg.


Pour aller plus loin

Texte officiel du Règlement IA Annexe III Lignes directrices de la Commission européenne sur l’Annexe III Centre de conformité au Règlement IA de DilAIg Systèmes d’IA à risque élevé : Ce que vous devez savoir


Cet article fait partie de la série Conformité au Règlement IA de DilAIg. Prochain épisode Article 9 du Règlement IA Exigences en matière de données et de gouvernance des données expliquées *

Votre système IA est-il conforme ?

Audit gratuit en 20 minutes.

Démarrer l'audit
Annexe III du Règlement IA expliquée : Systèmes d'IA à risque élevé et leurs implications pour les entreprises — DILAIG