La loi européenne sur l’IA a récemment clarifié la classification des systèmes d’IA selon leur niveau de risque. La version rectificative du 30 mai 2026 précise que les systèmes de conduite peuvent être désormais considérés comme à haut risque dans de nombreux cas. Cette décision modifie l’approche réglementaire pour constructeurs, fournisseurs et opérateurs exploitant des véhicules assistés ou autonomes.
Pour les responsables techniques et juridiques, l’impact opérationnel mérite une lecture attentive des nouvelles dispositions. Les obligations concernent la conception, la mise en service et la surveillance continue des systèmes concernés. Voici l’essentiel à retenir pour évaluer obligations, risques et étapes de conformité.
A retenir :
- Classification par niveau de risque, interdits et obligations renforcées
- Systèmes de conduite souvent inclus dans les cas à haut risque
- Fournisseurs responsables de conformité, documentation technique et gestion des risques
- Calendrier d’application progressif, contrôles renforcés et sanctions possibles
AI Act et classification des systèmes de conduite comme haut risque
Ce point prolonge le résumé précédent en détaillant pourquoi les véhicules autonomes attirent un encadrement strict. Selon la Commission européenne, l’analyse porte sur l’usage prévu, l’impact potentiel sur la sécurité et les droits fondamentaux des personnes. Les décisions de classification reposent à la fois sur des listes d’usages et sur des critères fonctionnels évalués au cas par cas.
Exigences techniques et procédurales : Cette liste synthétise les critères utilisés pour qualifier un système de conduite comme haut risque et guide la conformité opérationnelle. La clarté de cette étape réduit l’incertitude pour les équipes produit et conformité.
- Composant de sécurité intégré dans un produit réglementé
- Traitement automatisé de profils ou données sensibles
- Influence directe sur la sécurité des personnes
- Remplacement potentiel d’une décision humaine critique
Critère
Description
Exemple applicatif
Composant de sécurité
IA intégrée à des dispositifs soumis à législation secteur
Systèmes d’assistance freinage automatisé
Profilage
Évaluation automatisée des comportements ou performances
Priorisation du trafic en fonction de profils
Impact sur droits
Atteinte possible aux libertés ou accès aux services
Refus d’accès à une assurance
Remplacement humain
Remplace ou influence décisions humaines critiques
Décision d’intervention d’urgence automatisée
Critères juridiques et techniques pour la classification
Ce paragraphe précise le lien entre critères juridiques et profils techniques, afin d’éclairer les choix de conception. Selon le texte rectificatif du 30 mai, l’annexe III liste des cas où le risque est présumé élevé. Les équipes doivent documenter les raisons lorsqu’elles estiment qu’un système ne présente pas un risque élevé.
« J’ai évalué un prototype et la documentation exigée a transformé notre démarche de test »
Claire L.
Exemples concrets de systèmes de conduite concernés
Ce point relie les critères précédents à des cas d’usage concrets pour mieux guider l’évaluation interne. Sont concernés les systèmes qui contrôlent la direction, la vitesse et la détection d’obstacles en conditions réelles. Les flottes commerciales et les véhicules partagés sont particulièrement surveillés par les autorités.
Pour approfondir l’analyse technique, consultez les guides sectoriels et les normes en cours d’élaboration. Selon le Future of Life Institute, une documentation claire facilite les contrôles administratifs et la démonstration de conformité. La suite aborde les obligations applicables aux acteurs.
Obligations des fournisseurs et des déployeurs pour les systèmes de conduite
Ce passage décale l’attention vers les responsabilités pratiques imposées par le AI Act aux acteurs industriels. Les obligations principales visent la gestion des risques, la gouvernance des données et la traçabilité tout au long du cycle de vie. Les fournisseurs en amont portent la charge la plus lourde en matière de documentation et de qualité.
Exigences opérationnelles et contractuelles : Ce résumé contextualise les obligations contractuelles entre fournisseurs et déployeurs pour sécuriser la chaîne de responsabilité. La clarification contractuelle limite les zones grises lors des audits ou incidents.
- Système de gestion des risques documenté et appliqué
- Jeux de données représentatifs et gouvernance vérifiable
- Documentation technique fournie aux autorités compétentes
- Instructions d’utilisation pour une surveillance humaine effective
Obligations techniques imposées aux fournisseurs
Ce passage relie les obligations générales aux tâches techniques concrètes réalisées par les équipes R&D. Les fournisseurs doivent fournir documentation, tests, enregistrements d’événements et garanties de cybersécurité. Selon la Commission européenne, ces éléments sont essentiels pour l’évaluation de conformité par les autorités.
« Nous avons dû restructurer nos livrables techniques pour répondre aux exigences de traçabilité »
Marc D.
Devoirs et responsabilités des déployeurs
Ce paragraphe situe la responsabilité des déployeurs face aux fournisseurs, afin d’anticiper les obligations opérationnelles. Les déployeurs doivent suivre les instructions d’utilisation, assurer la surveillance humaine et conserver les enregistrements requis. Leur charge est moindre que celle des fournisseurs, mais elle reste essentielle pour la conformité.
Gouvernance, GPAI et calendrier de mise en œuvre pour les systèmes de conduite
Cette section fait le lien entre la gouvernance européenne et les obligations pratiques pour les acteurs du secteur automobile. L’Office AI chargé de la mise en œuvre jouera un rôle central pour contrôler la conformité et traiter les signalements. Les fournisseurs de modèles d’usage général (GPAI) ont aussi des obligations spécifiques si leurs modèles sont intégrés aux systèmes de conduite.
Calendrier et étapes clés : Ce court rappel situe les échéances et priorités pour planifier la conformité selon les délais réglementaires. Les délais varient selon la catégorie de système et la présence ou non d’une évaluation par tiers.
- 6 mois pour interdictions spécifiques et systèmes proscrits
- 12 mois pour obligations liées aux modèles GPAI
- 24 mois pour systèmes listés à l’annexe III
- 36 mois pour systèmes relevant de l’annexe I
Échéance
Champ d’application
Action requise
6 mois
Systèmes interdits
Retrait du marché ou suppression des fonctionnalités prohibées
12 mois
GPAI
Documentation et résumé des données de formation publiés
24 mois
Annexe III
Conformité aux exigences de gestion des risques
36 mois
Annexe I
Évaluation de conformité par un organisme tiers
Rôle de l’Office AI et mécanismes de contrôle
Ce segment relie la gouvernance au contrôle concret exercé par l’Office AI et les autorités nationales. L’Office peut procéder à des évaluations, enquêter sur des risques systémiques et recevoir des plaintes des fournisseurs en aval. Selon des communiqués publics, l’Office veillera aussi à la coordination internationale et aux codes de bonnes pratiques.
« Notre entreprise a engagé un audit interne ciblé pour préparer la supervision de l’Office AI »
Sofia B.
GPAI, risques systémiques et obligations supplémentaires
Ce point relie les obligations générales aux risques spécifiques des modèles d’usage général intégrés aux systèmes de conduite. Les GPAI jugés systémiques entraînent des évaluations de modèles, des tests contradictoires et des rapports d’incidents. Les fournisseurs doivent également garantir un niveau de cybersécurité adapté et coopérer avec les fournisseurs en aval.
« L’exigence de tests contradictoires a renforcé notre rigueur méthodologique »
Lucas P.
Source : Future of Life Institute, 27 février 2024.