Easy to Read
Facebook Twitter Linkedin Youtube Instagram

Vers une gouvernance inclusive de l’IA : la boîte à outils du FEPH pour la mise en œuvre du règlement européen sur l’IA

Le 28 octobre 2025, le Forum européen des personnes handicapées (FEPH) a organisé un événement en ligne afin de présenter la version actualisée de sa boîte à outils pour la mise en œuvre du règlement européen sur l’intelligence artificielle (AI Act). Cette session s’est tenue à un moment charnière, alors que l’AI Act passe de sa phase législative à sa phase de mise en œuvre. Pour les défenseurs des droits des personnes autistes et handicapées, les prochains mois seront déterminants pour garantir que les promesses entourant l’Acte en matière d’équité, d’accessibilité et de transparence se traduisent concrètement dans la pratique.

Le règlement européen sur l’intelligence artificielle (AI Act) est officiellement entré en vigueur le 1er août 2024, établissant le premier cadre global au monde visant à réguler l’intelligence artificielle en fonction des niveaux de risque. Sa mise en œuvre se fera par étapes, avec une première série de dispositions applicables depuis février 2025. Celles-ci incluent l’interdiction de certains systèmes d’IA « prohibés », tels que ceux impliquant une manipulation nuisible, le scoring social (système de notation des comportements) ou l’exploitation de vulnérabilités. Au 2 août 2025, les États membres avaient désigné leurs autorités nationales responsables de la mise en œuvre, notamment les agences de surveillance des marchés ainsi que les organismes chargés de l’égalité ou des droits humains conformément à l’article 77. La liste des points de contact uniques de chaque État membre est disponible sur le site de la Commission européenne : Market Surveillance Authorities under the AI Act. Le règlement deviendra pleinement applicable en août 2026, à l’exception de certaines dispositions, notamment celles relatives aux systèmes d’IA à haut risque intégrés dans des produits réglementés, qui bénéficient désormais d’une période de transition prolongée jusqu’au 2 août 2027.

Renforcer l’engagement national grâce à la boîte à outils actualisée

Ces étapes clés définissent le calendrier permettant aux organisations à travers l’Europe d’influencer les processus nationaux et de garantir que la perspective du handicap soit prise en compte dans l’application de la loi. La boîte à outils actualisée du FEPH (voir le lien ci-dessous) est conçue précisément à cette fin : fournir à la société civile les informations et les ressources nécessaires pour s’engager efficacement au niveau national. Cette nouvelle version s’appuie sur l’édition 2024, et vient enrichir les sections consacrées à la gouvernance, au suivi et au plaidoyer. Elle propose des explications pratiques sur la manière dont les systèmes d’IA sont classés par niveau de risque dans la législation, et sur la façon dont les organisations représentatives du handicap peuvent participer aux consultations, apporter leur expertise et signaler les cas de non-conformité. Cette mise à jour répond aux lignes directrices publiées par la Commission européenne concernant la législation.

Un ajout important concerne les responsabilités des autorités nationales. La boîte à outils explique le rôle des autorités de surveillance des marchés, chargées de contrôler la conformité et de mener des enquêtes, ainsi que celui des organismes pour l’égalité, qui peuvent apporter une expertise en matière de droits humains et exiger des documents lorsque les droits fondamentaux sont en jeu. Un autre ajout décrit la manière dont les organisations peuvent déposer des plaintes lorsque les systèmes d’IA ne respectent pas les exigences en matière d’accessibilité ou de tests de biais.

A National Model: CERMI’s Comprehensive AI Governance Strategy

Lors du webinaire, la présentation du CERMI – l’organisation faîtière espagnole des personnes handicapées – a mis en avant un modèle de plaidoyer national structuré, centré sur le développement d’une stratégie globale de gouvernance de l’IA pour le secteur du handicap. Le CERMI a détaillé un cadre pluriannuel qui associe gouvernance, gestion des risques, conformité réglementaire et culture numérique autour de l’IA, avec l’ambition de garantir qu’à l’horizon 2026 tous les systèmes utilisés répondent aux exigences légales et aux standards éthiques. Cette approche comprend le renforcement des capacités internes pour comprendre les impacts de l’IA, l’établissement d’un inventaire des systèmes d’IA utilisés, le lancement de projets pilotes d’IA responsable soutenant un plaidoyer fondé sur les droits, ainsi que le positionnement de l’organisation comme acteur de premier plan dans l’élaboration de politiques numériques inclusives au niveau national.

Mise en œuvre de l’Acte pour les personnes autistes

Pour les personnes autistes, les enjeux sont particulièrement importants. Les systèmes d’IA influencent de plus en plus les décisions en matière d’éducation, d’emploi, de santé et de services sociaux — des domaines où les biais ou les incompréhensions peuvent entraîner de lourdes conséquences. Les outils de reconnaissance des émotions et d’analyse comportementale, par exemple, peuvent mal interpréter la communication ou les interactions sociales des personnes autistes, entraînant des jugements erronés voire l’exclusion. Les garanties prévues par l’AI Act en matière d’accessibilité, de transparence et de tests de biais sont donc essentielles pour protéger contre la discrimination et promouvoir une conception inclusive. La boîte à outils offre aux organisations représentatives de l’autisme et du handicap un moyen concret de surveiller ces systèmes et de plaider pour une gouvernance de l’IA plus équitable.

L’évolution du paysage européen de la politique numérique

Le webinaire a également abordé le contexte politique difficile dans lequel s’inscrit la mise en œuvre de l’AI Act. Blue Tiyavorabun, représentant d’European Digital Rights (EDRi), a insisté sur la poussée croissante en faveur de la « compétitivité et simplification », un langage qui masque bien souvent des politiques de dérégulation.

Attendu pour novembre 2025, le futur paquet législatif « Digital Omnibus » de la Commission européenne illustre une tendance plus générale de recul ou de report des garanties en matière de droits humains dans la régulation numérique. Comme le met en évidence une analyse récente de Tech Policy Press (« EU Set the Global Standard on Privacy and AI – Now It’s Pulling Back »), la réputation de l’Europe en tant que leader mondial de la régulation numérique fondée sur les droits est menacée d’érosion sous la pression croissante de l’industrie et des évolutions politiques. Ces développements pourraient affecter non seulement l’AI Act mais aussi d’autres cadres législatifs majeurs tels que le RGPD, le règlement ePrivacy et les initiatives plus larges de gouvernance des données.

Dans ce contexte, le FEPH a appelé à maintenir une vigilance constante et à renforcer la coopération intersectorielle. Les organisations de personnes handicapées ont été invitées à nouer rapidement des liens avec leurs autorités nationales chargées de l’application de l’AI Act et avec les organismes pour l’égalité, à prendre part aux consultations nationales et à travailler en partenariat avec les associations de consommateurs et les groupes de défense des droits numériques.

Plaidoyer dans cette nouvelle phase

Pour la communauté autiste, cette étape de l’AI Act représente à la fois des défis et des opportunités. Le règlement établit des précédents importants en matière d’accessibilité et d’équité, mais son impact dépendra de la rigueur avec laquelle ces normes seront appliquées. Autisme-Europe et ses membres peuvent jouer un rôle essentiel en apportant leur expertise, en suivant les évolutions nationales et en sensibilisant aux droits tels que le « droit à l’explication » pour les personnes concernées par des décisions prises par des systèmes d’IA à haut risque.

Cet article s’inscrit dans la continuité de la couverture qu’Autisme-Europe consacre aux politiques relatives à l’IA et au handicap. Les lecteurs peuvent consulter notre précédent dossier Autisme et l’IA : Comprendre la nouvelle loi européenne sur l’IA (octobre 2024), disponible ici, qui présentait l’AI Act et la première édition de la boîte à outils du FEPH.

À mesure que la phase de mise en œuvre se déploie, l’engagement actif de la communauté des personnes handicapées sera essentiel pour déterminer la manière dont l’IA sert — ou nuit — aux personnes dans toute l’Union européenne. Grâce à la version mise à jour de la boîte à outils du FEPH et grâce à une forte action de plaidoyer aux niveaux national et européen, les organisations de représentation de l’autisme et du handicap pourront jouer un rôle clé pour que l’avenir de l’IA en Europe soit inclusif, transparent et ancré dans les droits humains.

Lien vers la boîte à outils du FEPH