Easy to Read
Facebook Twitter Linkedin Youtube Instagram

Autisme et l’IA : Comprendre la nouvelle loi européenne sur l’IA

Le 15 octobre 2024, le Forum européen des personnes handicapées (FEPH) a organisé un webinaire consacré à l’impact de la loi européenne sur l’intelligence artificielle (IA) sur les personnes handicapées. Dans le cadre de ce webinaire, le FEPH a présenté une nouvelle boîte à outils conçue pour aider les organisations de personnes handicapées dans leur plaidoyer et à assurer le suivi de la mise en œuvre de cette loi au niveau national. Ce nouveau règlement de l’UE, entré en vigueur le 1er août 2024, classe les systèmes d’IA en fonction de leurs risques et impose diverses garanties. Les technologies de l’IA étant de plus en plus omniprésentes dans la vie quotidienne, leur réglementation est devenue indispensable, en particulier pour la communauté des personnes handicapées, car elle doit garantir l’accessibilité et la non-discrimination.

La loi européenne sur l’IA : guaranties et risques pour la communuaté de l’autisme

L’élément central de cette loi est la classification des systèmes d’IA en quatre catégories de risque : les systèmes d’IA interdits, à haut risque, à risque limité et à risque faible ou minimal. Les systèmes qui présentent un risque inacceptable pour les droits de l’homme sont purement et simplement interdits, tandis que les systèmes à haut risque, tels que ceux utilisés dans les domaines de l’emploi, de l’éducation et des soins de santé, sont soumis à des réglementations. Cela est particulièrement important pour les personnes autistes, qui peuvent être concernées par des décisions importantes émanant des systèmes d’IA de reconnaissance des émotions et susceptibles d’influencer leur vie. La loi souligne la nécessité pour ces systèmes à haut risque de se conformer aux normes d’accessibilité et de se soumettre à des tests de partialité.

Les participants au webinaire ont exprimé leurs préoccupations quant aux exceptions prévues par la loi sur l’IA pour les forces de l’ordre et les services d’immigration. Ces exceptions permettent aux autorités d’utiliser la reconnaissance faciale et d’autres outils d’IA, qui risquent de mal interpréter les comportements des personnes autistes, par exemple, l’évitement du contact visuel ou les différences dans les expressions faciales. Les systèmes d’IA utilisés par la police et les services d’immigration risquent donc de traiter injustement les personnes autistes.

Mise en œuvre de la loi européenne sur l’IA : la boite à outils du FEPH

La boîte à outils du FEPH sert de guide pratique aux organisations pour influencer la mise en œuvre nationale du règlement de l’UE sur l’IA qui entrera en vigueur en plusieurs étapes. La première étape est prévue pour février 2025 tandis que le règlement complet sera applicable en août 2026.

La boite-à-outil explique comment les organisations peuvent participer au processus national de mise en œuvre, surveiller l’utilisation des systèmes d’IA et plaider en faveur de garanties plus solides. Les principales recommandations portent sur l’apport d’un retour d’information lors des consultations publiques et sur le dialogue avec les autorités nationales pour s’assurer que les systèmes d’IA répondent aux besoins des personnes autistes.

Une caractéristique essentielle de la loi sur l’IA est le droit à l’explication, qui permet aux personnes concernées par des décisions résultant d’un système d’IA à haut risque de comprendre la façon dont ces décisions ont été prises. Les organisations de l’autisme peuvent jouer un rôle crucial en sensibilisant à ce droit et en aidant les personnes autistes à l’exercer.

Plaidoyer et collaboration sur le plan national

Les systèmes généraux d’IA seront largement réglementés par les politiques de l’UE, mais ils seront également soumis à des codes de conduite. Les organisations nationales de personnes handicapées peuvent participer à l’élaboration de ces codes de conduite. Pour ce faire, elles peuvent contacter le ministère responsable de l’élaboration du code de conduite national, ainsi que les organisations de consommateurs et de défense des droits numériques de leur pays.

Le webinaire a également souligné l’importance, pour les organisations de personnes handicapées, de se mettre en relation avec les « autorités de surveillance du marché », qui seront responsables de l’application de la loi sur l’IA au niveau national. Ces autorités devront veiller à ce que les systèmes d’IA respectent les exigences en matière d’accessibilité et de partialité. Il est donc essentiel que les organisations de l’autisme établissent des relations étroites avec elles et déposent, par exemple, des plaintes en cas de violation de la loi. Il appartient aux États membres de confier ce rôle à une autorité existante ou d’en créer une.

Il convient également de tenir compte de l’article 77 de la loi qui accorde aux autorités et organismes nationaux chargés de la protection des droits fondamentaux un droit d’accès à la documentation produite en vertu de la loi sur l’IA, lorsque ces informations sont pertinentes dans le cadre de leur mandat. Les États membres doivent publier une liste de leurs autorités ou organismes respectifs compétents d’ici le 2 novembre 2024. 

La voie à suivre

La boîte à outils développée par le FEPH sera régulièrement mise à jour au fur et à mesure de la publication de nouvelles lignes directrices de l’UE. C’est grâce à notre implication dans les processus législatifs, à la surveillance des systèmes d’IA et à la création d’alliances que nous pourrons nous assurer que les technologies d’IA favorisent l’inclusion et respectent les droits des personnes autistes. Alors que l’IA s’intègre de plus en plus dans des domaines clés de la vie, l’implication active des organisations de l’autisme sera essentielle pour façonner un avenir juste et accessible à tous.

Lien vers la boite à outils du FEPH  

Compte-rendu du webinair du FEPH

Further, the European AI & Society Fund has launched two funding calls for non-profits. The first focuses on implementing the AI Act in EU countries or at the EU level, with a deadline of 10th November 2024. The second targets AI system accountability through testing or auditing to ensure fairness.