AI Act : Des interdictions encore floues à quelques mois de leur application

L’AI Act, nouveau cadre réglementaire de l’Union européenne pour l’intelligence artificielle, promet de transformer l’usage de cette technologie dans l’Espace économique européen (EEE). Parmi ses dispositions phares, les interdictions des systèmes à « risque inacceptable » suscitent de nombreuses interrogations, notamment en raison de l’absence de lignes directrices précises. À moins de deux mois de leur entrée en vigueur, la Commission européenne est appelée à agir rapidement pour clarifier ces mesures et recueillir des contributions significatives des parties prenantes.

Des interdictions ambitieuses mais ambiguës

Le 2 février prochain, l’AI Act interdira plusieurs usages de l’intelligence artificielle jugés contraires aux valeurs européennes, tels que :

  • La détection des émotions,
  • L’identification biométrique en temps réel,
  • Les systèmes de notation sociale.

Cependant, ces interdictions, bien qu’ambitieuses, sont entachées d’imprécisions. Par exemple, la reconnaissance des émotions est interdite dans les environnements éducatifs et professionnels, mais pas pour les forces de l’ordre ou l’immigration. De telles exemptions soulèvent des inquiétudes quant à leur cohérence et leur efficacité.

« Ces lacunes rendent les interdictions difficiles à appliquer et ouvrent la voie à des contournements », déplore Daniel Leufer, conseiller politique pour AccessNow.

Une consultation publique tardive et peu détaillée

La Commission européenne a récemment ouvert une consultation publique, invitant les parties prenantes à partager leurs retours d’expérience et à fournir des exemples de systèmes d’IA concernés par les interdictions. Cette consultation, qui se clôturera le 11 décembre, intervient cependant tardivement, laissant peu de temps pour intégrer les retours dans les lignes directrices attendues avant février.

Des experts pointent également le faible niveau de détail de la consultation. Laura Lázaro Cabrera, du Centre pour la démocratie et la technologie, regrette une approche qui limite la pertinence des contributions :
« Plus les lignes directrices seront détaillées, plus les parties prenantes pourront fournir un retour d’information utile. »

L’enjeu d’une mise en œuvre lisible et équitable

Les lignes directrices de la Commission européenne seront déterminantes pour assurer une application claire et cohérente de l’AI Act. Pourtant, elles pourraient également aggraver les ambiguïtés si elles ne parviennent pas à combler les lacunes existantes. Certains acteurs, comme Marco Leto Barone du Conseil de l’industrie des technologies de l’information, appellent à une approche équilibrée qui protège les usages bénéfiques de l’IA tout en encadrant ses risques.

Du côté des organisations de la société civile, l’affaiblissement des interdictions pourrait compromettre l’ensemble du cadre de régulation. Si les interdictions deviennent floues ou inapplicables, la hiérarchie des risques définie par l’AI Act pourrait perdre de sa crédibilité.

Une double pression : interdictions et code de bonnes pratiques

En parallèle des interdictions, l’Union européenne s’attèle à développer un code de bonnes pratiques pour les modèles d’IA à usage général, tels que ChatGPT. Ce code suscite une grande attention internationale, mais il pourrait détourner les efforts de la Commission des interdictions, qui restent pourtant une composante essentielle du règlement.

« Le monde entier regarde l’Europe et son code de bonnes pratiques, mais cela ne doit pas se faire au détriment d’une mise en œuvre robuste des interdictions », prévient Brando Benifei, eurodéputé et rapporteur de l’AI Act.


Plugin WordPress Cookie par Real Cookie Banner