jeu. Avr 25th, 2024
À l’avenir, il devrait être possible de se plaindre de l’IA dans l’UE
Rate this post

« C’est le première réglementation légale de l’IAqui se négocie dans le monde entier », déclare le secrétaire d’État à la Numérisation Florian Tursky à propos du «Loi sur l’IA« . Depuis 2021, les institutions de l’UE travaillent sur ce cadre juridique, qui vise à réglementer précisément l’utilisation de l’intelligence artificielle. Mardi prochain, le Conseil européen veut révéler l’orientation générale du règlement sur l’IA.

L’UE veut jouer un rôle de pionnier

L’UE s’attend à un gros coup de la loi sur l’IA, car: l’Europe veut – comme pour le règlement général sur la protection des données – un créer des normes mondiales. Les précédents projets de loi sur l’IA ont été critiqués, entre autres, parce qu’ils donnaient trop peu de poids aux citoyens contre les entreprises qui travaillent avec l’IA et prévoyaient diverses exceptions. La version actuelle contient des améliorations ici.

Inacceptable et donc interdit

En principe, la proposition de règlement poursuit une Approche fondée sur le risque. Les applications d’IA se répartissent en quatre catégories : risque minimal, risque faible, risque élevé et risque inacceptable. La manipulation subliminale par l’IA, l’exploitation des vulnérabilités de groupes spécifiques de personnes (par exemple les enfants) ou la Identification à distance en temps réel. Cela signifie, par exemple, une surveillance de masse grâce à la reconnaissance faciale. Cependant, des caméras à reconnaissance faciale peuvent être utilisées pour rechercher des personnes qui encourent une peine de plus de trois ans. est totalement interdit »notation sociale« , comme cela se passe en Chine, c’est-à-dire la classification d’une personne basée sur des facteurs politiquement déterminés.

Voir aussi  Le Pentagone arrête un F-35 parce qu'une partie chinoise a été trouvée

L'UE classe l'IA dans différentes classes de risque et réglemente chacune d'entre elles à des degrés différents

Dans la loi sur l’IA, l’UE classe l’IA dans différentes classes de risque et réglemente chacune d’entre elles à des degrés différents

Des exigences élevées pour un risque élevé

Dans la catégorie à haut risque se trouvent les évaluations de la solvabilité de l’IA, la sélection du personnel ou l’IA contrôlant les infrastructures critiques. Autre nouveauté, les compagnies d’assurance laissent les offres et les tarifs pour des clients spécifiques à une IA. Ici, la loi sur l’IA prévoit des exigences très élevées qui doivent être respectées par les gouvernements et les entreprises afin de ne pas discriminer ou mettre en danger qui que ce soit.

De tels systèmes d’IA doivent être sous surveillance humaine. Vos actions sont soumises à des exigences de documentation et de conservation, le sous-jacent Les algorithmes doivent être divulgués et contrôlés avant leur mise sur le marché.

Le faible risque comprend des éléments tels que les recommandations automatiques lors des achats en ligne. Ici au moins il y a obligation de transparence. Une entreprise doit donc divulguer comment son IA prend certaines décisions.

Les exceptions ne doivent pas devenir incontrôlables

Selon les versions précédentes de l’ordonnance, il devrait y avoir des exceptions pour certaines applications, notamment lorsqu’il s’agit de préoccupations de sécurité nationale se rend. Les critiques craignaient que cela ne permette des choses de porte dérobée qui seraient autrement très risquées ou inacceptables. Par exemple, des régimes autoritaires pourraient introduire une surveillance de masse et simplement invoquer la sécurité nationale. Toutefois, le Parlement européen s’est fermement engagé à veiller à ce que Les exceptions ne deviennent pas incontrôlablesassure Tursky.

Voir aussi  Le Japon laisse voler un vaisseau spatial avec de la vapeur d'eau

soutien aux victimes

Ceux qui se sentent injustement traités par l’IA pourront le faire à l’avenir se plaindre. La loi IA soutient ici la position des victimes en facilitant la charge de la preuve et en obligeant les entreprises à fournir des preuves. Aussi, il y en a un responsabilité sans faute. Exemple : Un haut-parleur intelligent fait aux utilisateurs une suggestion dangereuse pour la santé, comme brancher un objet métallique dans une prise. Dans ce cas, le fabricant est responsable et les victimes ont droit à une indemnisation.

Application probable à partir de 2025

Dans l’ensemble, les experts techniques des États membres du Conseil de l’UE auraient essayé d’en trouver un bon solde entre un environnement innovant et le respect de droits fondamentaux trouver. Le règlement sur l’IA devrait former un acte juridique allégé, tandis que de nombreux détails doivent être clarifiés à l’avenir grâce à des droits de mise en œuvre supplémentaires. Selon Tursky, un cadre juridique à l’échelle européenne crée « à la fois la sécurité de règles claires pour les développeurs et la sécurité de l’interaction avec une application d’IA sécurisée et fiable pour les utilisateurs finaux ».

Le Conseil de l’UE présente la version actuelle de la loi sur l’IA au Parlement européen. En 2023, la Commission, le Conseil et le Parlement doivent parvenir à une version finale lors d’un « trilogue », qui sera ensuite adopté en 2024 et attendu mise en œuvre à partir de 2025 doit être.