L'intelligence artificielle aux frontières de l'UE (Parlement européen)

Ce document donne un aperçu des initiatives de l'UE quant au développement et au déploiement des technologies d'intelligence artificielle (IA) pour améliorer le contrôle et la sécurité des frontières.

L'UE et ses États membres se tournent de plus en plus vers les technologies de l'intelligence artificielle (IA) dans leurs efforts pour renforcer le contrôle aux frontières et atténuer les risques de sécurité liés au terrorisme transfrontalier et à la grande criminalité.

Ce document identifie et analyse quatre principaux types d'applications d'IA que l'UE utilise ou envisage d'utiliser dans le contexte du contrôle et de la sécurité des frontières : 1) identification biométrique (reconnaissance automatisée des empreintes digitales et des visages) ; 2) détection des émotions ; 3) évaluation algorithmique des risques ; et 4) des outils d'intelligence artificielle pour le suivi, l'analyse et la prévision des migrations.

Il y a des avantages évidents à tirer d'une adoption prudente des technologies d'intelligence artificielle dans le contexte du contrôle aux frontières, comme une capacité accrue à détecter les fraudes et les abus, un accès meilleur et en temps opportun aux informations pertinentes pour la prise de décisions et une protection renforcée des personnes vulnérables. Cependant, ces avantages doivent être mis en balance avec les risques importants posés par ces technologies pour les droits fondamentaux.

Les technologies de reconnaissance faciale font l'objet d'une surveillance accrue en raison de préoccupations concernant les droits fondamentaux, en particulier les risques liés aux préjugés et à la discrimination, la protection des données et la surveillance de masse. Alors qu'une grande attention a été accordée à la question des préjugés et de la discrimination, il convient de noter que même des systèmes d'IA précis et impartiaux peuvent présenter d'autres risques importants, notamment pour la protection des données et la vie privée. L'utilisation accrue de données biométriques dans les systèmes d'information de l'UE amplifie le risque de profilage illégal (par exemple, les images faciales peuvent révéler l'origine ethnique). Même lorsque le profilage n'est pas basé sur des données biométriques ou personnelles, d'autres types de données ou des combinaisons de celles-ci utilisées pour le profilage algorithmique peuvent conduire à une discrimination fondée sur des motifs interdits. Les garanties existantes, telles que la sauvegarde de l'humain dans la boucle (nécessitant une interaction humaine) et le droit à l'explication peuvent ne pas être suffisantes pour faire face à ces risques.

Pour plus d'informations, veuillez lire (en anglais) le document complet du Service de recherche du Parlement européen joint ci-dessus.

Publication Date:
jeu 01 juil 2021
Géographie:
Thème principal:
Type de Publication:
Mots-clés: