Dans
une lettre
adressée au Congrès américain ce 8 juin, le CEO de la multinationale IBM, Arvind
Krishna, a annoncé mettre fin à son activité de reconnaissance faciale.
Utiliser la technologie pour plus de
transparence et responsabilité
"IBM s'oppose fermement et ne tolérera pas
l'utilisation de toute technologie [de reconnaissance faciale], y compris
celles proposées par d'autres fournisseurs, pour la surveillance de masse, le
profilage racial, les violations des droits de l'homme et des libertés
fondamentales, ou pour tout autre objectif qui ne serait pas conforme à nos
valeurs et à nos principes de confiance et de transparence", a annoncé
M. Krishna dans sa lettre.
"Nous pensons qu'il est temps d'entamer un
dialogue national sur la question de savoir si et comment la technologie de
reconnaissance faciale doit être utilisée par les services répressifs nationaux".
Le
CEO d’IBM propose trois sujets sur lesquels l’entreprise souhaiterait
travailler avec le Congrès : la réforme de la police, l’usage responsable
de la technologie et l’élargissement des compétences et opportunités dans le
domaine de l’’éducation.
Selon
l’entreprise, l’intelligence artificielle est un outil puissant pouvant aider les
forces de l’ordre à assurer la sécurité des citoyens. Mais, les vendeurs et
utilisateurs des systèmes d’IA ont une responsabilité partagée : les
systèmes doivent être testés et audités, surtout lorsqu’ils sont utilisés en l’application de la loi.
Arvind
Krishna souhaite donc que la politique nationale encourage l’usage de la
technologie pour lutter contre les problèmes de discriminations, soit lutter
contre le racisme institutionnalisé et les violences policières. En démocratisant
le port de caméras mobiles par les agents de police et le développement d’outils
d’analyses de données, IBM entend utiliser la technologie pour aller vers plus
de transparence et de responsabilité dans le maintien de l’ordre.
Une position critiquée
Cependant,
cette position d’IBM est loin de faire l’unanimité du côté de la société civile.
Neema Singh Guliani, de l'association American
Civil Liberties Union (ACLU) connue pour interpeler les multinationales s’est
exprimée sur le sujet à la suite des mesures de réforme de la police proposées au
Congrès.
Elle
affirme que la reconnaissance faciale ne devrait pas être intégrée dans les
caméras mobiles portées par les agents de police car elles sont destinées
à « être des outils de
responsabilisation et non de surveillance policière ».
Préconisant
elle aussi le développement de la technologie, elle souhaite au contraire que
ces investissements puissent contribuer à « éliminer la fracture numérique » et non à créer une infrastructure
de surveillance « qui exacerbe les
abus policiers et le racisme structurel ».
Il
faut garder en tête qu’IBM est une entreprise, et qu’il est donc dans son
intérêt économique de continuer à démocratiser et vendre ses outils
technologiques malgré les critiques liées au fonctionnement de la
reconnaissance faciale et notamment de ses propres outils.
En
effet, en février 2018 à la suite d’une étude
de Joy Buolamwini, du MIT Media Lab et de Timnit Gebru, les chercheurs ont
constaté que le taux d’erreur de l’entreprise dans l’identification du genre des
femmes à la peau plus foncée était de 35% alors qu’il ne l’était que de 1% pour
les hommes blancs. Loin d’être la seule entreprise affichée dans cette étude –
Microsoft étant aussi pointée du doigt - IMB avait répondu que l’entreprise
allait s’améliorer à ce sujet.
Malheureusement,
il y a encore et toujours des discriminations liées à l’usage de la
reconnaissance faciale et des détournements de son utilisation pour la
surveillance de masse.
Aucun commentaire:
Enregistrer un commentaire