L’intelligence artificielle, une menace « négative, voire catastrophique » pour les droits de l’homme, selon l’ONU

Par Katabella Roberts
20 septembre 2021
Mis à jour: 20 septembre 2021

Les Nations unies ont averti que les systèmes d’intelligence artificielle (IA) pouvaient constituer une menace « négative, voire catastrophique » pour les droits de l’homme et ont appelé à interdire les applications de l’IA irrespectueuses des droits de l’homme.

Le 15 septembre, le Haut-commissaire aux droits de l’homme de l’ONU, Michelle Bachelet, a exhorté les États membres d’interdire temporairement la vente et l’utilisation de l’IA jusqu’à ce que les risques potentiels qu’elle représente aient été traités et que des garanties adéquates aient été mises en place pour assurer son utilisation équitable.

« Nous ne pouvons pas nous permettre de continuer à combler du retard en ce qui concerne l’IA – en autorisant son utilisation avec des limites, une surveillance insuffisante ou inexistante, en gérant les conséquences presque inévitables sur les droits de l’homme après coup », a déclaré Mme Bachelet dans un communiqué.

« La capacité de l’IA à être utile aux gens est indéniable, mais le potentiel de l’IA à alimenter les violations des droits de l’homme à une échelle énorme et pratiquement sans visibilité l’est tout autant. Il faut agir maintenant pour mettre des garde-fous en matière de droits de l’homme sur l’utilisation de l’IA, pour le bien de tous », a-t-elle ajouté.

Ses remarques interviennent peu après la publication par son bureau d’un rapport analysant la manière dont l’IA affecte le droit à la vie privée des personnes, ainsi qu’une série d’autres droits concernant la santé, l’éducation, la liberté de circulation et la liberté d’expression, etc.

Le document comprend une évaluation du profilage, de la prise de décision automatisée et d’autres technologies d’apprentissage automatique.

Si le rapport note que l’IA peut être utilisée à bon escient et aider « les sociétés à surmonter certains des grands défis de notre époque », son utilisation comme outil de prévision et de profilage peut avoir un impact considérable sur « les droits à la vie privée, les procès équitables, la prévention d’arrestations ou de détentions arbitraires et le droit à la vie. »

Selon le rapport, de nombreux États et entreprises omettent souvent de faire les efforts de prudence nécessaires lorsqu’ils s’empressent d’intégrer des applications de l’IA. Dans certains cas, cela entraîne de dangereuses bévues, certaines personnes étant maltraitées, arrêtées, les logiciels de reconnaissance faciale s’avérant défectueux.

Dans le même temps, la reconnaissance faciale permet un suivi des individus sans limites, ce qui peut entraîner une série de problèmes de discrimination ou de protection des données.

Un robot IA (g) de CloudMinds est vu lors de la Mobile World Conference à Shanghai, le 27 juin 2018. (-/AFP/Getty Images)
Des visiteurs regardent un système de ville intelligente IA par iFLY lors de l’Exposition internationale de l’industrie du transport intelligent 2018 à Hangzhou, dans la province chinoise du Zhejiang (est), en décembre 2018. (STR/AFP/Getty Images)

Étant donné que de nombreux systèmes d’IA reposent sur de grands bases de données, d’autres questions apparaissent sur les risques d’un stockage à long terme, potentiellement exploité à l’avenir et représentant une menace pour la sécurité nationale.

« La complexité de l’environnement des données, des algorithmes et des modèles qui sous-tendent le développement et le fonctionnement des systèmes d’IA, ainsi que la confidentialité intentionnelle des acteurs gouvernementaux et privés sont des facteurs qui empêchent le public de saisir réellement les effets des systèmes d’IA sur les droits de l’homme et la société », indique le rapport.

Selon Tim Engelhardt, responsable des droits de l’homme au sein de la Section État de droit et démocratie, la situation est « désastreuse » et n’a fait qu’empirer au fil des ans, certains pays et entreprises adoptant des applications d’IA sans faire d’enquête sur les risques.

Bien qu’il se félicite de l’accord de l’UE visant à « renforcer les règles de contrôle », aucune solution aux nombreux problèmes entourant l’IA n’est attendue cette année. Les premières mesures pour résoudre ces problèmes doivent être prises maintenant ou « de nombreuses personnes dans le monde paieront un prix élevé ».

« Plus le risque pour les droits de l’homme est élevé, plus les exigences juridiques relatives à l’utilisation de la technologie de l’IA doivent être strictes », a ajouté Mme Bachelet.

Le rapport et les commentaires de Mme Bachelet font suite aux révélations du mois de juillet selon lesquelles un logiciel espion, connu sous le nom de Pegasus, a été utilisé pour pirater les smartphones de milliers de personnes dans le monde, dont des journalistes, des fonctionnaires et des militants des droits de l’homme.

Le téléphone du ministre français des Finances, Bruno Le Maire, n’est qu’un des nombreux parmi ceux qui ont fait l’objet d’une enquête dans le cadre du piratage par le logiciel espion développé par la société israélienne NSO Group.

La NSO Group a publié une déclaration dans différents médias, sans mentionner les allégations et assurant que la société « continuera à fournir aux services de renseignement et aux organismes d’application de la loi du monde entier des technologies vitales pour lutter contre le terrorisme et la criminalité ».

S’exprimant lors de l’audition du Conseil de l’Europe sur la controverse autour le logiciel espion Pegasus, Mme Bachelet a déclaré que les révélations n’étaient pas surprenantes, étant donné le « niveau sans précédent de surveillance dans le monde par des acteurs publics et privés ».

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide de l’État et n’appartenant à aucun groupe politique ou financier. Depuis le jour de notre création, nous faisons face à des attaques systématiques pour faire taire la vérité, notamment de la part du parti communiste chinois. C'est pourquoi nous comptons sur votre générosité pour défendre un journalisme indépendant, honnête et en bonne santé. Ensemble, nous pouvons continuer à faire connaître la vérité.

RECOMMANDÉ