principes pour ne pas automatiser l’injustice – IA3

Je poursuis ma quête autour de l’IA, la responsabilité publique, la gestion et la protection des données personnelles, la transparence et l’accès aux données, les gouvernements ouverts (GO)  et la participation des organisations de la société civile (OSC) à la définition et à la surveillance des GO. Un centre d’intérêt particulièrement dynamique en ce moment.

Délaissant momentanément Twitter comme source d’information je suis retourné à la lecture des quelques 150 fils RSS issus de blogues et magazines que je consulte pour l’essentiel avec Feedly.

Clément Laberge, dont Intelligence artificielle et services publics, publié il 5 jours, m’apprend que de nouveaux textes ont été déposés dans le répertoire thématique de l’IRPP auquel je référais il y a peu, dont un par Jean-Noé Landry, AI in government: for whom, by whom? Clément pointe aussi vers le même document mis en discussion par le Conseil du Trésor du Canada : Responsible Artificial Intelligence in the Government of Canada, en soulignant l’intérêt de la section Policy, Ethical, and Legal Considerations of AI. En effet c’est là que Michael Karlin, premier auteur du document, résume en 7 principes ses considérations éthiques et politiques (traduction de Google, presque seul) :

  1. Les humains (people) devraient toujours être gouvernés – et percevoir être gouvernés – par des humains;
  2. Les systèmes d’IA déployés pour le compte du gouvernement devraient être formés pour refléter les valeurs et l’éthique du secteur public ainsi que les obligations canadiennes et internationales en matière de droits de la personne; ils devraient être utilisés pour renforcer ces valeurs dans la mesure du possible;
  3. Les organisations sont responsables des actions des systèmes d’IA et doivent mettre en place des systèmes vérifiables;
  4. Comprenant la nécessité de protéger la vie privée et la sécurité nationale, les systèmes d’IA devraient être déployés de la manière la plus transparente possible;
  5. Les organisations doivent veiller à ce que des mesures d’urgence fiables soient prises en cas de défaillance des systèmes d’IA ou pour fournir des services à ceux qui ne peuvent pas accéder à ces systèmes.
  6. Les systèmes d’IA devraient être développés dans une équipe diversifiée comprenant des individus capables d’évaluer les implications éthiques et socio-économiques du système;
  7. Les systèmes d’IA doivent être déployés de manière à minimiser l’impact négatif sur les employés lorsque cela est possible, et devraient, dans la mesure du possible, être créés aux côtés des employés qui travailleront avec eux.

Les commentaires faits par les lecteurs du billet de Laberge sont intéressants en réponse à sa question « Existe-il un répertoire des décisions qui sont prises, par l’administration québécoise, sur la base d’un procédé algorithmique ? » (À lire, de Hubert Guillaud L’austérité est un algorithme)

Dans le même ordre d’idées, publié par Nesta (21/02/18), reproduit (traduit) par InternetActu, et présenté par Hubert Guillaud, Principes pour la prise de décision algorithmique du secteur public. Ici les 10 principes émis par l’organisme britannique :

  1. Tout algorithme utilisé par une organisation du secteur public devrait être accompagnée d’une description de ses fonctions, objectifs et impacts attendus, mis à disposition de ceux qui l’utilisent.
  2. Les organisations du secteur public devraient publier les détails décrivant les données avec lesquels l’algorithme a été entraîné et les hypothèses utilisées à sa création ainsi qu’une évaluation des risques pour atténuer ses biais potentiels.
  3. Les algorithmes devraient être catégorisés sur une échelle de risque (de 1 à 5) pour distinguer leur impact sur les individus.
  4. La liste de toutes les données d’entrées utilisées par l’algorithme pour prendre une décision devrait être publiée.
  5. Les citoyens doivent être informés lorsque leur traitement a été en partie ou entièrement décidé par un algorithme.
  6. Tout algorithme doit être disponible en version de test, afin que les auditeurs puissent tester leur impact (et confirmer qu’il fait ce qu’il prétend notamment pour ceux qui ne peuvent pas être ouverts par défaut).
  7. Lorsque les services publics ont recours à des tiers pour créer ou exécuter des algorithmes en leur nom, ils devraient s’assurer que ces tiers respectent ces principes.
  8. Une personne de la direction doit être tenue responsable de toute mesure prise à la suite d’une décision algorithmique.
  9. Les organisations du secteur public qui souhaitent adopter des procédures de prise de décision algorithmique à haut risque devraient souscrire une assurance capable d’offrir des compensations aux personnes négativement touchées par une décision algorithmique erronée.
  10. Les organisations du secteur public devraient s’engager à évaluer l’impact de leurs algorithmes et à publier les résultats de ces études.

Ce même Hubert Guillaud (et son magazine InternetActu.net) publiait récemment  Pourquoi mes données personnelles ne peuvent pas être à vendre ! (06/02/18); et aussi :

Sur la question de la vente de ses données personnelles : Revendre ses données « personnelles », la fausse bonne idée

Still digging… 

Laisser un commentaire

Qu'en pensez vous ?