Gilles en vrac… depuis 2002

IA n’est pas conscience

On parle beaucoup, de plus en plus de l’intelligence artificielle (IA). Surtout depuis que Montréal est reconnue comme centre international de recherche en la matière. Même Juan-Luis Klein en parlait dans sa conférence de clôture du colloque sur le développement des collectivités de décembre dernier.

La crise… la quatrième révolution industrielle et l’IA transforment nos modèles d’action. Il faut réagir, se donner les outils pour le défier et transformer ce contexte. Il faut développer une alternative et pas juste refuser le modèle dominant. Refabriquer le rapport de la société au territoire pour fabriquer des communautés. (conférence sur Youtube)

L’AIIA organisait, en janvier dernier, un colloque de deux jours sur IA en mission sociale, auquel j’ai participé avec intérêt (intelligence artificielle et finalités sociales). Mais les principes d’équité ou l’éthique ne semblent pas les premières préoccupations lorsque les gouvernements investissent pour soutenir le développement du secteur. C’est d’abord en termes de performance et compétitivité que les programmes sont définis.

Avec l’annonce récente du fédéral (15 février 2018) d’un financement milliardaire (950M$  pour les 5 grappes) qui « misera sur l’intelligence artificielle et la robotique afin de faire du Canada un chef de file mondial de la numérisation des chaînes d’approvisionnement industrielles » on ne semble pas s’orienter particulièrement vers la mission sociale ou la mesure de l’impact social des entreprises… On précise plutôt que l’objectif est d’accroître les revenus et la performance de ces entreprises. On comprend qu’il s’agit de la performance économique. (extrait du billet IA et finalités sociales)

Cet engouement pour l’IA n’est pas qu’un effet de mode ou de fierté devant la réussite d’un secteur économique, d’une grappe locale. Il y a vraiment des choses qui se passent et qui s’en viennent. Les grands du numérique investissent dans l’IA, ce qui veut dire dans l’IA en santé (Cherchez et vous trouverez. L’évangile médical selon Google.) et l’IA en aménagement urbain (Values-based AI and the new smart cities).

Si les informations recueillies déjà par Google pouvaient être couplées à celles de votre dossier médical… ce serait très… efficace ? payant ? Pour qui ? Nous ne pourrons nous défendre contre de telles entreprises uniquement en renforçant les exigences de « consentement éclairé » personnel. Il faut repenser les questions de protection et de propriété des données personnelles. Certains proposent même de verser ces données dans le « domaine public » (Evgeny Morozov et le « domaine public » des données personnelles). Autrement dit, les données recueillies par Google ou Apple seraient versées au domaine public et rendues accessibles aux autres. C’est en payant une redevance que les entreprises pourraient ensuite les utiliser… Dans un long article, Lionel Maurel et Laura Aufrère (Pour une protection sociale des données personnelles) proposent de recadrer la protection de la vie privée et des renseignements personnels comme une « protection sociale » qui doit faire l’objet d’une négociation, d’une convention impliquant les travailleurs et usagers. Ce sont des questions trop importantes pour les laisser à la seule discrétion des individus isolés devant leur écran… ou plutôt bienficelés dans la plateforme (voir Plateform Capitalism) qui les relie au monde.

Comme disait Klein, « Il faut se donner les outils pour le défier et transformer ce contexte. » Il y a bien quelques associations et mouvements sur lesquels s’appuyer pour développer ces réflexions et batailles : réseau de la société civile pour un gouvernement ouvert, la Déclaration de Montréal pour une IA responsable, les mouvements pour des données ouvertes, des logiciels libres… Les universités, souvent soutenues par la grande entreprise, auront leurs centres et leurs échanges… Avons-nous des réseaux et outils pour la « société civile » ayant un minimum d’indépendance devant les centres privés et institutions publiques ? Il faudrait aux communautés locales, régionales et nationales des moyens pour se positionner, participer et se défendre parfois. Des courtiers de connaissances et de données, au service d’associations citoyennes ou de syndicats d’usagers et de travailleurs, pour connaitre, suivre l’évolution et négocier l’utilisation, les conditions de production des données et les usages et interprétations qui en seront faits.

Dans son document de travail, Responsible artificial intelligence in the Government of Canada, Michael Karlin décrit bien les limites dans lesquelles la question se pose aujourd’hui pour un gouvernement. Il souligne, avec raison devant la toute-puissance des machines imaginées par la science-fiction ou le cinéma, que l’utilisation faite ou envisageable de l’IA par un gouvernement est très étroite : en fonction d’une tâche bien précise. Il nous rappelle que l’IA n’est pas une personne, ni un être conscient, mais plutôt un logiciel. Et qu’on ne devrait pas reconnaître à ce logiciel une autonomie d’action qui aurait pour conséquence de réduire la responsabilité de l’entreprise ou du ministère qui l’utilise.

Billet d’abord publié sur le blogue du développement collectif Nous.blogue

Voir aussi billet précédent : licence de réciprocité et index social


Publié

par

Articles similaires (choisis par l’ordi) :

Commentaires

2 réponses à “IA n’est pas conscience”

  1. Deslauriers

    Bravo. Tu me fais réfléchir.

  2. Merci Jean-Pierre.

Qu'en pensez vous ?