Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
27 juin 2018 3 27 /06 /juin /2018 11:58

La Chambre sociale de la Cour de cassation vient d’annuler le 12 avril 2018 , à la demande de la direction du Crédit mutuel, une délibération du CHSCT de cette banque qui demandait une expertise indépendante sur une application d’intelligence artificielle qui devait être introduite auprès des chargés de clientèle et dont il considérait que sa mise en œuvre avait un impact important sur les conditions de travail des salariés.

Le lundi de Pentecôte, le gouvernement, à grand renfort de communication, a rendu public l’algorithme national de Parcoursup.

En cela, il ne faisait qu’enfin respecter la « loi pour une république numérique » de 2016 qui prescrit que sur toute décision administrative individuelle basée sur un algorithme, elle doit expressément communiquer les procédés du traitement et les principales caractéristiques de sa mise en œuvre à toute personne en faisant la requête.

Les administrations sont donc dans l’obligation de publier en ligne, dans un format lisible par tous leurs principaux documents, y compris les codes informatiques sources, la nature des données traitées et leurs origines, les paramètres de traitement et leur pondération, et les opérations effectuées3.

Or que le gouvernement n’a pas respecté la loi jusqu’au bout. Il a refusé de publier les paramé- trages et algorithme « locaux » qui sont en fait le véritable cœur nucléaire de Parcoursup, car c’est à partir d’eux que les universités sélectionnent leurs futurs étudiants.

Le gouvernement, pour justifier son viol de la loi, se retranche derrière le secret des délibérations alors qu’un algorithme est tout sauf délibératif. En effet, la délibération est le propre d’un collectif humain ; or un algorithme n’est pas un collectif et il ne prend ses décisions qu’à partir de règles préétablies ou d’un apprentissage pour l’intelligence artificielle. Il y a donc fort à parier que la censure par le gouvernement des algorithmes et paramétrages « locaux » sera attaquée à juste raison en justice.

La vérité est que derrière un paravent du mythe de la neutralité de la technologique, Parcoursup systématise et automatise une ségrégation territoriale au détriment des lycéennes et lycéens de banlieue.

Au nom du secret des affaires Aux États-Unis, le logiciel Compas « assiste » les juges pour décider de l’incarcération des suspects avant leur procès et pour évaluer leur risque récidive. Ce logiciel a été réalisé par une société privée qui au nom du secret des affaires refuse de rendre accessible son code source à qui que ce soit. Or une enquête menée par quatre journalistes d’investigation sur le parcours de plus de dix mille prisonniers a montré que la conception du logiciel était affectée d’un fort biais raciste : Les Noirs étaient systématiquement désignés comme potentiels récidivistes, car l’un des critères décisifs conditionnant le fonctionnement de l’algorithme était la couleur de peau.

Ces trois exemples, qui sont loin d’être uniques, montrent que le refus de l’opacité des systèmes informatiques, la demande d’auditabilité des algorithmes, pour en particulier ceux qui ont recours aux techniques d’intelligence artificielle, deviennent un enjeu de lutte sociale et politique. C’est pourquoi, alors que les entreprises se retranchent de plus en plus, derrière les lé- gislations préservant le « secret des affaires » ou « la propriété intellectuelle », il est nécessaire de mener la bataille pour que les recommandations énoncées dans le rapport de la CNIL : « Comment permettre à l’homme de garder la main ?  Les enjeux éthiques des algorithmes et de l’intelligence artificielle », aient un débouché législatif.

Ce qui donnerait les moyens légaux aux salariés sur les lieux de travail et aux citoyens dans la cité de reprendre le pouvoir sur des choix économiques, sociaux, et politiques qui sont camouflés derrière des choix technologiques. Il y a aussi besoin, par la loi, d’étendre le champ du compte pénibilité au domaine du numérique et de donner les moyens d’agir aux syndicats sur des situations nouvelles de travail dû à la numérisation des entreprises : obéissance exclusive aux instructions d’une machine, impossibilité de discuter avec ses collègues sans passer par une interface machine…

Car ce sont les salariés qui sont les plus à même d’apprécier ce que doit être leur travail et comment il doit être organisé. L’enjeu étant de savoir si on asservit le salarié au numérique et à la recherche à tout prix du profit maximum – c’est-à-dire le « waltstreet management » via le numérique –, ou si on travaille au contraire la complémentarité humain-machine dans le sens d’un travail émancipateur.

Derrière l’idée de l’État plateforme en vogue à Bercy et dans nombre de milieux libéraux, se cache un cercle vicieux : baisse des dépenses publiques hors remboursement de la dette, baisse des effectifs statutaires et recourt à l’externalisation, baisse de la qualité du service rendu, automatisation effectuée sans ou contre les agents, échec technologique comme le logiciel de paie Louvois dans les armées ou exclusion de nombreux ayants droit qui n’arrivent plus à faire valoir leur droit. C’est pourquoi toute numérisation d’un service public devrait impliquer en regard les moyens humains de médiation afin de permettre à chacun de faire valoir ses droits. Il n’y a pas de neutralité ou d’impartialité de l’algorithme car le comportement de celui-ci est dicté par la conception que leurs créateurs ont du monde et les objectifs qu’ils poursuivent.

Par exemple, on ne fait pas le même logiciel, on n’apprend pas à une intelligence artificielle de la même manière si l’objectif est de réduire les dépenses publiques ou si on recherche plus de justice sociale et un meilleur accès à ses droits pour toutes et tous. Face à la mutation anthropologique que représente la révolution numérique et l’intelligence artificielle, il y a nécessité d’ouvrir le débat politique sur la place de l’automatisation dans les décisions humaines. L’intelligence humaine est faillible, sujette à la fatigue, à l’inattention, affectée de biais cognitifs et de névroses. Les intelligences artificielles sont limitées, dépendantes de la qualité et des hypothèses qui fondent leurs apprentissages. Elles sont dépourvues de sens commun et de réelles capacités créatives .

C’est pourquoi la question n’est pas de substituer l’intelligence artificielle à l’intelligence humaine, ni d’asservir l’humain aux choix préconisés par l’intelligence artificielle, mais au contraire de travailler à un couple vertueux entre les deux intelligences. Mais cela suppose de changer radicalement les modes de production, y compris dans leur dimension institutionnelle et culturelle. 

Yann Le Pollotec - 

animateur de la Commission Industrie-Révolution Numérique du PCF

Yann Le Pollotec en conférence des Mardi de l'éducation populaire sur les enjeux de la Révolution numérique à Morlaix le 12 juin 2018, invité par la section du PCF

Yann Le Pollotec en conférence des Mardi de l'éducation populaire sur les enjeux de la Révolution numérique à Morlaix le 12 juin 2018, invité par la section du PCF

Partager cet article

Repost0

commentaires

Présentation

  • : Le chiffon rouge - PCF Morlaix/Montroulez
  • : Favoriser l'expression des idées de transformation sociale du parti communiste. Entretenir la mémoire des débats et des luttes de la gauche sociale. Communiquer avec les habitants de la région de Morlaix.
  • Contact

Visites

Compteur Global

En réalité depuis Janvier 2011