Remettre l’intelligence artificielle à sa place
Du 8 au 11 juillet, syndicom a participé au sommet annuel « AI for Good », la plateforme des Nations Unies sur l’intelligence artificielle. Résumé des demandes concrètes concernant la réglementation nationale et internationale de l’IA.
Texte: Daniel Hügli
L’intelligence artificielle (IA) est en train de passer du statut de jouet à celui d’outil de travail. Pour les syndicats, elle offre la possibilité d’être utilisée de manière responsable au profit des travailleur-euses. Elle comporte aussi des risques contre lesquels nous devons exiger des mesures de protection de la part des entreprises et des responsables politiques.
Il s’agit de vos données, qui sont utilisées pour l’entraînement de l’IA, par exemple par WhatsApp. Les applications d’IA utilisent vos données lorsqu’elles traitent des requêtes et se connectent à votre boîte mail, votre calendrier ou votre service de SMS. Il existe aujourd’hui des agents IA capables d’effectuer des actions, telles qu’une réservation ou un achat en ligne.

Inquiétudes concernant les accès non sollicités
Comment pouvons-nous encore échanger des informations confidentielles si l’IA peut y accéder ? Meredith Whittaker, présidente de la Signal Foundation, qui gère le service de messagerie cryptée Signal, répond clairement :
Il est inquiétant que des systèmes qui n’ont été ni testés ni validés et qui restent opaques soient aujourd’hui largement utilisés, y compris dans des domaines sensibles.
En juillet, elle a pris la parole lors du sommet « AI for Good » (l’IA au service du bien) organisé par l’Union internationale des télécommunications à Genève. Là aussi, il est apparu clairement que des mesures réglementaires étaient nécessaires de toute urgence, même si les voix critiques, comme celle de Whittaker étaient largement minoritaires face aux géants de la Tech et aux profiteurs de guerre.
Demandes concrètes adressées aux responsables politiques
Les fournisseurs d’IA doivent être contraints de configurer, par défaut, des zones d’exclusion pour les données protégées. L’IA doit être bloquée, sans frais ni perte de fonctionnalité, et ne doit pouvoir accéder aux données qu’après avoir obtenu le consentement (opt-in) et dans un but défini. Cela devrait également s’appliquer à l’État. Le Conseil fédéral souhaite au contraire adapter l’ordonnance sur la surveillance, ce qui pourrait contraindre les fournisseurs suisses, tels que Threema ou Proton à supprimer leurs mesures de protection.
Une autre conclusion de ce sommet sur l’IA : la société et la politique sont appelées à mettre en place des modèles open source, pour former un contre-pouvoir aux capitalistes de la technologie. La Suisse fait œuvre de pionnière : les Écoles polytechniques fédérales financées par la Confédération, l’ETH et l’EPFL, ainsi que le CSCS de Lugano avec son supercalculateur « Alps », ont développé un grand modèle linguistique ouvert sur une infrastructure publique. Il ne reste « plus qu’à » aux entreprises fédérales, telles que La Poste et Swisscom de proposer des services abordables et fiables basés sur cette IA.