Dans un monde numérique où l’intelligence artificielle gagne du terrain, chaque personne doit pouvoir décider librement et de manière autonome où et dans quelle mesure elle soutient la technologie, et dans quels cas elle souhaite agir elle-même sans une aide fondée sur l’intelligence artificielle. Les événements et les résultats qui concernent directement des individus, mais qui sont hors de leur champ d’influence, doivent eux aussi être compréhensibles. Nous sommes convaincus que le grand potentiel de l’intelligence artificielle ne peut être réalisé que si elle est adaptée à nos besoins et acceptée par la société.

Cependant, cela doit se faire dans un cadre choisi librement, qui est éthiquement et juridiquement correct. L’humain doit continuer à conserver sa souveraineté. Sur la base de notre expérience avec des technologies de la communication, nous considérons qu’il est indispensable d’inclure dès le début les questions éthiques dans le développement et l’utilisation de l’IA, et de vérifier de manière régulière les réponses à ces questions au vu de leur actualité. Dans le cadre des droits humains, de la participation démocratique, de l’État de droit et de la redistribution sociale, l’objectif doit être que l’intelligence artificielle serve les personnes et leur liberté – et pas uniquement les entreprises.

Contenu du site
Algorithmes au travail
Opportunités et risques
9 principes directeurs de l’IA pour un avenir humain

Notre glossaire sur l’intelligence artificielle

A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

Algorithmes au travail

Les employé-e-s en Suisse sont de plus en plus concerné-e-s par l’utilisation de systèmes algorithmiques sur le lieu de travail. Il faut s’assurer à cet égard que leur autonomie soit préservée et que l’ensemble du personnel profite de ces systèmes – et pas seulement les employeurs.

Une condition importante pour y parvenir est que les employé-e-s puissent avoir leur mot à dire, participer aux discussions et s’impliquer.

Or nous constatons que les employeurs n’associent pas de manière suffisante les membres du personnel à la planification ou à la mise en oeuvre de ces systèmes. La participation des employé·e·s doit donc être renforcée à différents niveaux.

Aperçu de nos revendications

Étendre les droits de participationPossibilité de recourir à des expert-e-s externes
Renforcer les droits d’informationObtenir un droit d’action collectif et effectif
Créer des possibilités de sanctionPréciser la pertinence de la participation en matière de protection de la santé

Papier de position Algorithmes au travail – renforcer la participation des employé-e-s

Opportunités et risques

Quels sont les enjeux pour les personnes qui travaillent? 

Un débat public informatif et éclairé s’impose sur les opportunités et les risques de l’intelligence artificielle (IA). La question se pose également de savoir comment la société peut surmonter au mieux un déclin de l’emploi dans certains groupes professionnels par la création simultanée de profils professionnels totalement nouveaux.

L’avenir est humain
L’utilisation de l’IA comporte de nombreuses opportunités, comme les exemples suivants le montrent.

Écologie

La crise climatique ne se laisse pas surmonter sans l’IA. Les technologies numériques peuvent contribuer de manière significative à faire progresser la protection de l’environnement, des ressources et du climat, et à préserver la biodiversité en rendant l’air, le sol et l’eau plus propres. Dans les «villes intelligentes», par exemple, où l’IA lie des données, elle assume le rôle d’offrir à la population une qualité de vie élevée tout en minimisant simultanément la consommation des ressources. En même temps, les multiples opportunités offertes par les innovations basées sur l’IA impliquent une responsabilité pour garder à l’esprit de potentiels risques tels que la consommation croissante d’énergie, les effets de rebond (si le potentiel d’économie des gains d’efficacité ne peut être réalisé ou ne le peut être que partiellement) ou la sécurité des ressources.

Santé

L’IA soutient les médecins et les radiologues dans le diagnostic du cancer et des maladies rares. Une comparaison entre l’humain et la machine montre que l’algorithme établit le bon diagnostic dans 90% des cas, alors que les radiologues ne font le bon diagnostic que dans la moitié des cas. Grâce à l’IA, les personnes aveugles peuvent à nouveau reconnaître les émotions de leurs semblables et percevoir ce qui se passe dans leur environnement. Les personnes sourdes et muettes ont la possibilité d’élargir considérablement leur champ d’action – l’intégration de services de traduction avec un avatar en langue des signes rend cette opération possible. Les scientifiques développent le cockpit chirurgical, un système d’assistance complet qui surveille tous les processus de travail en salle d’opération et assiste les chirurgiens – de l’analyse des informations aux décisions thérapeutiques, en passant par la mise en œuvre de la thérapie.

Sécurité IT

Les départements informatiques des entreprises comptent parmi les utilisateurs les plus importants de l’IA dans le monde. Ils utilisent l’intelligence artificielle pour surveiller la sécurité des systèmes informatiques, détecter et prévenir des attaques potentielles de pirates informatiques. Des solutions d’IA analysent des schémas de comportement, automatiquement et à toute heure du jour et de la nuit, pour en tirer des enseignements. Si des processus suspects et des menaces éventuelles sont découverts, les administrateurs informatiques reçoivent des notifications d’alarme et peuvent alors prendre des contre-mesures. Les fournisseurs de sécurité avancée utilisent le deep learning pour parer aux logiciels malveillants et aux cyberattaques jusqu’alors inconnus. Ils soutiennent des organismes publics, des entreprises dans le secteur de la santé et des prestataires de services financiers qui posent des exigences particulièrement élevées en matière de sécurité de leurs systèmes informatiques. L’humain se concentre sur la gestion de la qualité des données et le traitement des fausses alarmes.

Recrutement

Les chatbots facilitent le recrutement de personnel. Ils sont utilisés pour répondre aux questions de potentiels candidats au sujet de postes annoncés. Les avantages de ces solutions sont évidents: les responsables RH peuvent se concentrer sur les candidats les plus intéressés.

Marché du travail

Dans les secteurs où la main-d’œuvre se fait très rare, la croissance par la robotique devient possible. Dans de nombreux domaines de la vie, tels que les soins aux personnes âgées et les services de santé, il manque de la main-d’œuvre pour couvrir la demande croissante. Ici, les robots doivent répondre aux besoins en soins par la prise en charge de tâches routinières. Le vieillissement de la société accroîtra la demande de robotique dans les années à venir.

Le contrôle se perd
L’utilisation de l’IA comporte aussi des risques, comme les cinq exemples suivants le montrent.

Démocratie

Tout ce qui peut être effectué au moyen de routines de décision clairement définies sera tôt ou tard exécutable à l’aide de grands pools de données et d’algorithmes. Mais a-t-on encore affaire à des décisions? Ou plutôt à des routines intelligentes? Cette question, loin d’être uniquement conceptuelle, est importante au vu de notre manière d’envisager les décisions humaines et en termes de valeur que nous accordons aux individus comme décideurs et souverains. Le plus grand défi dans une société démocratique tient au fait que les processus et les routines de prise de décision sociaux – y c. l’information et la communication préparées, accompagnées ou commentées – se réajustent avec l’utilisation généralisée du big data et de l’IA.

«Fake News»

Dernièrement, le thème des fake news a fait l’objet de discussions intenses, y compris au niveau des nouvelles lois contre leur diffusion. En particulier après les élections présidentielles américaines en 2016, l’inquiétude a grandi de voir les médias sociaux propager des nouvelles mensongères et influencer ainsi les processus démocratiques tels que les élections ou les référendums. Un article sur la société Cambridge Analytica, qui a voulu exercé une forte influence en faveur de Trump via des analyses granulaires de groupes cibles sur Facebook, a d’abord donné lieu à beaucoup d’agitation, puis s’est ensuite avéré clairement exagéré.

Censure et contrôle

Le progrès technologique a eu un effet clairement négatif sur la liberté d’information et d’opinion en ce sens que les mesures élargies de censure et de surveillance incluent des données biométriques (par exemple, les systèmes de reconnaissance faciale). La possibilité de pénétrer dans de nombreux systèmes par des portes dérobées et des exploits est utilisée non seulement par les services secrets, mais aussi par des institutions répressives et de censure dans les pays autoritaires et, finalement, par des personnes criminelles.

Marché du travail

Le big data et l’IA auront pour conséquence que de nombreuses activités ne seront plus demandées sur le marché du travail. C’est certain. Quant à savoir lesquelles et dans quelle proportion, à quelle vitesse et à quel endroit, les pronostics sont très différents. Il n’est donc pas possible d’établir un masterplan détaillé de l’IA pour le marché du travail. Toutefois, certaines tendances sont prévisibles: les groupes professionnels dans lesquels de nombreux employé-e-s se croyaient en sécurité en tant que travailleurs du savoir sont aussi touchés. Ces groupes professionnels – du traitement de dossiers à l’audit – sont actuellement en point de mire. L’IA est particulièrement efficace lorsqu’il s’agit d’effectuer des tâches routinières, d’apprendre progressivement de celles-ci et d’entraîner des activités plus complexes. Les emplois comportant de telles tâches sont menacés, en particulier dans le secteur des bas salaires, où des activités répétitives sont souvent exécutées. Cependant, même les emplois de bureau ne sont pas épargnés si des tâches peuvent être accomplies par l’IA plus rapidement et à moindre coût. Les emplois déjà externalisés à l’étranger pour des raisons de prix sont avant tout menacés. Il s’agit surtout de milliers de postes de compliance dans les grandes banques, parce qu’elles recourront de plus en plus à l’IA pour maîtriser les changements dans l’environnement réglementaire.

Responsabilité

L’IA peut représenter une tentative de vivre la réticence de l’être humain à assumer ses responsabilités par un transfert de responsabilité à l’IA.

CONCLUSION : il faut des règles contraignantes

syndicom reconnaît le potentiel de l’intelligence artificielle (IA) pour le progrès social à condition que l’IA soit utilisée en faveur des individus. syndicom participe activement au discours social, afin que le bien-être des individus occupe la première place lorsque des systèmes IA sont conçus, développés, introduits et utilisés.

L’interaction entre les humains et le système d’IA offre une opportunité de repenser et de redéfinir la relation des domaines de vie entre eux, notamment en ce qui concerne une réduction significative du temps de travail sans perte de revenu. La technologie n’est jamais neutre, mais elle est produite dans un contexte économique, social, culturel et politique. Afin d’exploiter les possibilités de l’IA tout en minimisant les risques qui y sont associés, syndicom compte réglementer le développement et l’application de l’IA d’une manière contraignante. Les principes directeurs suivants de la résolution AI constituent un début.

9 principes directeurs de l’IA pour un avenir humain

1. Autonomie et contrôle

Résolution

Les systèmes d’intelligence artificielle servent l’individu et son autonomie, mais aussi la société et la planète, à condition que l’humain reste maître de la machine à tout moment. Les systèmes d’IA n’ont donc pas une personnalité juridique propre – les individus continuent d’assumer la responsabilité. La dignité humaine est respectée.


Développement

La relation homme-machine se transforme : un changement de paradigme qui évolue vers un modèle de partenariat prend place. Le but des systèmes intelligents est de nous décharger. Ils peuvent assumer cette fonction parce qu’ils sont capables d’appréhender leur environnement, disposent d’une mémoire et agissent de manière autonome. L’individu ne domine plus le système, mais interagit avec lui. Afin d’éviter des effets paternalistes par le biais de décisions automatisées, qui limitent la liberté d’action de l’être humain, un contrôle permanent du système et des possibilités d’intervention dans le système sont nécessaires. Pour les utilisateurs, il s’agit de comprendre comment des systèmes intelligents sont développés et entraînés.

Des processus décisionnels particulièrement responsables – par exemple en matière de contrôle autonome des véhicules ou de diagnostic médical – devraient être conçus de telle sorte que la compétence décisionnelle finale incombe aux acteurs responsables, et ce jusqu’à ce que la qualité de l’IA atteigne un niveau accepté par tous les participants. Dans les processus d’approbation pour des véhicules autonomes, par exemple, l’autonomie n’est étendue que par petites étapes.

2. Droits fondamentaux et diversité

Résolution

Les systèmes d’IA font l’objet d’une procédure de vérification (procédure diligente) appropriée. La liberté et les droits humains ainsi que les principes de l’État de droit et démocratiques sont protégés, respectés et accompagnés de mécanismes correctifs. Les systèmes d’IA sont conformes aux règles définies par l’être humain et la loi. Les distorsions et les préjugés ainsi que la discrimination sont minimisés dans les systèmes d’IA et dans leurs résultats. L’égalité, la non-discrimination et la solidarité sont le fil conducteur de l’action. Dans le développement des systèmes d’IA, la diversité du personnel dans le développement est respectée et promue.


Développement

Nous croyons en une approche de l’éthique IA fondée sur les droits fondamentaux prévus par la législation internationale relative aux droits de l’homme. Le respect des droits fondamentaux dans le cadre de la démocratie et de l’État de droit constitue la base la plus favorable pour définir des valeurs et des principes éthiques et abstraits, qui peuvent être concrétisés dans le contexte de l’IA.

Il faut accorder à toutes les personnes le même respect de leur valeur morale et de leur dignité. Cette exigence va au-delà de la non-discrimination, qui tolère des distinctions entre des situations dissemblables sur la base de justifications objectives. Dans un contexte lié à l’IA, l’égalité signifie que le système ne doit pas fournir des résultats injustement biaisés (par exemple, les données utilisées pour ajuster les systèmes d’IA doivent être aussi inclusives que possible et représenter différents groupes de population). Cela exige également un respect adéquat des personnes et des groupes potentiellement fragilisés, par exemple les employés, les femmes, les personnes souffrant d’un handicap, les minorités ethniques, les enfants, les consommateurs ou d’autres groupes exposés à l’exclusion. C’est pourquoi la diversité des développeurs est si importante.

Les processus politiques, c’est-à-dire le type de communication avant, pendant et après des décisions collectivement contraignantes, constituent un moyen particulier de créer une légitimité. La possibilité de s’informer et le droit d’exprimer son propre opinion jouent un rôle important dans notre compréhension des processus démocratiques. Cette question est abordée par la numérisation et, plus récemment, par l’entrée de l’IA dans les applications de masse. Les assistants numériques influencent les informations que nous recevons et nous aident à formuler nos propres opinions et pensées. Les algorithmes jouent également un rôle dans la diffusion des nouvelles et peuvent avoir une incidence sur le choix de sujets dans le discours public.

3. Responsabilité éthique et sociale

Résolution

La responsabilité éthique et sociale est assumée dans la conception, le développement, l’introduction et l’utilisation des systèmes d’IA. Les systèmes d’IA sont gérés de manière fiable. Le principe « Ethics by design » s’applique.


Développement

Les concepteurs d’IA ont la responsabilité éthique de concevoir des systèmes d’IA qui ont un impact positif sur la société, respectent les exigences légales et répondent à nos normes éthiques les plus élevées. Qui est rendu responsable des conséquences lorsque des décisions sont déléguées aux machines ? Cette question amène les experts à condamner des systèmes complètement autonomes. Faute de quoi, on se soustrairait à notre responsabilité éthique en matière de conception de systèmes.

L’être humain reste responsable. C’est déjà le cas aujourd’hui, par exemple lorsque nous conduisons une voiture – rien ne changera au niveau de la responsabilité. Il est nécessaire que nous exercions notre pouvoir sur les machines. Et tout porte à croire que nous serons encore en mesure de le faire dans un avenir proche.

4. Transparence et interopérabilité

Résolution

Les systèmes d’IA sont transparents, compréhensibles, explicables et reconnaissables comme tels. Leurs résultats sont reproductibles, traçables et fiables. Les données traitées et les formats qui en résultent sont capables de dialoguer (interopérables). Si les décisions des systèmes d’IA concernent des personnes, celles-ci ont le droit de contester ces décisions et de les faire examiner par un être humain («human review»).


Développement

Afin de gagner la confiance dans des systèmes intelligents dans la pratique quotidienne, il faut disposer d’informations suffisantes sur leur fonctionnalité et leurs conséquences possibles. Les mécanismes du système doivent être transparents afin d’en tirer des conséquences pour ses propres actions et déterminer si et dans quelle mesure on peut leur faire confiance. Les éléments clés d’une chaîne de processus orientée vers l’éthique sont donc : l’information → la transparence → le constat → l’autodétermination → la confiance. Plus le risque est élevé, plus il est important de pouvoir faire confiance.

5. Documentation et responsabilité

Résolution

Les systèmes d’IA contiennent une «boîte noire éthique» qui enregistre les données traitées par le système.Les employeurs qui utilisent des systèmes d’IA sont tenus d’analyser et d’évaluer les systèmes et d’en rendre compte. En outre, les autorités et le monde scientifique ont un accès légal aux algorithmes et aux données utilisés par des ­systèmes d’IA.


Développement

Des dispositions doivent être prises pour assurer la responsabilité et l’obligation de rendre compte sur les systèmes d’IA et leurs résultats avant et après leur mise en œuvre.

La vérifiabilité signifie que les algorithmes, les données et le processus de conception peuvent être soumis à une évaluation. Cela ne signifie pas pour autant que l’information sur les modèles commerciaux et la propriété intellectuelle liés au système d’IA doit toujours être accessible au public. L’évaluation des systèmes d’IA par des contrôles internes et externes et la mise à disposition de ces rapports d’évaluation peuvent contribuer de manière significative à la fiabilité de la technologie. La vérifiabilité externe devrait être assurée, en particulier pour les applications qui ont une incidence sur les droits fondamentaux, ainsi que pour les applications critiques pour la sécurité.

Il devrait être possible de rendre compte des actions ou des décisions qui contribuent à l’obtention d’un certain résultat du système et de réagir aux conséquences de ce résultat. Les personnes concernées attachent de l’importance à ce que les impacts négatifs potentiels des systèmes d’IA puissent être identifiés, évalués, notifiés et minimisés. Une protection adéquate doit être assurée aux lanceurs d’alerte, aux organisations non gouvernementales, aux syndicats et aux autres organismes qui expriment des préoccupations légitimes concernant un système fondé sur l’IA. Afin de minimiser les impacts négatifs, il peut être utile d’avoir recours à des analyses d’impact (par exemple, le « red teaming » ou des formes d’évaluation algorithmique de l’impact) avant et pendant le développement, la mise en œuvre et l’utilisation des systèmes d’IA. Ces évaluations doivent être dans un rapport proportionnel au risque que posent les systèmes d’IA.

6. Robustesse, sécurité et protection

Résolution

Il existe une politique responsable en matière de données qui établit des règles efficaces pour la sécurité des données, la protection des données, la vie privée et l’autodétermination informationnelle. De plus, chaque système AI dispose d’un «interrupteur d’arrêt d’urgence». Le principe de la prévention du dommage figure au premier plan.


Développement

Les systèmes d’IA doivent assurer la protection de la sphère privée et des données à toutes les étapes du cycle de vie d’un système. A savoir aussi pour les informations fournies initialement par les utilisateurs et pour celles générées à leur sujet au cours de l’interaction avec le système (p. ex. résultats générés par le système d’IA pour des utilisateurs spécifiques ou réaction des utilisateurs à des recommandations spécifiques). A partir des enregistrements numériques du comportement humain, les systèmes d’IA peuvent déduire non seulement les préférences personnelles des individus, mais aussi l’orientation sexuelle, l’âge et le sexe, et les points de vue religieux ou politiques. Pour que les personnes aient confiance dans le traitement des données, il faut veiller à ce que les données collectées à leur sujet ne soient pas utilisées pour les discriminer de manière illégale ou injuste.

7. Partenariat social et codécision des employées et employés

Résolution

Les syndicats ont des droits de participation importants au niveau politique et auprès des employeurs. Afin d’assurer la codécision de tous les employé-e-s en ce qui concerne les systèmes d’IA et le traitement des données, des représen­tations du personnel sont formées et dotées de droits effectifs de codécision. Avant d’élaborer ou d’introduire des systèmes d’IA, les employeurs remettent suffisamment tôt aux employé-e-s et à leurs syndicats des rapports sur l’impact des systèmes d’IA sur le personnel, ainsi que des rapports réguliers sur le bien-être des employé-e-s. En cas d’abus de droit, les employé-e-s peuvent refuser d’utiliser des systèmes d’IA ou de participer à leur élaboration sans craindre des conséquences négatives. Dans de tels cas, une protection absolue contre le licenciement s’applique, en particulier si les employé-e-s ont exploité les points de contact internes et agissent en tant que dénonciateurs.


Développement

Les syndicats disposent de droits de participation très étendus au niveau politique et auprès des employeurs. Il s’agit de renforcer ces droits pour qu’ils perdurent à l’ère de l’IA. L’IA modifie considérablement les rapports de travail. Elle doit donc devenir un enjeu important du partenariat social, par exemple dans l’élaboration des conventions collectives de travail. En particulier là où l’IA est en cours de développement, les représentants du personnel ont également un rôle important à jouer, afin que les employés aient un droit de codécision sur les questions éthiques relatives aux systèmes d’IA à développer. Dans le même temps, des droits collectifs et des garanties doivent être accordés aux travailleurs indépendants et aux crowdworkers.

8. Transformation numérique équitable et durable

Résolution

La transformation sociale et économique induite par la numérisation en cours est mise en œuvre équitablement. De plus, elle améliore la situation du plus grand nombre possible de personnes grâce à la redistribution et contribue à l’égalité entre les femmes et les hommes. Les gains de productivité sont réinvestis durablement en faveur de la population. Les individus doivent être habilités à utiliser des systèmes d’IA. Dans le même temps, un droit à un apprentissage tout au long de la vie est ancré, qui permet une reconversion et un perfectionnement complets et effectués à temps.


Développement

Les craintes d’importantes pertes d’emplois ne se sont avérées fondées à long terme dans aucune des trois révolutions industrielles précédentes. De nouveaux emplois n’ont cessé d’être créés en nombre suffisant pour compenser les emplois obsolètes causés par l’automatisation. Mais l’histoire montre aussi que toute société qui traverse une révolution industrielle est confrontée à d’autres questions existentielles qui ne portent pas seulement sur le nombre d’emplois en soi, mais sur les conséquences des processus d’ajustement et – surtout – sur la répartition des richesses.

  • La première révolution industrielle a transformé les paysans et agriculteurs en ouvriers d’usine.
  • La deuxième révolution industrielle a consisté à tirer le maximum du travail de l’automatisation (chaînes de production), tout en créant une production de masse pour la consommation de masse. Cela supposait un pouvoir d’achat de masse (augmentation des salaires).
  • La troisième révolution industrielle a combiné le travail avec des machines à commande microélectronique. D’une part, il s’agissait de maximiser la productivité du travail. D’autre part, le procédé a commencé à évincer le travail du processus de production. Parfois, les travailleurs de l’industrie s’étonnent du terme « transformation numérique », car ils connaissent depuis trente ans des robots de production à commande numérique, la production « allégée » et les licenciements collectifs. Cela correspond au vieux rêve des propriétaires du capital d’obtenir la croissance et le profit sans travail. Une illusion, car seul le travail crée de la valeur.
  • A l’ère de la quatrième révolution industrielle, le système économique a changé de visage. Il a pour objectif de fonctionner avec le moins de salariés possible et de se soustraire aux rapports contractuels garantis par contrat. Ce n’est pas une innovation technologique, c’est une rupture historique et sociale. Les raisons n’en sont pas à chercher dans l’automatisation numérique, mais dans le système économique.

C’est pourquoi les syndicats sont particulièrement sollicités aujourd’hui.

9. Régulation et coopération globales

Résolution

Des mécanismes de réglementation mondiaux sont établis. Les armes basées sur des systèmes d’IA sont interdites.


Développement

Le big data et l’IA peuvent aussi être conçus pour nuire aux individus. Les données, l’IA et les systèmes intelligents deviennent ainsi des outils ingénieux entre les mains d’une multitude d’acteurs, dont font partie des personnes politiquement puissantes. De plus, des personnes criminelles utilisent aussi l’IA. Il convient d’en tenir compte lors de la conception et de la réglementation de l’IA. Toutefois, les dommages potentiels ne sont pas une caractéristique du développement technologique, mais un résultat de son utilisation. Il est donc d’autant plus important que les communes, les cantons et l’Etat réglementent l’espace numérique pour éviter que d’autres acteurs s’en chargent et dictent leurs ordres. Et au-delà des frontières.

Tes contacts sur le thème de l’intelligence artificielle

Daniel Hügli

Responsable du secteur TIC

Dominik Fitze

Porte-parole TIC
0588171814
Jours de travail: Lundi à vendredi

Plus d’informations
Plus d’informations sur syndicom et nos organes syndicaux.

Devenir membreDéfiler vers le haut