Neuf principes directeurs de l’IA
pour un avenir humain
Comment exploiter les opportunités et écarter les risques

Résolution
Les systèmes d’intelligence artificielle servent l’individu et son autonomie, mais aussi la société et la planète, à condition que l’humain reste maître de la machine à tout moment. Les systèmes d’IA n’ont donc pas une personnalité juridique propre – les individus continuent d’assumer la responsabilité. La dignité humaine est respectée.
Développement
La relation homme-machine se transforme : un changement de paradigme qui évolue vers un modèle de partenariat prend place. Le but des systèmes intelligents est de nous décharger. Ils peuvent assumer cette fonction parce qu’ils sont capables d’appréhender leur environnement, disposent d’une mémoire et agissent de manière autonome. L’individu ne domine plus le système, mais interagit avec lui. Afin d’éviter des effets paternalistes par le biais de décisions automatisées, qui limitent la liberté d’action de l’être humain, un contrôle permanent du système et des possibilités d’intervention dans le système sont nécessaires. Pour les utilisateurs, il s’agit de comprendre comment des systèmes intelligents sont développés et entraînés.
Des processus décisionnels particulièrement responsables – par exemple en matière de contrôle autonome des véhicules ou de diagnostic médical – devraient être conçus de telle sorte que la compétence décisionnelle finale incombe aux acteurs responsables, et ce jusqu’à ce que la qualité de l’IA atteigne un niveau accepté par tous les participants. Dans les processus d’approbation pour des véhicules autonomes, par exemple, l’autonomie n’est étendue que par petites étapes.
Résolution
Les systèmes d’IA font l’objet d’une procédure de vérification (procédure diligente) appropriée. La liberté et les droits humains ainsi que les principes de l’État de droit et démocratiques sont protégés, respectés et accompagnés de mécanismes correctifs. Les systèmes d’IA sont conformes aux règles définies par l’être humain et la loi. Les distorsions et les préjugés ainsi que la discrimination sont minimisés dans les systèmes d’IA et dans leurs résultats. L’égalité, la non-discrimination et la solidarité sont le fil conducteur de l’action. Dans le développement des systèmes d’IA, la diversité du personnel dans le développement est respectée et promue.
Développement
Nous croyons en une approche de l’éthique IA fondée sur les droits fondamentaux prévus par la législation internationale relative aux droits de l’homme. Le respect des droits fondamentaux dans le cadre de la démocratie et de l’État de droit constitue la base la plus favorable pour définir des valeurs et des principes éthiques et abstraits, qui peuvent être concrétisés dans le contexte de l’IA.
Il faut accorder à toutes les personnes le même respect de leur valeur morale et de leur dignité. Cette exigence va au-delà de la non-discrimination, qui tolère des distinctions entre des situations dissemblables sur la base de justifications objectives. Dans un contexte lié à l’IA, l’égalité signifie que le système ne doit pas fournir des résultats injustement biaisés (par exemple, les données utilisées pour ajuster les systèmes d’IA doivent être aussi inclusives que possible et représenter différents groupes de population). Cela exige également un respect adéquat des personnes et des groupes potentiellement fragilisés, par exemple les employés, les femmes, les personnes souffrant d’un handicap, les minorités ethniques, les enfants, les consommateurs ou d’autres groupes exposés à l’exclusion. C’est pourquoi la diversité des développeurs est si importante.
Les processus politiques, c’est-à-dire le type de communication avant, pendant et après des décisions collectivement contraignantes, constituent un moyen particulier de créer une légitimité. La possibilité de s’informer et le droit d’exprimer son propre opinion jouent un rôle important dans notre compréhension des processus démocratiques. Cette question est abordée par la numérisation et, plus récemment, par l’entrée de l’IA dans les applications de masse. Les assistants numériques influencent les informations que nous recevons et nous aident à formuler nos propres opinions et pensées. Les algorithmes jouent également un rôle dans la diffusion des nouvelles et peuvent avoir une incidence sur le choix de sujets dans le discours public.
Résolution
La responsabilité éthique et sociale est assumée dans la conception, le développement, l’introduction et l’utilisation des systèmes d’IA. Les systèmes d’IA sont gérés de manière fiable. Le principe « Ethics by design » s’applique.
Développement
Les concepteurs d’IA ont la responsabilité éthique de concevoir des systèmes d’IA qui ont un impact positif sur la société, respectent les exigences légales et répondent à nos normes éthiques les plus élevées. Qui est rendu responsable des conséquences lorsque des décisions sont déléguées aux machines ? Cette question amène les experts à condamner des systèmes complètement autonomes. Faute de quoi, on se soustrairait à notre responsabilité éthique en matière de conception de systèmes.
L’être humain reste responsable. C’est déjà le cas aujourd’hui, par exemple lorsque nous conduisons une voiture – rien ne changera au niveau de la responsabilité. Il est nécessaire que nous exercions notre pouvoir sur les machines. Et tout porte à croire que nous serons encore en mesure de le faire dans un avenir proche.
Résolution
Les systèmes d’IA sont transparents, compréhensibles, explicables et reconnaissables comme tels. Leurs résultats sont reproductibles, traçables et fiables. Les données traitées et les formats qui en résultent sont capables de dialoguer (interopérables). Si les décisions des systèmes d’IA concernent des personnes, celles-ci ont le droit de contester ces décisions et de les faire examiner par un être humain («human review»).
Développement
Afin de gagner la confiance dans des systèmes intelligents dans la pratique quotidienne, il faut disposer d’informations suffisantes sur leur fonctionnalité et leurs conséquences possibles. Les mécanismes du système doivent être transparents afin d’en tirer des conséquences pour ses propres actions et déterminer si et dans quelle mesure on peut leur faire confiance. Les éléments clés d’une chaîne de processus orientée vers l’éthique sont donc : l’information → la transparence → le constat → l’autodétermination → la confiance. Plus le risque est élevé, plus il est important de pouvoir faire confiance.
Résolution
Les systèmes d’IA contiennent une «boîte noire éthique» qui enregistre les données traitées par le système.Les employeurs qui utilisent des systèmes d’IA sont tenus d’analyser et d’évaluer les systèmes et d’en rendre compte. En outre, les autorités et le monde scientifique ont un accès légal aux algorithmes et aux données utilisés par des systèmes d’IA.
Développement
Des dispositions doivent être prises pour assurer la responsabilité et l’obligation de rendre compte sur les systèmes d’IA et leurs résultats avant et après leur mise en œuvre.
La vérifiabilité signifie que les algorithmes, les données et le processus de conception peuvent être soumis à une évaluation. Cela ne signifie pas pour autant que l’information sur les modèles commerciaux et la propriété intellectuelle liés au système d’IA doit toujours être accessible au public. L’évaluation des systèmes d’IA par des contrôles internes et externes et la mise à disposition de ces rapports d’évaluation peuvent contribuer de manière significative à la fiabilité de la technologie. La vérifiabilité externe devrait être assurée, en particulier pour les applications qui ont une incidence sur les droits fondamentaux, ainsi que pour les applications critiques pour la sécurité.
Il devrait être possible de rendre compte des actions ou des décisions qui contribuent à l’obtention d’un certain résultat du système et de réagir aux conséquences de ce résultat. Les personnes concernées attachent de l’importance à ce que les impacts négatifs potentiels des systèmes d’IA puissent être identifiés, évalués, notifiés et minimisés. Une protection adéquate doit être assurée aux lanceurs d’alerte, aux organisations non gouvernementales, aux syndicats et aux autres organismes qui expriment des préoccupations légitimes concernant un système fondé sur l’IA. Afin de minimiser les impacts négatifs, il peut être utile d’avoir recours à des analyses d’impact (par exemple, le « red teaming » ou des formes d’évaluation algorithmique de l’impact) avant et pendant le développement, la mise en œuvre et l’utilisation des systèmes d’IA. Ces évaluations doivent être dans un rapport proportionnel au risque que posent les systèmes d’IA.
Résolution
Il existe une politique responsable en matière de données qui établit des règles efficaces pour la sécurité des données, la protection des données, la vie privée et l’autodétermination informationnelle. De plus, chaque système AI dispose d’un «interrupteur d’arrêt d’urgence». Le principe de la prévention du dommage figure au premier plan.
Développement
Les systèmes d’IA doivent assurer la protection de la sphère privée et des données à toutes les étapes du cycle de vie d’un système. A savoir aussi pour les informations fournies initialement par les utilisateurs et pour celles générées à leur sujet au cours de l’interaction avec le système (p. ex. résultats générés par le système d’IA pour des utilisateurs spécifiques ou réaction des utilisateurs à des recommandations spécifiques). A partir des enregistrements numériques du comportement humain, les systèmes d’IA peuvent déduire non seulement les préférences personnelles des individus, mais aussi l’orientation sexuelle, l’âge et le sexe, et les points de vue religieux ou politiques. Pour que les personnes aient confiance dans le traitement des données, il faut veiller à ce que les données collectées à leur sujet ne soient pas utilisées pour les discriminer de manière illégale ou injuste.
Résolution
Les syndicats ont des droits de participation importants au niveau politique et auprès des employeurs. Afin d’assurer la codécision de tous les employé-e-s en ce qui concerne les systèmes d’IA et le traitement des données, des représentations du personnel sont formées et dotées de droits effectifs de codécision. Avant d’élaborer ou d’introduire des systèmes d’IA, les employeurs remettent suffisamment tôt aux employé-e-s et à leurs syndicats des rapports sur l’impact des systèmes d’IA sur le personnel, ainsi que des rapports réguliers sur le bien-être des employé-e-s. En cas d’abus de droit, les employé-e-s peuvent refuser d’utiliser des systèmes d’IA ou de participer à leur élaboration sans craindre des conséquences négatives. Dans de tels cas, une protection absolue contre le licenciement s’applique, en particulier si les employé-e-s ont exploité les points de contact internes et agissent en tant que dénonciateurs.
Développement
Les syndicats disposent de droits de participation très étendus au niveau politique et auprès des employeurs. Il s’agit de renforcer ces droits pour qu’ils perdurent à l’ère de l’IA. L’IA modifie considérablement les rapports de travail. Elle doit donc devenir un enjeu important du partenariat social, par exemple dans l’élaboration des conventions collectives de travail. En particulier là où l’IA est en cours de développement, les représentants du personnel ont également un rôle important à jouer, afin que les employés aient un droit de codécision sur les questions éthiques relatives aux systèmes d’IA à développer. Dans le même temps, des droits collectifs et des garanties doivent être accordés aux travailleurs indépendants et aux crowdworkers.
Résolution
La transformation sociale et économique induite par la numérisation en cours est mise en œuvre équitablement. De plus, elle améliore la situation du plus grand nombre possible de personnes grâce à la redistribution et contribue à l’égalité entre les femmes et les hommes. Les gains de productivité sont réinvestis durablement en faveur de la population. Les individus doivent être habilités à utiliser des systèmes d’IA. Dans le même temps, un droit à un apprentissage tout au long de la vie est ancré, qui permet une reconversion et un perfectionnement complets et effectués à temps.
Développement
Les craintes d’importantes pertes d’emplois ne se sont avérées fondées à long terme dans aucune des trois révolutions industrielles précédentes. De nouveaux emplois n’ont cessé d’être créés en nombre suffisant pour compenser les emplois obsolètes causés par l’automatisation. Mais l’histoire montre aussi que toute société qui traverse une révolution industrielle est confrontée à d’autres questions existentielles qui ne portent pas seulement sur le nombre d’emplois en soi, mais sur les conséquences des processus d’ajustement et – surtout – sur la répartition des richesses.
- La première révolution industrielle a transformé les paysans et agriculteurs en ouvriers d’usine.
- La deuxième révolution industrielle a consisté à tirer le maximum du travail de l’automatisation (chaînes de production), tout en créant une production de masse pour la consommation de masse. Cela supposait un pouvoir d’achat de masse (augmentation des salaires).
- La troisième révolution industrielle a combiné le travail avec des machines à commande microélectronique. D’une part, il s’agissait de maximiser la productivité du travail. D’autre part, le procédé a commencé à évincer le travail du processus de production. Parfois, les travailleurs de l’industrie s’étonnent du terme « transformation numérique », car ils connaissent depuis trente ans des robots de production à commande numérique, la production « allégée » et les licenciements collectifs. Cela correspond au vieux rêve des propriétaires du capital d’obtenir la croissance et le profit sans travail. Une illusion, car seul le travail crée de la valeur.
- A l’ère de la quatrième révolution industrielle, le système économique a changé de visage. Il a pour objectif de fonctionner avec le moins de salariés possible et de se soustraire aux rapports contractuels garantis par contrat. Ce n’est pas une innovation technologique, c’est une rupture historique et sociale. Les raisons n’en sont pas à chercher dans l’automatisation numérique, mais dans le système économique.
C’est pourquoi les syndicats sont particulièrement sollicités aujourd’hui.
Résolution
Des mécanismes de réglementation mondiaux sont établis. Les armes basées sur des systèmes d’IA sont interdites.
Développement
Le big data et l’IA peuvent aussi être conçus pour nuire aux individus. Les données, l’IA et les systèmes intelligents deviennent ainsi des outils ingénieux entre les mains d’une multitude d’acteurs, dont font partie des personnes politiquement puissantes. De plus, des personnes criminelles utilisent aussi l’IA. Il convient d’en tenir compte lors de la conception et de la réglementation de l’IA. Toutefois, les dommages potentiels ne sont pas une caractéristique du développement technologique, mais un résultat de son utilisation. Il est donc d’autant plus important que les communes, les cantons et l’Etat réglementent l’espace numérique pour éviter que d’autres acteurs s’en chargent et dictent leurs ordres. Et au-delà des frontières.