9 KI-Leitprinzipien für eine
menschenfreundliche Zukunft
Wie die Chancen genutzt und die Risiken gebannt werden können
Resolution
Systeme der Künstlichen Intelligenz dienen den Menschen und ihrer Autonomie, der Gesellschaft sowie dem Planeten, wobei der Mensch jederzeit in Kontrolle über die Maschine bleibt. KI-Systeme haben deshalb auch keine eigene juristische Persönlichkeit – der Mensch trägt weiterhin die Verantwortung. Die Menschenwürde wird geachtet.
Begründung
Die Mensch-System-Beziehung verändert sich: Es findet ein Paradigmenwechsel hin zum Partnerschafts-Modell statt. Der Zweck intelligenter Systeme ist es, uns zu entlasten. Diese Entlastungsfunktion können sie übernehmen, da sie ihre Umwelt wahrnehmen, über ein Gedächtnis verfügen und autonom agieren. Der Mensch herrscht somit nicht mehr über das System, sondern interagiert mit ihm. Damit nicht durch automatisierte Entscheidungen paternalistische Effekte eintreten, die die Handlungsfreiheit des Menschen einschränken, bedarf es einer ständigen Systemkontrolle und der Eingriffsmöglichkeiten ins System. Für die Nutzer*innen muss nachvollziehbar sein, wie intelligente Systeme entwickelt und trainiert werden.
Besonders verantwortungsvolle Entscheidungsprozesse – z. B. in der autonomen Steuerung von Fahrzeugen oder in der medizinischen Diagnostik – sollten so gestaltet werden, dass die letzte Entscheidungskompetenz bei verantwortlichen Akteur*innen verbleibt, bis die Steuerungsqualität der KI ein von allen Beteiligten akzeptiertes Niveau erreicht. So wird in den Genehmigungsprozessen für autonom fahrende Fahrzeuge die Autonomie nur in kleinen Schritten erweitert.
Resolution
Bei KI-Systemen findet eine angemessene Sorgfaltsprüfung statt. Freiheits- und Menschenrechte sowie rechtsstaatliche und demokratische Prinzipien werden geschützt, geachtet und von Abhilfemechanismen begleitet. KI-Systeme sind mit den vom Menschen definierten Regeln sowie mit Recht und Gesetzen konform. Verzerrungen und Vorurteile sowie Diskriminierungen werden bei KI-Systemen und bei ihren Ergebnissen minimiert. Gleichheit, Nichtdiskriminierung und Solidarität sind Richtschnur des Handelns. Bei der Entwicklung von KI-Systemen wird die Diversität der Entwickelnden geachtet und gefördert.
Begründung
Wir glauben an eine Herangehensweise an KI-Ethik, die auf den im internationalen Menschenrecht verankerten Grundrechten beruht. Die Achtung der Grundrechte innerhalb eines Rahmens der Demokratie und Rechtsstaatlichkeit bildet die aussichtsreichste Grundlage für die Bestimmung abstrakter ethischer Grundsätze und Werte, die im Kontext der KI konkretisiert werden können.
Allen Menschen muss die gleiche Achtung vor ihrem moralischen Wert und ihrer Würde zuteilwerden. Diese Forderung geht über Nichtdiskriminierung hinaus, die Unterscheidungen zwischen unähnlichen Situationen auf der Basis objektiver Rechtfertigungen toleriert. In einem KI-bezogenen Kontext bedeutet Gleichheit, dass das System keine auf unfaire Weise verzerrten Ergebnisse liefern darf (z. B. sollten die zur Justierung der KI-Systeme verwendeten Daten so inklusiv wie möglich sein und verschiedene Bevölkerungsgruppen repräsentieren). Dies erfordert ausserdem angemessenen Respekt für möglicherweise gefährdete Personen und Gruppen, z. B. Arbeitnehmende, Frauen, Menschen mit Beeinträchtigungen, ethnische Minderheiten, Kinder, Verbraucherinnen und Verbraucher oder andere Gruppen mit Exklusionsrisiko. Genau deshalb ist die Diversität der Entwickelnden so wichtig.
Eine besondere Art der Schaffung von Legitimität sind politische Prozesse, also die Art der Kommunikation vor, während und nach kollektiv bindenden Entscheidungen. Die Möglichkeit zur eigenen Information und das Recht zur Äusserung der eigenen Meinung spielen für unser Verständnis demokratischer Prozesse eine grosse Rolle. Dieses Thema wird durch Digitalisierung und neuerdings durch den Einzug der KI in Massenanwendungen berührt. Digitale Assistenten beeinflussen, welche Informationen wir zu Gesicht bekommen, und unterstützen uns dabei, unsere eigenen Meinungen und Gedanken zu formulieren. Algorithmen spielen auch eine Rolle in der Weiterverbreitung von Nachrichten und können auf die Themensetzung im öffentlichen Diskurs einwirken.
Resolution
Bei Design, Entwicklung, Einführung und Einsatz von KI-Systemen wird die ethische und soziale Verantwortung wahrgenommen. Mit den KI-Systemen wird vertrauenswürdig umgegangen. Es gilt der Grundsatz «Ethics by Design».
Begründung
KI-Designer*innen tragen eine ethische Verantwortung für die Gestaltung von KI-Systemen, die sich positiv auf die Gesellschaft auswirken, mit den gesetzlichen Vorschriften übereinstimmen und unseren höchsten ethischen Standards genügen.
Wer wird für die Konsequenzen haftbar gemacht, wenn Menschen Entscheidungen an Maschinen delegieren? Wegen dieser Frage sprechen sich Fachleute gegen komplett autonome Systeme und für einen Menschen in der Schleife (loop) aus. Sonst würde man die ethische Verantwortung für das Systemdesign negieren. Der Mensch bleibt in der Verantwortung. Das ist schon heute so, wenn wir z. B. ein Auto fahren – an der Verantwortung wird sich nichts ändern. Es ist notwendig, dass wir die Macht über die Maschinen ausüben, und vieles spricht dafür, dass wir dazu auch in absehbarer Zeit noch in der Lage sein werden.
Resolution
KI-Systeme sind transparent, verständlich, erklärbar und als solche erkennbar. Ihre Ergebnisse sind reproduzierbar, zurückverfolgbar und zuverlässig. Verarbeitete und resultierende Daten und Formate sind dialogfähig (interoperabel). Betreffen Entscheide von KI-Systemen Menschen, so haben sie das Recht, diese Entscheide anzufechten und durch einen Menschen prüfen zu lassen («human review»).
Begründung
Um in der Alltagspraxis Vertrauen in intelligente Systeme zu bekommen, bedarf es ausreichender Informationen über ihre Funktionsweise und mögliche Konsequenzen. Die Systemmechanismen müssen transparent sein, um daraus Erkenntnisse für das eigene Handeln ableiten und selbst bestimmen zu können, ob und in welchem Ausmass man ihnen Vertrauen schenken kann. Kernelemente einer ethisch orientierten Prozesskette sind demnach: Information → Transparenz → Erkenntnis → Selbstbestimmung → Vertrauen. Vertrauen ist umso wichtiger, je höher das Risiko ist.
Resolution
KI-Systeme enthalten eine «ethische Blackbox», welche die vom System verarbeiteten Daten aufzeichnet. Arbeitgeber, die KI-Systeme einsetzen, sind zur Analyse und Evaluation der Systeme verpflichtet und müssen darüber Rechenschaft ablegen. Zusätzlich gibt es für Behörden und die Wissenschaft einen rechtlich geregelten Zugang zu Algorithmen und Daten, die von KI-Systemen verwendet werden.
Begründung
Es müssen Vorkehrungen getroffen werden, welche die Verantwortlichkeit und Rechenschaftspflicht für KI-Systeme und deren Ergebnisse vor und nach ihrer Umsetzung gewährleisten.
Nachprüfbarkeit bedeutet, dass Algorithmen, Daten und das Entwurfsverfahren einer Bewertung unterzogen werden können. Das heisst nicht unbedingt, dass Informationen über Geschäftsmodelle und geistiges Eigentum im Zusammenhang mit dem KI-System immer öffentlich verfügbar sein müssen. Die Bewertung von KI-Systemen durch interne und externe Prüfungen und das Vorliegen solcher Bewertungsberichte kann beträchtlich zur Vertrauenswürdigkeit der Technik beitragen. Die externe Nachprüfbarkeit sollte insbesondere bei Anwendungen sichergestellt sein, die sich auf die Grundrechte auswirken, sowie bei sicherheitskritischen Anwendungen.
Die Möglichkeit der Berichterstattung über Handlungen oder Entscheidungen, die zu einem bestimmten Systemergebnis beitragen, und auch die Reaktionsfähigkeit auf die Folgen eines solchen Ergebnisses müssen gewährleistet sein. Die Ermittlung, Bewertung, Berichterstattung und Minimierung potenziell negativer Auswirkungen von KI-Systemen ist für Betroffene besonders wichtig. Ein angemessener Schutz für Informant*innen (Whistleblower), Nichtregierungsorganisationen, Gewerkschaften und andere Stellen, die berechtigte Bedenken hinsichtlich eines KI-gestützten Systems äussern, muss gewährleistet sein. Der Einsatz von Folgenabschätzungen (z. B. «Red Teaming» oder Formen der Algorithmen-Folgenabschätzung) sowohl vor als auch während der Entwicklung, Einführung und Nutzung von KI-Systemen kann hilfreich sein, um negative Folgen möglichst gering zu halten. Diese Bewertungen müssen in einem angemessenen Verhältnis zu dem Risiko stehen, welches die KI-Systeme darstellen.
Resolution
Es gibt eine verantwortungsvolle Datenpolitik, die wirksame Regeln für Datensicherheit, Datenschutz, Schutz der Privatsphäre und die informationelle Selbstbestimmung festlegt. Zusätzlich existiert bei jedem KI-System ein «Not-Aus-Schalter». An erster Stelle steht der Grundsatz der Schadensverhütung.
Begründung
KI-Systeme müssen den Schutz der Privatsphäre und den Datenschutz in allen Phasen des Lebenszyklus eines Systems gewährleisten. Dies umfasst auch anfänglich von Benutzenden angegebene Informationen sowie die im Verlauf der Interaktion mit dem System über Benutzende erzeugten Informationen (z. B. Ergebnisse, die das KI-System für bestimmte Benutzende erzeugt oder die Reaktion von Benutzenden auf bestimmte Empfehlungen). Aus digitalen Aufzeichnungen über das menschliche Verhalten können KI-Systeme nicht nur auf persönliche Vorlieben einzelner Menschen, sondern auch auf sexuelle Ausrichtung, Alter und Geschlecht sowie religiöse oder politische Ansichten schliessen. Damit die Menschen Vertrauen in die Datenverarbeitung haben können, muss sichergestellt sein, dass die über sie gesammelten Daten nicht dazu verwendet werden, sie unrechtmässig oder unfair zu diskriminieren.
Resolution
Um die Mitbestimmung aller Arbeitenden in Bezug auf KI-Systeme und die Datenverarbeitung sicherzustellen, werden zusätzlich entsprechende Personalvertretungen gebildet und mit wirksamen Mitbestimmungsrechten ausgestattet. Die Arbeitgebenden legen den Arbeitenden und ihren Gewerkschaften jeweils frühzeitig vor der Entwicklung bzw. Einführung von KI-Systemen Berichte zu den Auswirkungen auf die Arbeitenden vor – ebenso regelmässig Rechenschaftsberichte über das Wohl der Arbeitenden. Wenn ein Rechtsmissbrauch vorliegt, können die Arbeitenden auf die Anwendung bzw. Teilnahme an der Entwicklung von KI-Systemen verzichten, ohne negative Konsequenzen befürchten zu müssen. In solchen Fällen gilt ein absoluter Kündigungsschutz, besonders auch dann, wenn sie die entsprechenden internen Anlaufstellen ausgeschöpft haben und sich als Whistleblower betätigen.
Begründung
Die Gewerkschaften haben auf politischer Ebene und bei den Arbeitgebenden weitreichende Mitwirkungsrechte. Diese Rechte gilt es zu stärken, damit sie auch im Zeitalter der KI Bestand haben. KI verändert die Arbeitsverhältnisse massgeblich. Daher muss sie zu einem wichtigen Thema der Sozialpartnerschaft werden, beispielsweise in der Ausgestaltung von Gesamtarbeitsverträgen. Gerade dort, wo KI entwickelt wird, haben auch Personalvertretungen eine wichtige Rolle, damit die Mitarbeitenden besonders bei ethischen Fragen in Bezug auf zu entwickelnde KI-Systeme ein Mitspracherecht haben. Gleichzeitig sollen auch Selbständigen wie Crowdworkern kollektive Rechte und Absicherungen gewährt werden.
Resolution
Die gesellschaftliche und wirtschaftliche Transformation, die von der fortschreitenden Digitalisierung getrieben ist, wird gerecht umgesetzt, stellt durch Umverteilung möglichst viele Menschen besser und trägt dazu bei, Gleichstellung zwischen Frauen und Männern herzustellen. Die Produktivitätsgewinne werden nachhaltig zugunsten der Bevölkerung reinvestiert. Die Menschen werden dazu befähigt, KI-Systeme anzuwenden. Gleichzeitig wird ein Recht auf lebenslanges Lernen verankert, das frühzeitiges und umfangreiches Re- und Upskilling ermöglicht.
Begründung
In keiner der drei früheren industriellen Revolutionsphasen haben sich die Befürchtungen grosser Arbeitsplatzverluste über längere Frist bewahrheitet. Stets sind genügend neue Jobs entstanden, welche die durch die Automatisierung obsolet gewordenen Stellen kompensiert haben. Die Geschichte zeigt aber auch: Die existenziellen Fragen für eine Gesellschaft während einer industriellen Revolution drehen sich nicht um die Zahl der Arbeitsplätze per se, sondern um die Folgen der Anpassungsprozesse und – vor allem – um die Verteilung des Wohlstandes.
- Die erste Industrielle Revolution machte aus Bauern und Landwirtinnen Fabrikarbeiter*innen.
- In der zweiten Industriellen Revolution ging es darum, durch Automatisierung (Fliessbänder) aus der Arbeit möglichst viel herauszuschlagen und gleichzeitig die Massenproduktion für den Massenkonsum zu schaffen. Das setzte Massen-Kaufkraft (steigende Löhne) voraus.
- Die dritte Industrielle Revolution kombinierte Arbeit mit mikroelektronisch gesteuerten Maschinen. Damit sollte einerseits die Produktivität der Arbeit maximal gesteigert werden. Andererseits begann der Prozess, die Arbeit aus dem Produktionsprozess zu verdrängen. Manchmal wundern sich Industriearbeitende etwas über den Begriff «Digitale Transformation», denn sie kennen digital gesteuerte Produktionsroboter, «Lean»-Produktion und Massenentlassungen schon seit 30 Jahren. Das entspricht dem alten Traum der Kapitalbesitzer, Wachstum und Gewinn ohne Arbeit zu bekommen. Eine Illusion, denn nur Arbeit schafft Wert.
- In der vierten Industriellen Revolution verändert das Wirtschaftssystem sein Gesicht. Sie zielt darauf, mit möglichst wenig Lohnarbeitenden zu wirtschaften und aus den vertraglich abgesicherten Vertragsverhältnissen auszusteigen. Das ist keine technologische Innovation, das ist ein historischer und gesellschaftlicher Bruch. Die Gründe dafür liegen nicht in der digitalen Automatisierung, sondern im Wirtschaftssystem.
Darum sind heute die Gewerkschaften besonders gefordert.
Resolution
Weltweite Regulierungsmechanismen werden etabliert. Waffen, die auf KI-Systemen basieren, sind verboten.
Begründung
Big Data und KI können auch darauf ausgerichtet sein, Menschen zu schaden. Daten, KI und intelligente Systeme werden so zu ausgeklügelten Werkzeugen in den Händen einer Vielzahl von Akteur*innen, zu denen politisch Mächtige gehören. Auch Kriminelle nutzen KI. Das sollte bei Gestaltung und Regulierung von KI Berücksichtigung finden. Allerdings ist das Schadenspotenzial keine Eigenschaft der technologischen Entwicklung, sondern ein Ergebnis ihrer Nutzung. Umso wichtiger ist es, dass Gemeinden, Kantone und Staat den digitalen Raum mit ihrer gesellschaftlichen Ordnungsfunktion prägen und es nicht anderen Akteur*innen überlassen, die Ordnung zu diktieren. Und zwar über die Grenzen hinaus.