In einer digitalen Welt, in der KI Einzug hält, muss jede Person frei und eigenverantwortlich entscheiden können, wo und inwieweit sie Technik unterstützt, und in welchen Fällen sie ohne KI-basierte Hilfe selbst agieren möchte. Auch müssen Ereignisse und Ergebnisse, die sie unmittelbar betreffen, die jedoch ausserhalb ihres Einflusses liegen können, für sie nachvollziehbar sein. Wir sind davon überzeugt, dass sich das grosse Potenzial von KI nur verwirklichen lässt, wenn diese an den Bedürfnissen der Menschen ausgerichtet ist und von der Gesellschaft akzeptiert wird.

Dies muss jedoch in einem selbst gewählten, ethisch und rechtlich stabilen Rahmen geschehen. Hierbei soll der Mensch weiterhin die Hoheitsgewalt behalten. Basierend auf unserer Erfahrung mit Kommunikationstechnologien sehen wir es als unerlässlich an, bei der Entwicklung und beim Einsatz von KI von Anfang an ethische Fragestellungen einzubeziehen und die Antworten auf diese Fragen immer wieder auf ihre Aktualität zu überprüfen. Ziel muss sein, dass die Künstliche Intelligenz im Rahmen von Menschenrechten, demokratischer Mitbestimmung, des Rechtsstaates und sozialer Umverteilung den Menschen und ihrer Freiheit dient – und nicht einzig den Unternehmen.

Inhalt dieser Seite
Algorithmen am Arbeitsplatz
Chancen und Risiken
9 KI-Leitprinzipien für eine menschenfreundliche Zukunft
Statement zu den aktuellen Entwicklungen im Bereich der künstlichen Intelligenz

Unser Glossar zur Künstlichen Intelligenz

A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

Algorithmen am Arbeitsplatz

Mitarbeitende in der Schweiz sind zunehmend vom Einsatz algorithmischer Systeme am Arbeitsplatz betroffen. Dabei muss sichergestellt werden, dass die Autonomie der Mitarbeitenden gewahrt wird und dass auch sie – nicht nur die Arbeitgeber – vom Einsatz der Systeme profitieren.

Eine wichtige Bedingung dafür ist, dass Mitarbeitende sich beteiligen, mitdiskutieren und mitwirken können.

Heute zeigt sich jedoch: Die Arbeitgeber beziehen die Mitarbeitenden oft nicht ausreichend ein, wenn sie diese Systeme planen oder einsetzen. Die Beteiligung der Mitarbeitenden muss deshalb auf verschiedenen Ebenen gestärkt werden.

Unsere Forderungen im Überblick

Mitspracherechte ausweitenEinbezug von externen Expert:innen ermöglichen
Informationsrechte stärkenEin kollektives und effektives Klagerecht erwirken
Sanktionsmöglichkeiten schaffenRelevanz der Beteiligung hinsichtlich des Gesundheitsschutzes präzisieren

Downloads

Chancen und Risiken

Ohne KI ist die Klimakrise nicht zu bewältigen. Digitale Technologien können erheblich dazu beitragen, Umwelt-, Ressourcen- und Klimaschutz voranzubringen, die Artenvielfalt zu erhalten sowie Luft, Böden und Wasser sauberer zu machen. In «Smart City»-Städten beispielsweise übernimmt KI die Aufgabe, durch Verknüpfen von Daten der Bevölkerung hohe Lebensqualität bei minimalem Ressourcenverbrauch zu bieten. Mit den vielfältigen Chancen der KI-basierten Innovationen ist gleichzeitig eine Verantwortung verbunden: Mögliche Risiken wie zum Beispiel wachsender Energieverbrauch, Rebound-Effekte (wenn das Einsparpotenzial von Effizienzsteigerungen nicht oder nur teilweise verwirklicht werden kann) oder Ressourcensicherheit müssen im Blick behalten werden.

Die Zukunft ist menschenfreundlich
Der Einsatz von KI birgt viele Chancen, wie folgende Beispiele zeigen.

Ökologie

Was für den arbeitenden Menschen dabei auf dem Spiel steht Es bedarf einer informierten, aufgeklärten Debatte in der Öffentlichkeit über die Chancen und Risiken von KI. Dazu gehört auch die Frage, wie die Gesellschaft einen Rückgang der Beschäftigung in einzelnen Berufsgruppen bei der gleichzeitigen Entstehung völlig neuer Berufsbilder bestmöglich bewältigen kann.

Gesundheit

Bei der Krebsdiagnose sowie bei der Diagnose seltener Krankheiten unterstützt KI die Ärzt:innen und Radiolog:innen. Ein Vergleich von Mensch und Maschine zeigt: Der Algorithmus trifft zu 90 Prozent die richtige Diagnose, Radiolog:innen dagegen schaffen dies nur in der Hälfte aller Fälle. Blinde können dank KI wieder die Emotionen ihrer Mitmenschen erkennen und das Geschehen im Umfeld wahrnehmen. Taubstumme erhalten die Chance, ihren Aktionsraum deutlich zu erweitern – die Integration von Übersetzungsdiensten mit einem Gebärdensprachen-Avatar macht das möglich. Wissenschaftler:innen entwickeln das Chirurgische Cockpit, ein umfassendes Assistenzsystem, das sämtliche Arbeitsabläufe im Operationssaal überwacht und die Chirurg:innen von der Informationsanalyse über die Therapieentscheidung bis hin zur Therapiedurchführung unterstützt.

IT-Sicherheit

Die IT-Abteilungen von Unternehmen zählen weltweit zu den wichtigsten Nutzenden von KI. Sie überwachen mit KI die Sicherheit der IT-Systeme, entdecken und verhindern potenzielle Hackerangriffe. KI-Lösungen analysieren rund um die Uhr automatisch und in Echtzeit Verhaltensmuster und lernen dabei. Werden verdächtige Vorgänge und mögliche Bedrohungen entdeckt, erhalten IT-Administrator:innen Alarmhinweise und können dann Gegenmassnahmen einleiten. Fortgeschrittene Sicherheitsanbietende nutzen Deep Learning, um bisher unbekannte Malware und Cyberangriffe abzuwehren. Sie unterstützen staatliche Verwaltungen, Unternehmen der Gesundheitswirtschaft und Finanzdienstleister, die besonders hohe Anforderungen an die Sicherheit ihrer IT-Systeme stellen. Der Mensch konzentriert sich auf das Qualitätsmanagement der Daten und die Behandlung von Fehlalarmen.

Rekrutierung

Chatbots erleichtern die Personalrekrutierung. Sie dienen dazu, die Fragen von potenziellen Angestellten zu beantworten, die zu ausgeschriebenen Stellen entstehen. Der Nutzen solcher Lösungen liegt auf der Hand: Personalmanager:innen können sich auf die besonders interessierten Kandidierenden konzentrieren.

Arbeitsmarkt

In Sektoren, in denen Arbeitskräfte sehr knapp werden, wird Wachstum durch Robotik überhaupt erst möglich. In vielen Lebensbereichen, wie z. B. der Altenpflege und Krankenversorgung, gibt es nicht genug Arbeitskräfte, um den stetig steigenden Bedarf zu decken. Hier müssen Roboter in die Bresche springen, um den Pflegebedarf durch die Übernahme von Routineaufgaben zu unterstützen. Die alternde Gesellschaft wird den Bedarf an Robotik in den kommenden Jahren zusätzlich verstärken.

Die Kontrolle geht verloren
Der Einsatz von KI birgt auch Risiken, wie folgende fünf Beispiele zeigen.

Demokratie

Alles, was mittels klar definierter Entscheidungsroutinen abgearbeitet werden kann, wird früher oder später mit Hilfe von grossen Datenpools und Algorithmen ausführbar sein. Aber sind dies dann überhaupt noch Entscheidungen? Sind es nicht eher intelligente Routinen? Dies ist nicht nur eine begriffliche Frage. Diese Frage ist wichtig dafür, wie wir über Entscheidungen von Menschen denken und inwiefern wir den Menschen als Entscheidungsträgerin und Souverän wertschätzen. Die grösste Herausforderung in der demokratischen Gesellschaft ist darin zu sehen, dass sich mit der breiten Nutzung von Big Data und KI die gesellschaftlichen Entscheidungsprozesse und -routinen neu justieren – inklusive der vorbereitenden, begleitenden oder kommentierenden Information und Kommunikation.

«Fake News»

In jüngster Zeit ist das Thema der «Fake News» intensiv diskutiert worden, auch auf der Ebene neuer Gesetze gegen deren Verbreitung. Die Sorge, dass sich vor allem über Soziale Medien Nachrichten ohne Wahrheitsgehalt weiterverbreiten und damit demokratische Prozesse wie Wahlen oder Referenden beeinflussen, kam insbesondere in der Nachbetrachtung der US-Präsidentschaftswahlen 2016 hoch. Ein zunächst für viel Aufregung sorgender Artikel über Cambridge Analytica, die über granulare Analysen von Zielgruppen auf Facebook einen grossen Einfluss zugunsten Trumps ausgeübt haben will, hat sich bei näherer Betrachtung selbst als deutlich aufgebauscht herausgestellt.

Zensur und Überwachung

Einen eindeutig negativen Effekt auf die Informations- und Meinungsfreiheit hat der technische Fortschritt durch ausgebaute Zensur- und Überwachungsmassnahmen unter Einbezug biometrischer Daten (z. B. Gesichtserkennungssysteme). Die Möglichkeit, in viele Systeme über Backdoors und Exploits einzudringen, nutzen nicht nur Geheimdienste, sondern auch Repressions- und Zensurinstitutionen autoritär verfasster Länder und schliesslich auch Kriminelle.

Arbeitsmarkt

Big Data und KI werden dazu führen, dass zahlreiche Tätigkeiten nicht mehr auf den Arbeitsmärkten nachgefragt werden. So viel ist sicher. Welche und in welchem Ausmass, wie schnell und wo, hierzu gibt es durchaus unterschiedliche Prognosen, sodass ein detaillierter arbeitsmarktpolitischer Masterplan der KI nicht möglich ist. Einige Tendenzen sind allerdings absehbar: Betroffen sind sicher auch solche Berufsgruppen, in denen sich bisher viele Mitarbeitende als Wissensarbeitende auf der sicheren Seite wähnten. Gerade diese Berufsgruppen – von Sachbearbeitung bis Wirtschaftsprüfung – stehen aktuell im Fokus. KI ist immer dann besonders effektiv, wenn es darum geht, Routineaufgaben zu erledigen, graduell daraus zu lernen und komplexere Tätigkeiten anzutrainieren. Arbeitsplätze mit solchen Aufgaben sind bedroht – vor allem im Niedriglohnsektor, wo häufig repetitive Aufgaben ausgeführt werden. Aber auch Büroarbeitsplätze bleiben davon nicht verschont, wenn die Aufgaben durch KI günstiger und schneller erledigt werden können. In erster Linie sind Stellen gefährdet, die bereits aus Preisgründen offshore ausgelagert worden sind. Dazu gehören beispielsweise Tausende von Compliance-Stellen bei Grossbanken, weil diese verstärkt KI einsetzen werden, um der Veränderungen im regulatorischen Umfeld Herr zu werden.

Verantwortung

KI kann eine Versuchung sein, Menschen mit ihrer Entscheidungsunwilligkeit aus der Verantwortung zu entlassen und diese einer KI zu übertragen.

FAZIT: Es braucht verbindliche Regeln

syndicom anerkennt das Potenzial von Künstlicher Intelligenz (KI) für den gesellschaftlichen Fortschritt, wenn die KI zugunsten der Menschen eingesetzt wird. syndicom beteiligt sich aktiv am gesellschaftlichen Diskurs, damit das Wohlergehen der Menschen im Vordergrund steht, wenn KI-Systeme designt, entwickelt, eingeführt und eingesetzt werden.

Das Zusammenspiel zwischen Mensch und KI-System birgt die Chance, das Verhältnis der Lebensbereiche zueinander neu zu denken und zu gestalten, besonders in Verbindung mit einer bedeutenden Arbeitszeitreduktion ohne Einkommenseinbussen. Technologie ist nie neutral, sondern wird in einem bestimmten wirtschaftlichen, gesellschaftlichen, kulturellen und politischen Kontext produziert. Damit die Chancen genützt und gleichzeitig die Risiken im Zusammenhang mit KI minimiert werden können, will syndicom die Entwicklung und Anwendung von KI verbindlich regeln. Die folgenden Leitprinzipien aus der KI-Resolution machen einen Anfang.

9 KI-Leitprinzipien für eine menschenfreundliche Zukunft

1. Autonomie und Kontrolle

Resolution – Systeme der Künstlichen Intelligenz dienen den Menschen und ihrer Autonomie, der Gesellschaft sowie dem Planeten, wobei der Mensch jederzeit in Kontrolle über die Maschine bleibt. KI-Systeme haben deshalb auch keine eigene juristische Persönlichkeit – der Mensch trägt weiterhin die Verantwortung. Die Menschenwürde wird geachtet.

Begründung
Die Mensch-System-Beziehung verändert sich: Es findet ein Paradigmenwechsel hin zum Partnerschafts-Modell statt. Der Zweck intelligenter Systeme ist es, uns zu entlasten. Diese Entlastungsfunktion können sie übernehmen, da sie ihre Umwelt wahrnehmen, über ein Gedächtnis verfügen und autonom agieren. Der Mensch herrscht somit nicht mehr über das System, sondern interagiert mit ihm. Damit nicht durch automatisierte Entscheidungen paternalistische Effekte eintreten, die die Handlungsfreiheit des Menschen einschränken, bedarf es einer ständigen Systemkontrolle und der Eingriffsmöglichkeiten ins System. Für die Nutzer:innen muss nachvollziehbar sein, wie intelligente Systeme entwickelt und trainiert werden.

Besonders verantwortungsvolle Entscheidungsprozesse – z. B. in der autonomen Steuerung von Fahrzeugen oder in der medizinischen Diagnostik – sollten so gestaltet werden, dass die letzte Entscheidungskompetenz bei verantwortlichen Akteur:innen verbleibt, bis die Steuerungsqualität der KI ein von allen Beteiligten akzeptiertes Niveau erreicht. So wird in den Genehmigungsprozessen für autonom fahrende Fahrzeuge die Autonomie nur in kleinen Schritten erweitert.

2. Grundrechte und Diversität

Resolution – Bei KI-Systemen findet eine angemessene Sorgfaltsprüfung statt. Freiheits- und Menschenrechte sowie rechtsstaatliche und demokratische Prinzipien werden geschützt, geachtet und von Abhilfemechanismen begleitet. KI-Systeme sind mit den vom Menschen definierten Regeln sowie mit Recht und Gesetzen konform. Verzerrungen und Vorurteile sowie Diskriminierungen werden bei KI-Systemen und bei ihren Ergebnissen minimiert. Gleichheit, Nichtdiskriminierung und Solidarität sind Richtschnur des Handelns. Bei der Entwicklung von KI-Systemen wird die Diversität der Entwickelnden geachtet und gefördert.

Begründung
Wir glauben an eine Herangehensweise an KI-Ethik, die auf den im internationalen Menschenrecht verankerten Grundrechten beruht. Die Achtung der Grundrechte innerhalb eines Rahmens der Demokratie und Rechtsstaatlichkeit bildet die aussichtsreichste Grundlage für die Bestimmung abstrakter ethischer Grundsätze und Werte, die im Kontext der KI konkretisiert werden können.

Allen Menschen muss die gleiche Achtung vor ihrem moralischen Wert und ihrer Würde zuteilwerden. Diese Forderung geht über Nichtdiskriminierung hinaus, die Unterscheidungen zwischen unähnlichen Situationen auf der Basis objektiver Rechtfertigungen toleriert. In einem KI-bezogenen Kontext bedeutet Gleichheit, dass das System keine auf unfaire Weise verzerrten Ergebnisse liefern darf (z. B. sollten die zur Justierung der KI-Systeme verwendeten Daten so inklusiv wie möglich sein und verschiedene Bevölkerungsgruppen repräsentieren). Dies erfordert ausserdem angemessenen Respekt für möglicherweise gefährdete Personen und Gruppen, z. B. Arbeitnehmende, Frauen, Menschen mit Beeinträchtigungen, ethnische Minderheiten, Kinder, Verbraucherinnen und Verbraucher oder andere Gruppen mit Exklusionsrisiko. Genau deshalb ist die Diversität der Entwickelnden so wichtig.

Eine besondere Art der Schaffung von Legitimität sind politische Prozesse, also die Art der Kommunikation vor, während und nach kollektiv bindenden Entscheidungen. Die Möglichkeit zur eigenen Information und das Recht zur Äusserung der eigenen Meinung spielen für unser Verständnis demokratischer Prozesse eine grosse Rolle. Dieses Thema wird durch Digitalisierung und neuerdings durch den Einzug der KI in Massenanwendungen berührt. Digitale Assistenten beeinflussen, welche Informationen wir zu Gesicht bekommen, und unterstützen uns dabei, unsere eigenen Meinungen und Gedanken zu formulieren. Algorithmen spielen auch eine Rolle in der Weiterverbreitung von Nachrichten und können auf die Themensetzung im öffentlichen Diskurs einwirken.

3. Ethische und soziale Verantwortung

Resolution – Bei Design, Entwicklung, Einführung und Einsatz von KI-Systemen wird die ethische und soziale Verantwortung wahrgenommen. Mit den KI-Systemen wird vertrauenswürdig umgegangen. Es gilt der Grundsatz «Ethics by Design».

Begründung
KI-Designer:innen tragen eine ethische Verantwortung für die Gestaltung von KI-Systemen, die sich positiv auf die Gesellschaft auswirken, mit den gesetzlichen Vorschriften übereinstimmen und unseren höchsten ethischen Standards genügen.

Wer wird für die Konsequenzen haftbar gemacht, wenn Menschen Entscheidungen an Maschinen delegieren? Wegen dieser Frage sprechen sich Fachleute gegen komplett autonome Systeme und für einen Menschen in der Schleife (loop) aus. Sonst würde man die ethische Verantwortung für das Systemdesign negieren. Der Mensch bleibt in der Verantwortung. Das ist schon heute so, wenn wir z. B. ein Auto fahren – an der Verantwortung wird sich nichts ändern. Es ist notwendig, dass wir die Macht über die Maschinen ausüben, und vieles spricht dafür, dass wir dazu auch in absehbarer Zeit noch in der Lage sein werden.

4. Transparenz und Interoperabilität

Resolution – KI-Systeme sind transparent, verständlich, erklärbar und als solche erkennbar. Ihre Ergebnisse sind reproduzierbar, zurückverfolgbar und zuverlässig. Verarbeitete und resultierende Daten und Formate sind dialogfähig (interoperabel). Betreffen Entscheide von KI-Systemen Menschen, so haben sie das Recht, diese Entscheide anzufechten und durch einen Menschen prüfen zu lassen («human review»).


Begründung
Um in der Alltagspraxis Vertrauen in intelligente Systeme zu bekommen, bedarf es ausreichender Informationen über ihre Funktionsweise und mögliche Konsequenzen. Die Systemmechanismen müssen transparent sein, um daraus Erkenntnisse für das eigene Handeln ableiten und selbst bestimmen zu können, ob und in welchem Ausmass man ihnen Vertrauen schenken kann. Kernelemente einer ethisch orientierten Prozesskette sind demnach: Information → Transparenz → Erkenntnis → Selbstbestimmung → Vertrauen. Vertrauen ist umso wichtiger, je höher das Risiko ist.

5. Dokumentation und Rechenschaftspflicht

Resolution – KI-Systeme enthalten eine «ethische Blackbox», welche die vom System verarbeiteten Daten aufzeichnet. Arbeitgeber, die KI-Systeme einsetzen, sind zur Analyse und Evaluation der Systeme verpflichtet und müssen darüber Rechenschaft ablegen. Zusätzlich gibt es für Behörden und die Wissenschaft einen rechtlich geregelten Zugang zu Algorithmen und Daten, die von KI-Systemen verwendet werden.

Begründung
Es müssen Vorkehrungen getroffen werden, welche die Verantwortlichkeit und Rechenschaftspflicht für KI-Systeme und deren Ergebnisse vor und nach ihrer Umsetzung gewährleisten.

Nachprüfbarkeit bedeutet, dass Algorithmen, Daten und das Entwurfsverfahren einer Bewertung unterzogen werden können. Das heisst nicht unbedingt, dass Informationen über Geschäftsmodelle und geistiges Eigentum im Zusammenhang mit dem KI-System immer öffentlich verfügbar sein müssen. Die Bewertung von KI-Systemen durch interne und externe Prüfungen und das Vorliegen solcher Bewertungsberichte kann beträchtlich zur Vertrauenswürdigkeit der Technik beitragen. Die externe Nachprüfbarkeit sollte insbesondere bei Anwendungen sichergestellt sein, die sich auf die Grundrechte auswirken, sowie bei sicherheitskritischen Anwendungen.

Die Möglichkeit der Berichterstattung über Handlungen oder Entscheidungen, die zu einem bestimmten Systemergebnis beitragen, und auch die Reaktionsfähigkeit auf die Folgen eines solchen Ergebnisses müssen gewährleistet sein. Die Ermittlung, Bewertung, Berichterstattung und Minimierung potenziell negativer Auswirkungen von KI-Systemen ist für Betroffene besonders wichtig. Ein angemessener Schutz für Informant:innen (Whistleblower), Nichtregierungsorganisationen, Gewerkschaften und andere Stellen, die berechtigte Bedenken hinsichtlich eines KI-gestützten Systems äussern, muss gewährleistet sein. Der Einsatz von Folgenabschätzungen (z. B. «Red Teaming» oder Formen der Algorithmen-Folgenabschätzung) sowohl vor als auch während der Entwicklung, Einführung und Nutzung von KI-Systemen kann hilfreich sein, um negative Folgen möglichst gering zu halten. Diese Bewertungen müssen in einem angemessenen Verhältnis zu dem Risiko stehen, welches die KI-Systeme darstellen.

6. Robustheit, Sicherheit und Schutz

Resolution – Es gibt eine verantwortungsvolle Datenpolitik, die wirksame Regeln für Datensicherheit, Datenschutz, Schutz der Privatsphäre und die informationelle Selbstbestimmung festlegt. Zusätzlich existiert bei jedem KI-System ein «Not-Aus-Schalter». An erster Stelle steht der Grundsatz der Schadensverhütung.

Begründung
KI-Systeme müssen den Schutz der Privatsphäre und den Datenschutz in allen Phasen des Lebenszyklus eines Systems gewährleisten. Dies umfasst auch anfänglich von Benutzenden angegebene Informationen sowie die im Verlauf der Interaktion mit dem System über Benutzende erzeugten Informationen (z. B. Ergebnisse, die das KI-System für bestimmte Benutzende erzeugt oder die Reaktion von Benutzenden auf bestimmte Empfehlungen). Aus digitalen Aufzeichnungen über das menschliche Verhalten können KI-Systeme nicht nur auf persönliche Vorlieben einzelner Menschen, sondern auch auf sexuelle Ausrichtung, Alter und Geschlecht sowie religiöse oder politische Ansichten schliessen. Damit die Menschen Vertrauen in die Datenverarbeitung haben können, muss sichergestellt sein, dass die über sie gesammelten Daten nicht dazu verwendet werden, sie unrechtmässig oder unfair zu diskriminieren.

7. Sozialpartnerschaft und Mitbestimmung der Arbeitenden

Resolution – Um die Mitbestimmung aller Arbeitenden in Bezug auf KI-Systeme und die Datenverarbeitung sicherzustellen, werden zusätzlich entsprechende Personalvertretungen gebildet und mit wirksamen Mitbestimmungsrechten ausgestattet. Die Arbeitgebenden legen den Arbeitenden und ihren Gewerkschaften jeweils frühzeitig vor der Entwicklung bzw. Einführung von KI-Systemen Berichte zu den Auswirkungen auf die Arbeitenden vor – ebenso regelmässig Rechenschaftsberichte über das Wohl der Arbeitenden. Wenn ein Rechtsmissbrauch vorliegt, können die Arbeitenden auf die Anwendung bzw. Teilnahme an der Entwicklung von KI-Systemen verzichten, ohne negative Konsequenzen befürchten zu müssen. In solchen Fällen gilt ein absoluter Kündigungsschutz, besonders auch dann, wenn sie die entsprechenden internen Anlaufstellen ausgeschöpft haben und sich als Whistleblower betätigen.

Begründung
Die Gewerkschaften haben auf politischer Ebene und bei den Arbeitgebenden weitreichende Mitwirkungsrechte. Diese Rechte gilt es zu stärken, damit sie auch im Zeitalter der KI Bestand haben. KI verändert die Arbeitsverhältnisse massgeblich. Daher muss sie zu einem wichtigen Thema der Sozialpartnerschaft werden, beispielsweise in der Ausgestaltung von Gesamtarbeitsverträgen. Gerade dort, wo KI entwickelt wird, haben auch Personalvertretungen eine wichtige Rolle, damit die Mitarbeitenden besonders bei ethischen Fragen in Bezug auf zu entwickelnde KI-Systeme ein Mitspracherecht haben. Gleichzeitig sollen auch Selbständigen wie Crowdworkern kollektive Rechte und Absicherungen gewährt werden.

8. Gerechte und nachhaltige digitale Transformation

Resolution – Die gesellschaftliche und wirtschaftliche Transformation, die von der fortschreitenden Digitalisierung getrieben ist, wird gerecht umgesetzt, stellt durch Umverteilung möglichst viele Menschen besser und trägt dazu bei, Gleichstellung zwischen Frauen und Männern herzustellen. Die Produktivitätsgewinne werden nachhaltig zugunsten der Bevölkerung reinvestiert. Die Menschen werden dazu befähigt, KI-Systeme anzuwenden. Gleichzeitig wird ein Recht auf lebenslanges Lernen verankert, das frühzeitiges und umfangreiches Re- und Upskilling ermöglicht.

In keiner der drei früheren industriellen Revolutionsphasen haben sich die Befürchtungen grosser Arbeitsplatzverluste über längere Frist bewahrheitet. Stets sind genügend neue Jobs entstanden, welche die durch die Automatisierung obsolet gewordenen Stellen kompensiert haben. Die Geschichte zeigt aber auch: Die existenziellen Fragen für eine Gesellschaft während einer industriellen Revolution drehen sich nicht um die Zahl der Arbeitsplätze per se, sondern um die Folgen der Anpassungsprozesse und – vor allem – um die Verteilung des Wohlstandes.

  • Die erste Industrielle Revolution machte aus Bauern und Landwirtinnen Fabrikarbeiter:innen.
  • In der zweiten Industriellen Revolution ging es darum, durch Automatisierung (Fliessbänder) aus der Arbeit möglichst viel herauszuschlagen und gleichzeitig die Massenproduktion für den Massenkonsum zu schaffen. Das setzte Massen-Kaufkraft (steigende Löhne) voraus.
  • Die dritte Industrielle Revolution kombinierte Arbeit mit mikroelektronisch gesteuerten Maschinen. Damit sollte einerseits die Produktivität der Arbeit maximal gesteigert werden. Andererseits begann der Prozess, die Arbeit aus dem Produktionsprozess zu verdrängen. Manchmal wundern sich Industriearbeitende etwas über den Begriff «Digitale Transformation», denn sie kennen digital gesteuerte Produktionsroboter, «Lean»-Produktion und Massenentlassungen schon seit 30 Jahren. Das entspricht dem alten Traum der Kapitalbesitzer, Wachstum und Gewinn ohne Arbeit zu bekommen. Eine Illusion, denn nur Arbeit schafft Wert.
  • In der vierten Industriellen Revolution verändert das Wirtschaftssystem sein Gesicht. Sie zielt darauf, mit möglichst wenig Lohnarbeitenden zu wirtschaften und aus den vertraglich abgesicherten Vertragsverhältnissen auszusteigen. Das ist keine technologische Innovation, das ist ein historischer und gesellschaftlicher Bruch. Die Gründe dafür liegen nicht in der digitalen Automatisierung, sondern im Wirtschaftssystem.

Darum sind heute die Gewerkschaften besonders gefordert.

9. Globale Regulierung und Zusammenarbeit

Resolution – Weltweite Regulierungsmechanismen werden etabliert. Waffen, die auf KI-Systemen basieren, sind verboten.

Begründung
Big Data und KI können auch darauf ausgerichtet sein, Menschen zu schaden. Daten, KI und intelligente Systeme werden so zu ausgeklügelten Werkzeugen in den Händen einer Vielzahl von Akteur:innen, zu denen politisch Mächtige gehören. Auch Kriminelle nutzen KI. Das sollte bei Gestaltung und Regulierung von KI Berücksichtigung finden. Allerdings ist das Schadenspotenzial keine Eigenschaft der technologischen Entwicklung, sondern ein Ergebnis ihrer Nutzung. Umso wichtiger ist es, dass Gemeinden, Kantone und Staat den digitalen Raum mit ihrer gesellschaftlichen Ordnungsfunktion prägen und es nicht anderen Akteur:innen überlassen, die Ordnung zu diktieren. Und zwar über die Grenzen hinaus.

Statement zu den aktuellen Entwicklungen im Bereich der künstlichen Intelligenz

Text-To-Image-Modelle wie der Bildgenerator Stable Diffusion nutzen künstliche Intelligenz, um aus Text Bilder zu erschaffen. Damit sie jedoch in der Lage sind, diese Bilder zu generieren, benötigen sie Daten, die sie in Form von Comics, Animationen, Grafiken oder Illustrationen ohne Zustimmung der Urheber:innen aus dem Internet beziehen und als Grundlage für ihren Lernprozess nutzen. Diese neue Praxis verunsichert uns als Gewerkschaft der Illustrator:innen. Mit dem vorliegenden Statement positionieren wir uns deshalb zu den aktuellen Entwicklungen.

Als selbständige Illustrator:innen müssen wir mit unserer Arbeit online präsent sein und sind somit konstant dem Risiko ausgesetzt, dass KI-Programme ohne unsere Zustimmung Bilder aus unseren Portfolios nutzen, um davon zu lernen. Dadurch werden wir unfreiwillig zur Grundlage für KI-generierten Output. Aus urheberrechtlicher Sicht stellt dieser Lernprozess in der Schweiz bislang keine Rechtsverletzung dar. Eine Verletzung des Urheber:innenrechts besteht erst dann, wenn ein KI-Programm ein Bild generiert, das zweifelsfrei als eine Kopie eines bereits existierenden Werkes identifizierbar ist. Da ein individueller Stil immer das Ergebnis eines Lernprozesses ist und auf bereits existierenden Werken aufbaut, besteht hier das Problem der Beweisbarkeit. Ob eine Urheber:innenrechtsverletzung zutrifft, kann also nur im Einzelfall und nur im Nachhinein geprüft werden.

Vor diesem Hintergrund besteht das Hauptproblem in der Frage, aus welchen Quellen und mit welchen Bildern die KI angelernt wird und ob wir als Urheber:innen via Opt-in nach unserer expliziten Zustimmung gefragt und am Gewinn beteiligt werden. Dabei handelt es sich jedoch nicht um eine juristische, sondern eine politische Frage. Zwar machen einzelne Programme erste Schritte, um auszuschliessen, dass die KI explizit den Stil einzelner Urheber:innen nachahmen kann, diese erweisen sich jedoch bisher als ungenügend.

Aus unserer Sicht besteht das reelle Risiko, dass die aktuellen Entwicklungen im Bereich KI in naher Zukunft die ganze Kreativbranche und damit auch den Beruf der Illustrator:in akut gefährden werden:

KI reproduziert und verstärkt unhinterfragt problematische gesellschaftliche Stereotypen, Rassismen, Ableismen usw. Professionelle Illustrator:innen hingegen übernehmen hier eine Kontrollfunktion und damit eine wichtige gesamtgesellschaftlich relevante Aufgabe

KI-Anbieter:innen haben die Möglichkeit, Illustration als Massenware anzubieten. Aufgrund dieser neu entstandenen Konkurrenzsituation besteht für uns Illustrator:innen die Gefahr eines Preisdumpings. Tatsächlich liegt der faire Preis für ein menschengemachtes Werk und die Vergütung von dessen Nutzung um ein Vielfaches über demjenigen einer KI-generierten Illustration.

Illustration könnte auf lange Sicht als Handwerk verschwinden, da keine Nachfrage nach professionellen Werken mehr besteht. Die KI bedroht den Erhalt des handwerklichen Know-hows.  Wir befürchten, dass eine Kulturleistung wegrationalisiert wird. Der Wert der Einzigartigkeit und Vielfalt kreativen Schaffens wird durch die KI-Entwicklung massiv geschwächt. Er muss vor dem Einfluss von KI geschützt werden.

Es muss geklärt werden, ob es regulatorische Lücken gibt, die auf politischem Wege geschlossen gehören.

Marktvielfalt und fairer Wettbewerb sind durch KI stark gefährdet. Wem der Zugang zu den neusten Technologien verwehrt bleibt, ist schnell abgehängt. Es besteht die Gefahr eines Monopols von Tech-Giganten. Das ist vor allem in Hinblick auf die Tatsache stossend, dass Kreative mit ihren Werken der KI überhaupt erst die Entwicklungsgrundlage bieten.

  • Juristisch wird ein individueller Stil zwar schlicht als das Ergebnis eines einfachen Lernprozesses bewertet. Diese Auffassung wird dem Einfluss, den persönliche Erfahrungen und individuelle Rahmenbedingungen auf den Prozess menschlicher Kreativität haben, jedoch nicht gerecht. Hinzu kommt, dass zwischen menschlicher und maschineller Lernfähigkeit ein massives Ungleichgewicht in Bezug auf Geschwindigkeit und Datenmenge besteht. Wir fordern daher, dass auf juristischer Ebene eine Differenzierung vorgenommen wird zwischen menschlichem und maschinellem Lernen.
  • Da KI anhand von Daten lernt, muss sich, analog zum Ansatz von Verwertungsgesellschaften, eine technische Lösung finden lassen. Sobald die KI von einem Werk lernt, sollten deren Betreiber:innen eine Nutzungsgebühr bezahlen.
  • Wir verfolgen das Ziel, das Monitoring der Verwendung von KI-Programmen im deutschsprachigen Raum gemeinsam mit weiteren Verbänden zu institutionalisieren.
  • Wir klären Möglichkeiten, Werke von der Nutzung durch KI-Programme ausschliessen zu lassen.
  • Wir fordern Transparenz: KI-generierte Erzeugnisse müssen eindeutig als solche gekennzeichnet werden.

Im Sinne der Transparenz legen wir offen, dass wir zusätzlich zu den obengenannten Punkten die Ergänzung einer Kennzeichnungspflicht für Illustrator:innen, die KI für ihre Arbeiten nutzen, diskutiert haben. Aktuell beschränken wir uns jedoch auf das obengenannte Statement und verzichten im Moment auf eine Forderung nach einer Kennzeichnungspflicht von KI-Nutzung für Illustrator:innen.

Anregungen? Feedback? Eventtipps? Melde dich bei Anna Stahl.

Deine Ansprechpartner zum Thema
Künstliche Intelligenz

Daniel Hügli

Daniel Hügli

Leiter Sektor ICT
Dominik Fitze

Dominik Fitze

Mediensprecher ICT
076 519 9367
Arbeitstage: Montag bis Freitag
Anna Stahl

Anna Stahl

Regionalsekretärin Visuelle Kommunikation Deutschschweiz
0588171818

Weitere Informationen

Weitere Informationen über syndicom und unsere Gewerkschaftsorgane.

Mitglied werdenNach oben scrollen