Künstliche Intelligenz in die Schranken weisen
Ein Gipfeltreffen zu KI-Themen im Juli in Genf brachte konkrete Forderungen, wie KI national und international reguliert werden muss.
Text: Daniel Hügli
Die Künstliche Intelligenz (KI) entwickelt sich gerade vom Spielzeug zum Arbeitsinstrument. Auch für Gewerkschaften bieten sich Chancen, KI verantwortungsvoll zugunsten der Arbeitnehmenden einzusetzen. Doch es entstehen Risiken, für welche wir von den Betrieben und von der Politik Schutzvorkehrungen einfordern müssen.
Es geht um deine Daten, die für das Training von KI verwendet werden – bei WhatsApp zum Beispiel. KI-Anwendungen beziehen deine Daten ein, wenn sie Prompts verarbeiten, und verbinden sich mit deinem Mail-Postfach, Kalender oder Messenger. Inzwischen werden sogenannte KI-Agenten vermarktet, die Aktionen durchführen können: eine Buchung oder einen Online-Einkauf.

Besorgnis über ungefragte Zugriffe
Wie können wir noch vertrauliche Informationen austauschen, wenn KI auf diese zugreifen kann? Meredith Whittaker, die Präsidentin der Signal-Stiftung, also des Krypto-Messengerdienstes Signal, antwortet klar:
Es ist besorgniserregend, dass Systeme, die weder geprüft noch validiert wurden und undurchsichtig bleiben, heute in grossem Umfang eingesetzt werden, auch in sensiblen Bereichen.
Im Juli sprach sie am KI-Gipfel «AI for Good» (KI für den guten Zweck) der Internationalen Fernmeldeunion in Genf. Auch dort wurde deutlich, wie dringend regulierende Massnahmen nötig sind, wenn auch kritische Stimmen wie jene von Whittaker gegenüber Tech-Konzernen und Kriegsprofiteuren massiv in der Unterzahl waren.
Konkrete Anliegen an die Politik
KI-Anbieter müssen gezwungen werden, als Default-Voreinstellung Sperrzonen für geschützte Daten einzurichten. Die KI soll ausgesperrt werden – ohne Kosten oder Funktionseinbussen – und sie soll erst nach Zustimmung (Opt-in) und zu einem definierten Zweck auf Daten zugreifen dürfen. Dies sollte auch für den Staat gelten. Der Bundesrat will jedoch im Gegenteil die Überwachungsverordnung anpassen, was bewirken könnte, dass Schweizer Anbieter wie Threema oder Proton ihre Schutzvorkehrungen aufheben müssten.
Eine weitere Erkenntnis vom KI-Gipfel: Gesellschaft und Politik sind gefordert, mit Open-Source-Modellen eine Gegenmacht zu den Tech-Kapitalisten aufzubauen. Die Schweiz leistet hier Pionierarbeit: Die vom Bund finanzierten Hochschulen ETH und EPFL sowie das Luganeser CSCS mit dem Supercomputer «Alps» entwickelten ein offenes Grosses Sprachmodell auf öffentlicher Infrastruktur. Nun liegt es «nur noch» an Bundesbetrieben wie Post und Swisscom, mit dieser KI Dienstleistungen anzubieten, die ebenso erschwinglich wie vertrauenswürdig sind.