L’intelligenza artificiale (IA) si sta evolvendo da giocattolo a strumento di lavoro. Anche per i sindacati si aprono opportunità per utilizzare l’IA in modo responsabile a favore dei lavoratori. Ma nascono rischi per i quali dobbiamo esigere misure di protezione dalle aziende e dalla politica.

Si tratta dei tuoi dati, che vengono utilizzati per l’addestramento dell’IA, ad esempio su WhatsApp. Le applicazioni IA riprendono i tuoi dati quando elaborano i «prompt» (ovvero, le richieste) e si collegano alla tua casella di posta elettronica, al calendario o al servizio SMS. Nel frattempo vengono commercializzati i cosiddetti agenti IA, che possono eseguire azioni: una prenotazione o un acquisto online.

Preoccupazione per gli accessi non richiesti

Come facciamo a scambiare informazioni riservate quando l’IA può accedere proprio a tali informazioni? Meredith Whittaker, la presidente della fondazione Signal (legata al servizio di messaggistica criptata dallo stesso nome), risponde in maniera tassativa:

È preoccupante che sistemi che non sono stati né verificati né validati e rimangono poco trasparenti vengano oggi utilizzati su larga scala, anche in settori sensibili.

Lo ha affermato la stessa Whittaker ai primi di luglio a Ginevra, invitata al vertice «AI for Good» dell’Unione internazionale delle telecomunicazioni. Anche se voci critiche come quella di Whittaker nei confronti dei colossi della tecnologia erano in minoranza, è apparso evidente quanto urgenti siano misure regolatorie nel campo dell’IA.

Richieste concrete alla politica

I fornitori di IA dovrebbero infatti essere obbligati a istituire come impostazione predefinita zone di esclusione per i dati protetti. L’IA deve essere esclusa – senza costi o perdite di funzionalità – e deve poter accedere ai dati solo dopo consenso (opt-in) e per uno scopo definito. Questo dovrebbe valere anche per lo Stato. Il Consiglio federale vuole invece al contrario adattare l’ordinanza sulla sorveglianza. E potrebbe far sì che fornitori svizzeri come Threema o Proton siano costretti a eliminare le loro misure di protezione.

Un’altra proposta dal vertice sull’IA: società e politica sono chiamate a costruire un contropotere ai capitalisti tech con modelli «open source». In questa direzione, la Svizzera fa un lavoro pionieristico. I Politecnici federali di Zurigo (ETH) e Losanna (EPFL) finanziati dalla Confederazione, così come il CSCS di Lugano con il supercomputer «Alps», hanno sviluppato un grande modello linguistico aperto su infrastruttura pubblica. Ora dipende «soltanto» dalle aziende della Confederazione come Posta e Swisscom offrire servizi con questa IA che siano tanto accessibili quanto affidabili.

Diventa membroScorri in alto