In un mondo digitale in cui l’IA sta prendendo piede, ogni persona deve poter decidere liberamente e sotto la propria responsabilità, dove e in che misura desidera agire supportata dalla tecnica e in quali casi desidera agire autonomamente senza l’assistenza da parte dell’IA. Eventi e risultati che la riguardano direttamente ma che possono essere al di fuori della sua influenza, devono essere per lei comprensibili. Siamo convinti che il grande potenziale dell’IA possa realizzarsi solo nel momento in cui quest’ultima venga orientata alle esigenze delle persone e accettata dalla società.

Questo deve però avvenire in un contesto scelto autonomamente e corretto dal punto di vista etico e giuridico. A tal fine l’umanità deve continuare a mantenere la sua sovranità. Sulla base della nostra esperienza con le tecnologie di comunicazione riteniamo che sia indispensabile nello sviluppo e nell’impiego dell’IA includere sin dall’inizio questioni etiche e verificare costantemente l’attualità delle risposte a queste domande. L’obiettivo deve essere che nell’ambito di diritti umani, partecipazione democratica, stato di diritto e ridistribuzione sociale, l’IA vada a vantaggio delle persone e della loro libertà – e non unicamente delle aziende.

Contenuto della pagina
Algoritmi sul posto di lavoro
Opportunità e rischi
9 principi guida relativi all’IA per un futuro a misura d’umanità

A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

Algoritmi sul posto di lavoro

In Svizzera le/i dipendenti sono sempre più interessate/i dall’uso di sistemi algoritmici sul posto di lavoro. È necessario garantire che l’autonomia delle/dei dipendenti sia preservata e che anche loro, e non solo i datori di lavoro, traggano vantaggio dall’uso di questi sistemi.

Una condizione importante, a tal fine, è che le/i dipendenti possano dire la loro, che siano coinvolti/e nelle discussioni e che possano fornire contributi significativi.

Attualmente, tuttavia, è evidente che spesso i datori di lavoro non coinvolgono sufficientemente le/i dipendenti nella pianificazione o nella messa in opera di questi sistemi. La partecipazione delle/dei dipendenti deve quindi essere rafforzata a vari livelli.

Le nostre richieste in breve

Estendere i diritti di partecipazioneConsentire il ricorso a esperti esterni
Rafforzare i diritti all’informazioneOttenere un diritto di azione collettivo ed effettivo
Creare delle possibilità di sanzionePrecisare la rilevanza della partecipazione per quanto riguarda la tutela della salute

Documento di posizione Algoritmi sul posto di lavoro – È tempo di aumentare la partecipazione delle/dei dipendenti

Opportunità e rischi

Cosa c’è in gioco per i lavoratori

Serve un dibattito pubblico che informi sulle opportunità e sui rischi dell’IA. Tra cui la questione su come la società possa affrontare al meglio una riduzione dell’occupazione in singoli gruppi professionali di fronte alla contemporanea comparsa di figure professionali completamente nuove.

Il futuro è a misura d’uomo
L’impiego dell’IA cela molte opportunità, come dimostrano i seguenti esempi.

Ecologia

Senza l’IA non è possibile affrontare la crisi climatica. Le tecnologie digitali possono contribuire notevolmente a portare avanti la tutela dell’ambiente, delle risorse e del clima mantenendo la biodiversità nonché rendendo più pulita l’aria, il suolo e l’acqua. Nelle «smart city», ad esempio, l’IA assume il ruolo di offrire un’elevata qualità della vita con il minimo consumo di risorse grazie al collegamento di dati relativi alla popolazione. Le svariate opportunità delle innovazioni basate sull’IA sono allo stesso tempo associate alla responsabilità di monitorare eventuali rischi come ad esempio il crescente consumo di energia, gli effetti rebound (quando il potenziale di risparmio degli aumenti dell’efficienza non può essere realizzato o può esserlo solo in parte) oppure la sicurezza delle risorse.

Salute

L’IA supporta i medici e i radiologi nella diagnosi del cancro nonché nella diagnosi di malattie rare. Un confronto tra uomo e macchina dimostra che l’algoritmo effettua la diagnosi giusta al 90%, invece i radiologi solo nella metà di tutti i casi. Grazie all’IA i non vedenti possono riconoscere le emozioni di chi gli sta attorno e percepire quanto avviene nel loro ambiente circostante. I sordi hanno la possibilità di ampliare notevolmente il loro spazio d’azione – ciò è reso possibile dall’integrazione di servizi di traduzione con un avatar in lingua dei segni. Gli scienziati sviluppano il cockpit chirurgico, un sistema completo di assistenza che monitora tutti i processi operativi e supporta i chirurghi dall’analisi delle informazioni all’esecuzione della terapia dopo aver deciso il tipo di terapia da adottare

Sicurezza IT

I reparti IT delle aziende sono tra i principali utilizzatori al mondo di IA. Con l’IA monitorano la sicurezza dei sistemi IT, rilevano e impediscono potenziali attacchi da parte di hacker.

Le soluzioni di IA analizzano automaticamente 24 ore su 24 e in tempo reale modelli comportamentali e nel contempo apprendono. Se si rivelano procedure sospette e possibili minacce, gli amministratori IT ricevono degli avvisi di allarme e possono avviare delle contromisure. I fornitori di servizi di sicurezza avanzati utilizzano il «deep learning» per scongiurare malware e attacchi cibernetici finora sconosciuti. Supportano amministrazioni statali, aziende del settore sanitario e fornitori di servizi finanziari che richiedono requisiti severi alla sicurezza IT dei loro sistemi. L’uomo si concentra sulla gestione della qualità dei dati e sul trattamento dei falsi allarmi.

Reclutamento

I chatbots semplificano il reclutamento del personale. Servono a rispondere a domande di potenziali dipendenti che sorgono in occasione di posti vacanti. L’utilità di tali soluzioni è evidente: i responsabili del personale possono concentrarsi sui candidati particolarmente interessati.

Mercato del lavoro

In settori in cui la manodopera è molto scarsa, la crescita è data dalla robotica. In molti settori della vita, come ad esempio l’accudimento degli anziani e l’assistenza agli ammalati, non ci sono sufficienti dipendenti per coprire il fabbisogno in costante crescita. Ed è qui che i robot devono colmare questa lacuna al fine di sostenere il fabbisogno di assistenza nell’esecuzione di operazioni di routine. La società che invecchia incrementerà ulteriormente il fabbisogno di robotica negli anni a venire.

Perdita del controllo
L’impiego di IA comporta anche rischi come dimostrano i cinque esempi seguenti.

Democrazia

Tutto ciò che può essere eseguito tramite routine decisionali chiaramente definite sarà realizzabile prima o poi con l’aiuto di grandi pool di dati e algoritmi. Ma si tratta poi di decisioni? Non si tratta piuttosto di routine intelligenti? Questa non è solo una questione concettuale. Questa questione è importante, poiché ci fa capire cosa pensiamo delle decisioni prese dall’uomo e in che misura diamo importanza all’uomo come decisore e sovrano. La più grande sfida nella società democratica consiste nel fatto che con l’ampio impiego di big data e IA si ridefiniscono i processi e le routine decisionali sociali – comprese le informazioni e le comunicazioni preparatorie, d’accompagnamento o commentate.

«Fake News»

Ultimamente il tema delle «fake news» è stato discusso intensamente anche a livello delle nuove leggi contro la loro diffusione. La preoccupazione che si diffondano, soprattutto attraverso i social media, notizie prive di fondamento che vanno a influenzare i processi democratici come le elezioni e i referendum, è emersa in particolare nella valutazione a posteriori delle elezioni presidenziali degli USA del 2016. Dopo un’attenta osservazione, un preoccupante articolo su Cambridge Analytica che avrebbe esercitato una grande influenza a favore di Trump attraverso analisi granulari di gruppi target su Facebook, si è rivelato particolarmente gonfiato.

Censura e sorveglianza

Un effetto chiaramente negativo sulla libertà di informazione e di opinione è dato dal progresso tecnico a seguito di misure di censura e di sorveglianza che includono dati biometrici (ad es. sistemi di riconoscimento del volto). La possibilità di penetrare in molti sistemi tramite backdoor ed exploit, sono usate non solo dai servizi segreti, ma anche da istituti di repressione e di censura di paesi autoritari e infine anche dai criminali.

Mercato del lavoro

Big data e IA faranno sì che numerose attività non vengano più richieste dal mercato del lavoro. Questo è certo. Quali e in che misura, con che velocità e dove? Qui esistono svariate previsioni in merito, tanto da non rendere possibile un dettagliato masterplan IA di politica del mercato del lavoro. Alcune tendenze sono tuttavia prevedibili: saranno sicuramente coinvolti anche quei gruppi di professioni in cui finora molti lavoratori dotati di know-how si credevano al sicuro. Proprio questi gruppi di professioni – dalla gestione delle pratiche alla revisione contabile – sono attualmente al centro dell’attenzione. L’IA è particolarmente efficiente ogniqualvolta si tratta di svolgere operazioni di routine, di imparare gradualmente e di apprendere attività più complesse. I posti di lavoro con mansioni di questo tipo sono in pericolo – soprattutto nelle fasce salariali inferiori dove vengono eseguite operazioni altamente ripetitive. Ma non vengono risparmiati neppure i posti di lavoro d’ufficio dove le attività possono essere eseguite in modo rapido ed economico dall’IA. In prima linea sono a rischio i posti di lavoro che per motivi di costi sono già stati delocalizzati offshore. Vi rientrano ad esempio migliaia di impiegati addetti alla compliance presso grandi gruppi bancari poiché utilizzano sempre più l’IA per affrontare i cambiamenti nel contesto regolamentare.

Responsabilità

L’IA può essere una tentazione di sviluppare la mancanza di volontà umana in responsabilità trasferendola all’IA.

CONCLUSIONE: Servono norme vincolanti

syndicom riconosce il potenziale dell’Intelligenza artificiale per il progresso sociale, se questa viene impiegata a favore dell’uomo. syndicom partecipa attivamente al dibattito sociale affinché il benessere delle persone venga al primo posto quando vengono concepiti, sviluppati, introdotti e impiegati sistemi di IA.

L’interazione tra uomo e sistema IA cela l’opportunità di ripensare e riorganizzare il rapporto degli aspetti della vita tra di loro, in particolare in relazione a un’importante riduzione dell’orario di lavoro senza perdite di reddito. La tecnologia non è mai neutrale, ma viene prodotta in un determinato contesto economico, sociale, culturale e politico. Per poter sfruttare le opportunità e allo stesso tempo ridurre al minimo i rischi in relazione all’IA, syndicom intende regolamentare lo sviluppo e l’impiego dell’IA. I seguenti principi guida derivanti dalla risoluzione in materia di IA sono l’inizio.

9 principi guida relativi all’IA per un futuro a misura d’umanità

1. Autonomia e controllo

Risoluzione

I sistemi di Intelligenza artificiale sono al servizio delle persone e della loro autonomia, della società nonché del pianeta, per cui le persone mantengono in qualsiasi momento il controllo sulla macchina. I sistemi di IA non hanno pertanto una personalità giuridica propria – l’uomo continuerà a esserne responsabile. Viene rispettata la dignità umana.


Motivazione

La relazione uomo-sistema sta mutando: avviene un cambio di paradigma verso il modello della partnership. Lo scopo dei sistemi intelligenti è quello di sgravarci. Sono in grado di assumere questa funzione di sgravio poiché percepiscono il loro ambiente, dispongono di una memoria e agiscono in modo autonomo. L’uomo non domina pertanto più il sistema bensì interagisce con esso. Al fine di evitare effetti paternalistici a seguito di decisioni automatizzate che limitano la libertà di azione dell’uomo, serve un costante controllo del sistema e possibilità di intervenire nello stesso. Gli utilizzatori deve poter comprendere come vengono sviluppati e allenati i sistemi intelligenti.

I processi decisionali di particolare responsabilità – ad es. nella guida autonoma di veicoli oppure nella diagnostica sanitaria – dovrebbero essere strutturati in modo tale che l’ultima competenza decisionale spetti agli attori responsabili, fino a quando la qualità di controllo dell’IA non avrà raggiunto un livello accettato da tutti i partecipanti. In questo modo nei processi di approvazione di veicoli a guida autonoma, l’autonomia viene estesa solo a piccoli passi.

2. Diritti fondamentali e diritti umani

Risoluzione

Nei sistemi di IA avviene un’adeguata verifica. I diritti umani e i diritti in materia di libertà nonché i principi dello Stato di diritto e democratici vengono tutelati, rispettati e accompagnati da meccanismi correttivi. I sistemi di IA sono conformi alle regole definite dalle persone nonché al diritto e alle leggi. Nei sistemi di IA e nei loro risultati, distorsioni e pregiudizi nonché discriminazioni vengono ridotte al minimo. Parità, non-discriminazione e solidarietà sono il filo conduttore dell’azione. Nello sviluppo di sistemi di IA viene rispettata e promossa la diversità degli sviluppatori.
 

Motivazione

Crediamo a un approccio nei confronti dell’etica di IA basato sui diritti fondamentali ancorati nella legislazione internazionale in materia di diritti umani. Il rispetto dei diritti fondamentali in un quadro di democrazia e di stato di diritto forma la base più promettente per la determinazione di principi e valori etici astratti che possono essere concretizzati nell’ambito dell’IA. A tutte le persone deve essere concessa la stessa considerazione per il loro valore morale e la loro dignità. Questa rivendicazione va oltre la non discriminazione che tollera le differenze tra situazioni simili sulla base di giustificazioni oggettive. In un contesto connesso all’IA parità significa che il sistema non può fornire risultati distorti in modo scorretto (ad es. i dati utilizzati per l’allineamento dei sistemi di IA dovrebbero essere più inclusivi possibile e rappresentare diverse fasce di popolazione). Questo richiede inoltre adeguato rispetto per persone e gruppi eventualmente a rischio, ad es. lavoratori, donne, persone con disabilità, minoranze etniche, bambini, consumatori o altri gruppi a rischio di esclusione. Proprio per questo la diversità degli sviluppatori è così importante.

Un particolare modo di creare legittimità sono i processi politici, ovvero il modo di comunicare prima, durante e dopo decisioni vincolanti a livello collettivo. La possibilità di informarsi e il diritto alla formazione della propria opinione giocano un grande ruolo per la nostra comprensione dei processi democratici. Questo tema viene toccato dalla digitalizzazione e recentemente dal coinvolgimento dell’IA in applicazioni di massa. Gli assistenti digitali decidono quali informazioni farci vedere, ci supportano nella formulazione delle nostre opinioni e pensieri. Gli algoritmi svolgono un ruolo importante anche nell’ulteriore diffusione di notizie e possono intervenire sull’elenco di tematiche da proporre nel dibattito pubblico.

3. Responsabilità etica e sociale

Risoluzione

Nel design, sviluppo, introduzione e impiego di sistemi di IA viene esercitata la responsabilità sociale ed etica. Con i sistemi di IA si agisce in modo affidabile. Si applica il principio « Ethics by Design ».


Motivazione

I progettisti di IA hanno una responsabilità etica nell’elaborazione di sistemi di IA che si ripercuotono positivamente sulla società, sono conformi alle disposizioni giuridiche e soddisfano i nostri più elevati standard etici.

Chi viene ritenuto responsabile delle conseguenze se le persone delegano le decisioni alle macchine? A causa di questa domanda gli specialisti si dichiarano contrari ai sistemi completamente autonomi e a favore di una persona nel circuito (loop). Altrimenti ci cederebbe la responsabilità etica per la progettazione sistemica.

La responsabilità deve rimanere in capo all’uomo. È ciò che avviene già oggi, quando ad esempio guidiamo un’auto – non cambia nulla in termini di responsabilità. È necessario che esercitiamo il potere sulle macchine e vi è motivo di ritenere che saremo ancora in grado di farlo anche in un prossimo futuro.

4. Trasparenza e interoperabilità

Risoluzione

I sistemi di IA sono trasparenti, comprensibili, spiegabili e riconoscibili in quanto tali. I loro risultati sono riproducibili, rintracciabili e affidabili. I dati e i formati elaborati e risultanti sono interoperabili. Se le decisioni dei sistemi di IA riguardano le persone, esse hanno il diritto di contestare tali decisioni e farle verificare da una persona (« human review »).
 

Motivazione

Per avere fiducia nei sistemi intelligenti nella pratica quotidiana, servono sufficienti informazioni sul relativo funzionamento e sulle possibili conseguenze. I meccanismi del sistema devono essere trasparenti al fine di fornire informazioni per il proprio operato e per poter determinare autonomamente se e in che misura dargli fiducia. Gli elementi chiave di una catena di processo di tipo etico sono di conseguenza: informazione → trasparenza → riconoscimento → autodeterminazione → fiducia. La fiducia è tanto più importante quanto più alto è il rischio.

5. Documentazione e responsabilità

Risoluzione

I sistemi di IA contengono un « blackbox etico » che registra i dati elaborati dal sistema. I datori di lavoro che impiegano sistemi di IA sono tenuti all’analisi e alla valutazione dei sistemi e devono renderne conto. Inoltre, per le autorità e la scienza c’è un accesso definito per legge ad algoritmi e dati che vengono utilizzati dai sistemi di IA.


Motivazione

È necessario adottare misure che garantiscano la responsabilità e la rendicontazione dei sistemi di IA e dei loro risultati prima e dopo la relativa attuazione.

Rintracciabilità significa che algoritmi, dati e il metodo di progettazione possono essere sottoposti a valutazione. Questo non significa obbligatoriamente che le informazioni sui modelli aziendali e sulla proprietà intellettuale relative al sistema di IA debbano essere sempre pubblicamente disponibili. La valutazione di sistemi di IA tramite esami interni ed esterni e la presenza di tali relazioni di valutazione può contribuire notevolmente all’affidabilità della tecnologia. La rintracciabilità esterna dovrebbe essere garantita in particolare per applicazioni che si ripercuotono sui diritti fondamentali nonché per applicazioni sensibili in termini di sicurezza.

È necessario garantire la possibilità della rendicontazione delle azioni o delle decisioni che contribuiscono a un determinato risultato di sistema nonché la capacità di reazione alle conseguenze di tali risultati. L’individuazione, valutazione, rendicontazione e riduzione al minimo di potenziali ripercussioni negative di sistemi di IA è particolarmente importante per le persone coinvolte. Deve essere garantita un’adeguata protezione per gli informatori (whistleblower), organizzazioni non governative, sindacati e altri enti che esprimono dubbi fondati nei confronti del sistema basato sull’IA. L’utilizzo di valutazioni d’impatto (ad es. « red teaming » o forme di valutazioni d’impatto basate su algoritmi) sia prima che durante lo sviluppo, l’introduzione e l’impiego di sistemi di IA può rivelarsi utile per contenere al minimo le conseguenze negative. Queste valutazioni devono essere proporzionate al rischio rappresentato dai sistemi di IA.

6. Robustezza, sicurezza e protezione

Risoluzione

Esiste una politica responsabile in materia di dati che stabilisce le regole efficaci per la sicurezza dei dati, la protezione della privacy e l’autodeterminazione informativa. Inoltre, per ogni sistema di IA esiste un «interruttore di sicurezza». Al primo posto c’è il principio della prevenzione dei danni.


Motivazione

I sistemi di IA devono garantire la protezione della privacy e la protezione in tutte le fasi del ciclo di vita di un sistema. Questo comprende anche informazioni fornite inizialmente dagli utenti nonché informazioni generate dagli utenti nel corso dell’interazione con il sistema (ad es. risultati che il sistema di IA crea per determinati utenti oppure la reazione a determinate raccomandazioni). Dai dati digitali sul comportamento umano i sistemi di IA possono desumere non solo le preferenze personali delle singole persone, ma anche l’orientamento sessuale, l’età e il sesso nonché le posizioni politiche o religiose. Affinché le persone possano avere fiducia nell’elaborazione di dati, si deve garantire che i dati raccolti attraverso di esse non vengano utilizzati a scopi discriminatori illeciti o scorretti.

7. Partenariato sociale e codeterminazione dei dipendenti

Risoluzione

I sindacati hanno ampi diritti di partecipazione a livello politico e presso i datori di lavoro. Per garantire la partecipazione di tutte le lavoratrice e di tutti i lavoratori in materia di sistemi di IA e l’elaborazione dei dati, vengono inoltre formate adeguate rappresentanze del personale che vengono dotate di efficaci diritti di partecipazione. I datori di lavoro presentano tempestivamente al personale e ai suoi sindacati, prima dello sviluppo o dell’introduzione di sistemi di IA, relazioni sulle conseguenze sul personale nonché resoconti periodici sul benessere del personale. In presenza di un abuso di diritto, le lavoratrici ed i lavoratori possono rinunciare all’impiego o alla partecipazione allo sviluppo di sistemi di IA, senza dover temere conseguenze negative. In tali casi si applica una protezione assoluta dal licenziamento, in particolare anche quando hanno esaurito i rispettivi uffici di contatto interni e operano come whistleblower.

Motivazione

I sindacati hanno ampi diritti di partecipazione a livello politico e presso i datori di lavoro. Tali diritti vanno rafforzati affinché vengano preservati anche nell’era dell’IA. L’IA modifica sensibilmente i rapporti di lavoro. Pertanto deve diventare un tema importante del partenariato sociale, ad esempio nell’elaborazione di contratti collettivi di lavoro. Proprio lì dove viene sviluppata l’IA, anche le rappresentanze del personale hanno un ruolo importante per garantire voce in capitolo ai collaboratori, in particolare in caso di questioni etiche relative a sistemi di IA da sviluppare. Allo stesso tempo anche ai lavoratori autonomi come i crowdworker devono essere garantiti diritti collettivi e tutele.

8. Trasformazione digitale equa e sostenibile

Risoluzione

La trasformazione sociale ed economica guidata dalla digitalizzazione viene attuata in modo equo, e grazie alla ridistribuzione migliora le condizioni del maggior numero possibile di persone e contribuisce a realizzare una parità tra uomo e donna. Gli incrementi di produttività vengono reinvestiti in modo sostenibile a favore della popolazione. Le persone vengono messe in condizione di utilizzare i sistemi di IA. Allo stesso tempo viene ancorato all’apprendimento permanente un diritto che consente un tempestivo e ampio reskilling e upskilling.

Motivazione

Facendo un’analisi di lungo periodo, in nessuna delle tre fasi della rivoluzione industriale precedente si sono avverati i timori per le grandi perdite di posti di lavoro. Sono costantemente nati nuovi lavori che hanno compensato i posti di lavoro divenuti obsoleti a seguito dell’automatizzazione. La storia però mostra anche che le questioni esistenziali per una società durante una rivoluzione industriale non riguardano il numero di posti di lavoro bensì le conseguenze dei processi di adeguamento e – soprattutto – la ripartizione del benessere.

  • La prima rivoluzione industriale ha trasformato i contadini e gli agricoltori in operai di fabbrica.
  • Nella seconda rivoluzione industriale si trattava di ottenere il massimo dal lavoro grazie all’automatizzazione (nastri trasportatori) e allo stesso tempo di creare una produzione di massa per un consumo di massa. Questo presupponeva un potere d’acquisto di massa (salari crescenti).
  • La terza rivoluzione industriale ha combinato il lavoro con le macchine a comando microelettronico. In questo modo da un lato ha aumentato al massimo la produttività del lavoro. Dall’altro è iniziato il processo di escludere il lavoro dal processo di produzione. Talvolta i lavoratori dell’industria si meravigliano del termine « trasformazione digitale », perché si confrontano da ben 30 anni con robot per la produzione a controllo numerico, produzione « lean » e licenziamenti di massa. Questo era un po’ il vecchio sogno dei capitalisti: ottenere crescita e guadagni senza lavoro. Un’illusione perché solo il lavoro crea valore.
  • Nella quarta rivoluzione industriale il sistema economico cambia faccia. Esso mira a svolgere le mansioni con il minor numero possibile di lavoratori stipendiati e a sganciarsi da rapporti contrattuali protetti. Questa non è un’innovazione tecnologica, è una frattura storica e sociale. I motivi non risiedono nell’automatizzazione digitale bensì nel sistema economico.

Ed è qui che oggi i sindacati vengono chiamati a intervenire.

9. Regolamentazione e cooperazione globale

Risoluzione

Vengono stabiliti meccanismi di regolamentazione mondiali. Sono vietate armi basate su sistemi di IA.
 

Motivazione

Big data e IA possono anche essere sviluppati per nuocere all’uomo. Dati, AI e sistemi intelligenti diventano così strumenti sofisticati nelle mani di una moltitudine di attori tra cui potenti politici. Anche i criminali utilizzano l’IA. Ciò dovrebbe essere considerato nella creazione e nella regolamentazione dell’IA. Tuttavia il potenziale di danneggiamento non è una caratteristica dello sviluppo tecnologico, bensì un risultato del suo utilizzo. È perciò ancora più importante che Comuni, Cantoni e lo Stato plasmino lo spazio digitale con la sua funzione di ordinamento sociale e non lascino ad altri attori la facoltà di dettare l’ordinamento. E questo vale anche oltre i confini.

I tuoi contatti sul tema
Intelligenza artificiale

Daniel Hügli

Responsabile del settore TIC

Dominik Fitze

Portavoce TIC e media
0588171818
Giorni lavorativi: Dal martedì al venerdì
Diventa membroScorri in alto