Intervista a Florian Schütz, Direttore dell’Ufficio Federale della Cibersicurezza (UFCS)
Quali sono i maggiori rischi legati all’espansione dell’uso dell’IA in tutti gli ambiti dell’esperienza umana?
“Lo sviluppo e l’espansione dell’uso dell’intelligenza artificiale in quasi tutti i settori della nostra vita porta con sé sia opportunità che rischi. L’intelligenza artificiale può aiutare a riconoscere e rispondere più rapidamente alle ciberminacce. Allo stesso tempo, gli attacchi supportati dall’intelligenza artificiale aumentano la complessità e la rapidità di queste minacce: se prima richiedevano un’ampia competenza, ora possono essere lanciate con pochi clic. La capacità dell’IA di imitare il comportamento umano rende gli attacchi di social engineering, ad esempio, molto più pericolosi. Oggi è più facile creare deep fake, configurare e-mail di phishing in modo più professionale e programmare malware in pochi secondi.
La manipolazione dell’opinione pubblica attraverso la disinformazione generata dall’intelligenza artificiale rappresenta un’ulteriore minaccia. I modelli linguistici avanzati e le tecnologie deep fake rendono sempre più difficile distinguere i contenuti autentici da quelli falsi. Ciò può minare la fiducia nelle istituzioni democratiche e aggravare le divisioni sociali. A questo proposito, sebbene sia importante una sana vigilanza contro le nuove sfide, non è comunque il caso di farsi prendere dal panico. Con il nostro video educativo, creato per il Mese europeo della cibersicurezza, desideriamo sensibilizzare i cittadini sull’uso sicuro e responsabile delle applicazioni di IA e su come riconoscere i deep fake. Infatti è solo diventando consapevoli dei pericoli che è possibile proteggersi efficacemente.”
L’AI Act, approvato dall’Ue nella primavera del 2024, è davvero efficace nell’arginare le possibili storture del nuovo sistema che si sta affermando?
“La legge europea sull’IA, adottata nella primavera del 2024, rappresenta un primo passo verso la regolamentazione di questa tecnologia. La panoramica su una possibile regolamentazione dell’IA dovrebbe essere disponibile entro la fine del 2024. Includerà chiarimenti giuridici, economici e di politica europea e verranno presi in considerazione anche gli sviluppi nell’UE e nel Consiglio d’Europa. I lavori coinvolgeranno tutti i servizi federali interessati. La panoramica ha lo scopo di creare una base decisionale per il Consiglio federale al fine di rilasciare eventuali mandati per lo sviluppo di un progetto concreto di regolamentazione dell’IA a partire dal 2025 e di definire le responsabilità.”
Uno dei temi più dibattuti è stato quello riguardante i sistemi per riconoscere automaticamente gli individui nelle riprese delle telecamere di sicurezza, in particolare riguardo all’uso che le forze dell’ordine potrebbero fare di questi dati e del rischio di schedature di massa. Ci spiega meglio?
“Il riconoscimento automatico delle persone tramite l’IA è oggetto di un dibattito controverso. La tecnologia consente un’applicazione più efficiente della legge, ma comporta anche rischi per la privacy. A tal fine risultano essenziali un quadro giuridico chiaro e meccanismi di con- trollo trasparenti.”
Rispetto alla sicurezza informatica quali sono le misure che gli stati dovrebbero adottare per un sistema di cybersecurity efficace? Soprattutto in un mondo in cui gli attacchi virtuali sono sempre più frequenti.
“Alla luce delle crescenti minacce nel ciberspazio, i Paesi e le aziende devono ripensare radicalmente la propria architettura di sicurezza. Un sistema di cibersicurezza efficace richiede un approccio olistico: le misure tecniche e il rilevamento automatico delle minacce devono essere combinati con precauzioni organizzative come team di sicurezza specializzati, che idealmente dovrebbero sedere anche nel consiglio di amministrazione nonché ricevere regolarmente formazioni. Le misure tecniche e organizzative possono essere pienamente efficaci solo laddove si stabilisca una comprensione fondamentale della sicurezza digitale. Ciò richiede investimenti continui.
Poiché il ciberspazio non ha confini chiaramente definiti, la cooperazione internazionale e i partenariati pubblico-privato sono indispensabili per l’UFCS a livello strategico. Lo sviluppo di infrastrutture digitali resilienti, salvaguardando al contempo i diritti fondamentali e i principi etici, sarà un compito fondamentale nei prossimi anni.
Ciò richiede un dialogo continuo tra politica, economia, scienza e società civile per sviluppare e attuare soluzioni valide. Sulla base di questo dialogo viene redatta e continuamente sviluppata la Ciberstrategia nazionale (CSN).”