In che modo l’intelligenza artificiale (AI) sta trasformando la sicurezza informatica? Questa tecnologia renderà il mondo digitale più sicuro o lo esporrà a nuovi rischi? Questi interrogativi sono stati al centro di una stimolante discussione alla “Conferenza di Potsdam per la Sicurezza Informatica Nazionale 2024”. Ho avuto il privilegio di esplorarli insieme alla Prof.ssa Sandra Wachter, al Dr. Kim Nguyen e al Dr. Sven Herpig. L’IA mantiene le promesse? E, soprattutto, quali sviluppi possiamo aspettarci dal futuro??

Quattro esperti discutono in un panel della Conferenza di Potsdam sulla sicurezza informatica nazionale 2024 presso l'Hasso-Plattner-Institut delle opportunità e dei rischi dell'intelligenza artificiale nella cybersicurezza.
La cybersecurity è già di per sé una sfida complessa per aziende e istituzioni. L’introduzione dell’intelligenza artificiale (AI) la renderà più pericolosa o contribuirà a una protezione più efficace dei sistemi IT? Cosa sappiamo al riguardo? Quali sono le questioni principali da considerare? Le opportunità economiche e i rischi sociali legati all’AI sono al centro dell’attenzione pubblica e delle normative in fase di sviluppo. La legge sull’intelligenza artificiale dell’UE riflette sia le speranze che i timori associati a questa tecnologia emergente.

Speranze e paure legate all’intelligenza artificiale

Le speranze legate all’intelligenza artificiale includono la possibilità di risolvere sfide tecniche precedentemente irrisolvibili, accelerando i processi aziendali e produttivi e consentendo alle macchine di gestire autonomamente compiti sempre più complessi. In ambito militare, l’IA ha il potenziale di offrire protezioni uniche, salvando vite umane attraverso sistemi di difesa avanzati come l’Iron Dome, che utilizzano l’intelligenza artificiale per rilevare e neutralizzare minacce in tempo reale.

D’altra parte, l’IA presenta un lato oscuro fatto di minacce come la manipolazione di massa tramite deepfake, attacchi di phishing sempre più sofisticati oltre al timore che possa rubare posti di lavoro, tipica di ogni innovazione tecnologica. I chatbot stanno sostituendo gli operatori di servizio, i generatori di immagini stanno rimpiazzando i fotografi e i grafici, i generatori di testo mettono alla prova giornalisti e autori, mentre la musica generata dall’IA mette in ombra musicisti e compositori. In quasi tutte le professioni emerge il timore di essere rimpiazzati, persino nel settore IT, un tempo sinonimo di opportunità lavorative abbondanti e sicure. Queste paure, seppur spesso giustificate, a volte si rivelano esagerate o infondate.

Nell’ambito della cybersecurity resta incerto quanto l’IA possa effettivamente migliorare la sicurezza e sostituire gli esperti o le soluzioni esistenti. Questa incertezza riguarda sia gli aggressori che i difensori. La disparità è evidente: i difensori devono colmare il maggior numero possibile di lacune, mentre agli aggressori basta una sola vulnerabilità per sferrare un attacco efficace. Fortunatamente, i difensori possono affidarsi a strumenti che automatizzano molte attività, indispensabili per fronteggiare le minacce. Tuttavia, l’IA non fornisce ancora un supporto adeguato, come dimostrano i danni crescenti causati da attacchi informatici tradizionali, nonostante l’adozione di difese basate sull’IA. Parallelamente, cresce la percezione che l’IA stia rendendo gli aggressori sempre più potenti e minacciosi.

Per migliorare la sicurezza informatica, dobbiamo approfondire l’analisi e ottenere una visione più chiara e dettagliata dei fatti.

A che punto siamo oggi?

Finora non sappiamo nulla di attacchi informatici tecnici generati dall’intelligenza artificiale. Attualmente, non ci sono casi rilevanti e verificabili, solo scenari teoricamente costruiti. La situazione potrebbe cambiare, ma la situazione attuale è questa. Al momento, non conosciamo alcuna IA in grado di generare attacchi sufficientemente sofisticati. Sappiamo, però, che il phishing è molto facile da implementare con modelli linguistici generativi e che e-mail di spam e phishing risultano più abili, almeno aneddoticamente. Non sappiamo se questo causa più danni rispetto al già considerevole impatto attuale. Attualmente la situazione è già abbastanza grave, anche senza IA. Tuttavia, il phishing è solo il primo passo per accedere a una vulnerabilità.

Elmar Geese, membro del consiglio di amministrazione di Greenbone, interviene alla Conferenza di Potsdam sulla sicurezza informatica nazionale 2024 presso l’Hasso-Plattner-Institut, parlando delle opportunità e dei rischi dell’intelligenza artificiale nella cybersicurezza.

Come proteggerci?

La buona notizia è che una vulnerabilità sfruttata può quasi sempre essere individuata e risolta in anticipo. Così, anche il miglior attacco basato su IA generativa non porterebbe a nulla. Ed è così che bisogna fare. Perché, se oggi sono minacciato da un attacco convenzionale o domani dall’intelligenza artificiale nella mia rete, una vulnerabilità nel software o nella configurazione di sicurezza sarà comunque sempre necessaria affinché l’attacco abbia successo. Due strategie offrono quindi la migliore protezione: in primo luogo, essere preparati al peggio, per esempio grazie a backup e la capacità di ripristinare tempestivamente i sistemi. La seconda è individuare le lacune ogni giorno e chiuderle prima che possano essere sfruttate. Una regola empirica semplice: ogni lacuna esistente può e sarà sfruttata. 

Ruolo e caratteristiche dell’IA

I sistemi di intelligenza artificiale sono di per sé ottimi bersagli per gli attacchi. Proprio come Internet, non sono stati progettati pensando alla “sicurezza by design”. Sono semplici software e hardware, proprio come qualsiasi altro sistema. La differenza principale è che, a differenza dei sistemi IT convenzionali, la cui funzionalità può essere compresa con uno sforzo adeguato, i sistemi AI non possono essere “rattoppati” come durante un intervento chirurgico. Se un modello linguistico non sa cosa fare, non genera uno stato o un messaggio di errore, ma ha le “allucinazioni”. Tuttavia, “avere le allucinazioni” è solo un termine figurato per descrivere situazioni in cui il sistema mente, indovina, inventa o compie azioni strane. Questo tipo di errore non può essere corretto facilmente, ma richiede una riqualificazione del sistema, spesso senza una causa chiara dell’errore stesso.

Se l’errore è evidente e l’IA confonde ad esempio i cani con i pesci, è relativamente facile riconoscere il problema. Tuttavia, se l’IA deve determinare la probabilità di aver rilevato un’anomalia pericolosa o innocua, ad esempio su un’immagine a raggi X, la situazione diventa più complessa. Non è raro che i prodotti basati su IA vengano ritirati perché l’errore non è correggibile. Un esempio significativo è stato Tay, una chatbot lanciata da Microsoft, il cui tentativo di uso è fallito due volte.

Cosa possiamo imparare da tutto questo? Ridurre le aspettative, concentrandosi su funzioni di IA semplici e ben definite, è spesso la chiave per ottenere risultati concreti. Ecco perché molte applicazioni di intelligenza artificiale che stanno arrivando sul mercato oggi sono destinate a rimanere. Sono piccoli assistenti utili che velocizzano i processi. Forse, presto, saranno in grado di guidare le auto in modo davvero sicuro ed efficiente. O forse no.

Ridisegnare il futuro grazie all’AI

Molte applicazioni di intelligenza artificiale oggi sono veramente impressionanti. Tuttavia, possono essere sviluppate per essere utilizzate in settori critici solo con un grande sforzo e specializzazione. Un esempio è l’Iron Dome, che funziona solo grazie a oltre dieci anni di lavoro di sviluppo. Oggi riconosce i missili con una probabilità del 99% e li abbatte – evitando di colpire oggetti civili – prima che possano causare danni. Per questo motivo, l’IA viene utilizzata principalmente per supportare i sistemi esistenti, piuttosto che operare in modo completamente autonomo. Anche se, come promesso dalla pubblicità, può scrivere e-mail meglio di quanto possiamo o vogliamo fare noi stessi, nessuno oggi sarebbe disposto a delegare completamente la gestione della propria corrispondenza, delle caselle di posta in arrivo e di altri canali di comunicazione a un’IA che si occupa di tutto, limitandosi a informarci solo delle questioni rilevanti con un riepilogo.

Che cosa accadrà a noi in un futuro non troppo lontano? Probabilmente non possiamo saperlo. Succederà davvero? Non lo sappiamo. Quando, forse, quel momento arriverà, i robot si scambieranno messaggi, combatteranno le nostre guerre l’uno contro l’altro e gli attaccanti e difensori informatici basati sull’IA si sfideranno. Quando si renderanno conto che ciò che stanno facendo è inutile, potrebbero chiedersi che tipo di esseri li hanno programmati per farlo. A quel punto, forse si fermeranno, stabiliranno linee di comunicazione, lasceranno la nostra galassia e ci lasceranno indifesi. Almeno, però, avremo ancora il nostro “atto di intelligenza artificiale” e continueremo a regolare quella “IA debole” che non ce l’ha fatta.

Nel 2024 si stima che il è stato di 9,5 trilioni di dollari. Secondo il un singolo attacco provoca in media 4,88 milioni di dollari di danni economici alla vittima e, mentre le aziende statunitensi subiscono oltre il doppio dei danni rispetto alla media globale, le imprese italiane sono in linea con i valori medi.

In testa alla classifica dei costi, troviamo le misure per , come la risposta all’incidente, la , il ripristino dei sistemi e l’obbligo di segnalazione. Anche le possono far . Nel marzo 2024 l’azienda statunitense Change Healthcare ha che ha comportato perdite stimate intorno a 1,6 miliardi di dollari. E a questi costi potrebbero seguire delle sanzioni normative.

Questo episodio evidenzia quanto sia importante mettere in atto misure di sicurezza proattive sia per evitare che gli attacchi informatici vadano a buon fine, sia per diminuire l’impatto economico se questo dovesse succedere. Secondo i rilevamenti del Ponemon Institute, il 57% dei cyberattacchi avviene per l’assenza di patch di sicurezza. E anche se implementare misure di cybersecurity preventiva contribuisce a diminuire gli attacchi informatici, secondo IBM, gli enti e le aziende che adottano un sistema di vulnerability management proattivo basato sul rischio (RBVM) subiscono costi inferiori in caso di attacco (3,98 milioni di dollari) rispetto a quelli che non adottano queste misure (4,45 milioni di dollari), hanno carenza di personale specializzato (5,36 milioni di dollari) o non sono in regola con le normative di sicurezza informatica (5,05 milioni di dollari).

Quanto è costato a Change Healthcare l’attacco ransomware

A marzo 2024 Change Healthcare ha subito un attacco ransomware che finora ha causato all’azienda circa di danni e per quanto riguarda pagamenti legati all’assicurazione sanitaria. Change Healthcare prevede che l’incidente possa causare una perdita annuale di 1,6 miliardi di dollari. Fondata nel 2007, Change Healthcare è un’importante azienda nel settore delle tecnologie legate al settore sanitario che offre sistemi di gestione del ciclo delle entrate, precisione dei pagamenti e scambio di dati clinici in tutto il mondo. In seguito all’, l’azienda è stata valutata per 8 miliardi di dollari​.

L’inchiesta sulla compliance HIPAA per Change Healthcare

Oltre al grave danno economico, l’Ufficio dei diritti civili del Dipartimento per la salute e i servizi alla persona degli Stati Uniti, l’ente responsabile dell’applicazione dell’HIPAA (Health Insurance Portability and Accountability Act, la legge su portabilità e responsabilità dell’assicurazione sanitaria), ha sull’attacco per capire se Change Healthcare ha violato i requisiti di compliance. Le regole di sicurezza HIPAA prevedono che aziende ed enti coinvolti implementino “pratiche di sicurezza riconosciute” per proteggere le informazioni sanitarie sensibili elettroniche (ePHI) da minacce alla sicurezza ragionevolmente prevedibili.

Le attività continue di vulnerability management sono un tassello essenziale di tutte le architetture di cybersicurezza moderna. Vediamo le cose in positivo: le sanzioni massime per mancata compliance HIPAA hanno un tetto di appena 2 milioni di dollari; davvero poco rispetto al costo totale di risposta e ripristino dopo questo incidente in particolare.

La piattaforma Greenbone Vulnerability Management è in grado di implementare test di compliance personalizzati per ogni framework, come CIS, DISA STIG, HIPAA. Inoltre, Greenbone è certificata per i suoi sistemi di gestione della sicurezza informatica (ISMS) (ISO 27001) e della gestione della qualità (ISO 9000) e da poco anche per la gestione ambientale (ISO-14001).