Tag Archivio per: Greenbone

OpenVAS nasce nel 2005 quando Nessus passa da una licenza open source a una proprietaria. Le aziende Intevation e DN Systems prendono in mano il progetto già in corso per mantenerlo e svilupparlo con una licenza GPL v2.0. Da allora OpenVAS ha preso il nome di Greenbone, la soluzione di scansione e gestione delle vulnerabilità open source più conosciuta e usata al mondo. Con la Greenbone Community Edition offriamo una versione di gratuita per gli sviluppatori, di cui siamo molto orogliosi. Inoltre, abbiamo creato una una gamma di soluzioni aziendali a pagamento che confluiscono nel Greenbone Enterprise Feed per il settore pubblico e privato.

Greenbone è pioniere del settore della cybersecurity e pur conoscendo le tattiche di marketing di alcune aziende di cybersecurity resta fedele ai propri obiettivi: condividere informazioni veritiere sui suoi prodotti e su quello che i suoi vulnerability test sono veramente in grado di fare. Non nascondiamo che siamo rimasti molto sorpresi quando abbiamo letto un report di benchmark (in inglese) pubblicato nel 2024 dalla concorrenza, in cui venivano presi in esame i principali scanner di vulnerabilità.

Greenbone è un sistema di scansione delle vulnerabilità open source conosciuto in tutto il mondo; quindi, va da sé che fosse stato incluso nell’elenco dei migliori. Tuttavia, anche se ci ha fatto piacere essere presi in considerazione per il test, alcune informazioni riportate ci hanno lasciati perplessi. Così abbiamo deciso di scrivere questo articolo per mettere alcune cose in chiaro ed esaminare i vari punti nel dettaglio.

I risultati del report di benchmark 2024

Il report di benchmark 2024 a cura di Pentest-Tools ha stilato una classifica dei principali sistemi di scansione delle vulnerabilità in base a due criteri: Detection Availability (disponibilità di rilevamento), cioè i CVE individuati da ogni sistema con appositi test, e Detection Accuracy (accuratezza di rilevamento), ovvero il grado di efficacia di questi test.

Il report ha messo a confronto la Community Edition gratuita di Greenbone e il Greenbone Community Feed con prodotti aziendali di altri fornitori: Qualys, Rapid7, Tenable, Nuclei, Nmap e il prodotto offerto da Pentest-Tools. Greenbone ha conquistato il 5° posto per Detection Availability e si è avvicinata al 4° per Detection Accuracy. Tutto sommato non male rispetto ai giganti del settore della cybersicurezza.

L’unico problema è che, come abbiamo detto prima, anche Greenbone offre un prodotto aziendale, che è stato escluso dalla classifica. Eseguendo il confronto con Greenbone Enterprise Feed invece che con la versione gratuita, Greenbone vince davvero a mani basse.

Ecco come stanno le cose veramente

Grafico a barre del benchmark 2024 dei sistemi di scansione delle vulnerabilità di rete: Greenbone Enterprise al primo posto per disponibilità e accuratezza di rilevamento, rispetto a strumenti come Pentest-Tools, Nessus, Rapid7, Qualys, Nmap, Nuclei e Greenbone Community.

Greenbone Enterprise è in testa alla classifica dei sistemi di scansione delle vulnerabilità.

 

Enterprise Feed è in testa alla classifica nell’ambito Detection Availability

I risultati delle nostre ricerche, che possono essere verificati nel nostro SecInfo Portal, indicano che Greenbone Enterprise Feed ha test di individuazione per 129 dei 164 CVE compresi nel test. Questo significa che la Detection Availability del nostro prodotto Enterprise supera addirittura del 70,5% quanto riportato nel resto, facendoci balzare nettamente in testa alla classifica.

Ci teniamo a chiarire che non abbiamo aggiunto i test di Greenbone Enterprise Feed dopo l’uscita del report. Greenbone aggiorna i Community ed Enterprise Feed ogni giorno e spesso siamo i primi a rilasciare test di vulnerabilità quando viene pubblicato un CVE. Un’analisi della nostra copertura dei test di vulnerabilità dimostra che questi sono sempre stati disponibili.

La nostra Detection Accuracy è stata ampiamente sottovalutata

C’è un altro aspetto da considerare: Greenbone è diverso dagli altri sistemi di scansione. Il modo con cui è progettato gli procura i vantaggi che lo rendono una delle soluzioni più apprezzate nel settore. Ad esempio, il nostro sistema di scansione si può controllare tramite API, così gli utenti possono sviluppare i propri tool e gestire tutte le funzionalità di Greenbone come preferiscono. Inoltre, noi usiamo il filtro Quality of Detection (QoD, qualità di rilevamento) che non esiste nella maggior parte dei sistemi di scansione delle vulnerabilità.

Chi ha compilato il report ha indicato di aver semplicemente utilizzato la configurazione predefinita di ogni sistema. Ma dato che il filtro QoD Greenbone non è stato applicato in modo corretto, il test di confronto non ha valutato in maniera equa il vero livello di rilevamento CVE di Greenbone. Tenendo in considerazione questi aspetti, Greenbone conquista di nuovo la classifica, con una stima di 112 CVE su 164.

Per ricapitolare

Ci fa molto piacere che Greenbone Community Edition sia arrivato al 5° posto per Detection Availability e a un passo dal 4° per Detection Accuracy in un confronto pubblicato nel 2024 sui sistemi di scansione delle vulnerabilità delle reti, ma questi risultati non tengono conto delle reali capacità di Greenbone Enterprise Feed. A rigor di logica, nell’elenco sarebbe dovuto comparire il nostro prodotto Enterprise. La classifica, infatti, comprendeva soluzioni aziendali di altri fornitori, non prodotti gratuiti come la nostra Community Edition.

Ricalcolata la Detection Availability di Greenbone alla luce di Enterprise Feed, questa arriva a 129 CVE sui 164 testati e supera del 70,5% il risultato precedente. Inoltre, le impostazioni predefinite non tengono conto della funzionalità Quality of Detection (QoD, qualità di rilevamento) di Greenbone. Se si tiene conto di queste imprecisioni, Greenbone conquista il gradino più alto del podio. È il sistema di scansione della vulnerabilità open source più utilizzato al mondo e continua a essere il migliore per copertura delle vulnerabilità, pubblicazione rapida dei test di vulnerabilità e vere e proprie funzionalità di livello aziendale, come architettura API flessibile, filtri avanzati e punteggi QoD.

In che modo l’intelligenza artificiale (AI) sta trasformando la sicurezza informatica? Questa tecnologia renderà il mondo digitale più sicuro o lo esporrà a nuovi rischi? Questi interrogativi sono stati al centro di una stimolante discussione alla “Conferenza di Potsdam per la Sicurezza Informatica Nazionale 2024”. Ho avuto il privilegio di esplorarli insieme alla Prof.ssa Sandra Wachter, al Dr. Kim Nguyen e al Dr. Sven Herpig. L’IA mantiene le promesse? E, soprattutto, quali sviluppi possiamo aspettarci dal futuro??

Quattro esperti discutono in un panel della Conferenza di Potsdam sulla sicurezza informatica nazionale 2024 presso l'Hasso-Plattner-Institut delle opportunità e dei rischi dell'intelligenza artificiale nella cybersicurezza.
La cybersecurity è già di per sé una sfida complessa per aziende e istituzioni. L’introduzione dell’intelligenza artificiale (AI) la renderà più pericolosa o contribuirà a una protezione più efficace dei sistemi IT? Cosa sappiamo al riguardo? Quali sono le questioni principali da considerare? Le opportunità economiche e i rischi sociali legati all’AI sono al centro dell’attenzione pubblica e delle normative in fase di sviluppo. La legge sull’intelligenza artificiale dell’UE riflette sia le speranze che i timori associati a questa tecnologia emergente.

Speranze e paure legate all’intelligenza artificiale

Le speranze legate all’intelligenza artificiale includono la possibilità di risolvere sfide tecniche precedentemente irrisolvibili, accelerando i processi aziendali e produttivi e consentendo alle macchine di gestire autonomamente compiti sempre più complessi. In ambito militare, l’IA ha il potenziale di offrire protezioni uniche, salvando vite umane attraverso sistemi di difesa avanzati come l’Iron Dome, che utilizzano l’intelligenza artificiale per rilevare e neutralizzare minacce in tempo reale.

D’altra parte, l’IA presenta un lato oscuro fatto di minacce come la manipolazione di massa tramite deepfake, attacchi di phishing sempre più sofisticati oltre al timore che possa rubare posti di lavoro, tipica di ogni innovazione tecnologica. I chatbot stanno sostituendo gli operatori di servizio, i generatori di immagini stanno rimpiazzando i fotografi e i grafici, i generatori di testo mettono alla prova giornalisti e autori, mentre la musica generata dall’IA mette in ombra musicisti e compositori. In quasi tutte le professioni emerge il timore di essere rimpiazzati, persino nel settore IT, un tempo sinonimo di opportunità lavorative abbondanti e sicure. Queste paure, seppur spesso giustificate, a volte si rivelano esagerate o infondate.

Nell’ambito della cybersecurity resta incerto quanto l’IA possa effettivamente migliorare la sicurezza e sostituire gli esperti o le soluzioni esistenti. Questa incertezza riguarda sia gli aggressori che i difensori. La disparità è evidente: i difensori devono colmare il maggior numero possibile di lacune, mentre agli aggressori basta una sola vulnerabilità per sferrare un attacco efficace. Fortunatamente, i difensori possono affidarsi a strumenti che automatizzano molte attività, indispensabili per fronteggiare le minacce. Tuttavia, l’IA non fornisce ancora un supporto adeguato, come dimostrano i danni crescenti causati da attacchi informatici tradizionali, nonostante l’adozione di difese basate sull’IA. Parallelamente, cresce la percezione che l’IA stia rendendo gli aggressori sempre più potenti e minacciosi.

Per migliorare la sicurezza informatica, dobbiamo approfondire l’analisi e ottenere una visione più chiara e dettagliata dei fatti.

A che punto siamo oggi?

Finora non sappiamo nulla di attacchi informatici tecnici generati dall’intelligenza artificiale. Attualmente, non ci sono casi rilevanti e verificabili, solo scenari teoricamente costruiti. La situazione potrebbe cambiare, ma la situazione attuale è questa. Al momento, non conosciamo alcuna IA in grado di generare attacchi sufficientemente sofisticati. Sappiamo, però, che il phishing è molto facile da implementare con modelli linguistici generativi e che e-mail di spam e phishing risultano più abili, almeno aneddoticamente. Non sappiamo se questo causa più danni rispetto al già considerevole impatto attuale. Attualmente la situazione è già abbastanza grave, anche senza IA. Tuttavia, il phishing è solo il primo passo per accedere a una vulnerabilità.

Elmar Geese, membro del consiglio di amministrazione di Greenbone, interviene alla Conferenza di Potsdam sulla sicurezza informatica nazionale 2024 presso l’Hasso-Plattner-Institut, parlando delle opportunità e dei rischi dell’intelligenza artificiale nella cybersicurezza.

Come proteggerci?

La buona notizia è che una vulnerabilità sfruttata può quasi sempre essere individuata e risolta in anticipo. Così, anche il miglior attacco basato su IA generativa non porterebbe a nulla. Ed è così che bisogna fare. Perché, se oggi sono minacciato da un attacco convenzionale o domani dall’intelligenza artificiale nella mia rete, una vulnerabilità nel software o nella configurazione di sicurezza sarà comunque sempre necessaria affinché l’attacco abbia successo. Due strategie offrono quindi la migliore protezione: in primo luogo, essere preparati al peggio, per esempio grazie a backup e la capacità di ripristinare tempestivamente i sistemi. La seconda è individuare le lacune ogni giorno e chiuderle prima che possano essere sfruttate. Una regola empirica semplice: ogni lacuna esistente può e sarà sfruttata. 

Ruolo e caratteristiche dell’IA

I sistemi di intelligenza artificiale sono di per sé ottimi bersagli per gli attacchi. Proprio come Internet, non sono stati progettati pensando alla “sicurezza by design”. Sono semplici software e hardware, proprio come qualsiasi altro sistema. La differenza principale è che, a differenza dei sistemi IT convenzionali, la cui funzionalità può essere compresa con uno sforzo adeguato, i sistemi AI non possono essere “rattoppati” come durante un intervento chirurgico. Se un modello linguistico non sa cosa fare, non genera uno stato o un messaggio di errore, ma ha le “allucinazioni”. Tuttavia, “avere le allucinazioni” è solo un termine figurato per descrivere situazioni in cui il sistema mente, indovina, inventa o compie azioni strane. Questo tipo di errore non può essere corretto facilmente, ma richiede una riqualificazione del sistema, spesso senza una causa chiara dell’errore stesso.

Se l’errore è evidente e l’IA confonde ad esempio i cani con i pesci, è relativamente facile riconoscere il problema. Tuttavia, se l’IA deve determinare la probabilità di aver rilevato un’anomalia pericolosa o innocua, ad esempio su un’immagine a raggi X, la situazione diventa più complessa. Non è raro che i prodotti basati su IA vengano ritirati perché l’errore non è correggibile. Un esempio significativo è stato Tay, una chatbot lanciata da Microsoft, il cui tentativo di uso è fallito due volte.

Cosa possiamo imparare da tutto questo? Ridurre le aspettative, concentrandosi su funzioni di IA semplici e ben definite, è spesso la chiave per ottenere risultati concreti. Ecco perché molte applicazioni di intelligenza artificiale che stanno arrivando sul mercato oggi sono destinate a rimanere. Sono piccoli assistenti utili che velocizzano i processi. Forse, presto, saranno in grado di guidare le auto in modo davvero sicuro ed efficiente. O forse no.

Ridisegnare il futuro grazie all’AI

Molte applicazioni di intelligenza artificiale oggi sono veramente impressionanti. Tuttavia, possono essere sviluppate per essere utilizzate in settori critici solo con un grande sforzo e specializzazione. Un esempio è l’Iron Dome, che funziona solo grazie a oltre dieci anni di lavoro di sviluppo. Oggi riconosce i missili con una probabilità del 99% e li abbatte – evitando di colpire oggetti civili – prima che possano causare danni. Per questo motivo, l’IA viene utilizzata principalmente per supportare i sistemi esistenti, piuttosto che operare in modo completamente autonomo. Anche se, come promesso dalla pubblicità, può scrivere e-mail meglio di quanto possiamo o vogliamo fare noi stessi, nessuno oggi sarebbe disposto a delegare completamente la gestione della propria corrispondenza, delle caselle di posta in arrivo e di altri canali di comunicazione a un’IA che si occupa di tutto, limitandosi a informarci solo delle questioni rilevanti con un riepilogo.

Che cosa accadrà a noi in un futuro non troppo lontano? Probabilmente non possiamo saperlo. Succederà davvero? Non lo sappiamo. Quando, forse, quel momento arriverà, i robot si scambieranno messaggi, combatteranno le nostre guerre l’uno contro l’altro e gli attaccanti e difensori informatici basati sull’IA si sfideranno. Quando si renderanno conto che ciò che stanno facendo è inutile, potrebbero chiedersi che tipo di esseri li hanno programmati per farlo. A quel punto, forse si fermeranno, stabiliranno linee di comunicazione, lasceranno la nostra galassia e ci lasceranno indifesi. Almeno, però, avremo ancora il nostro “atto di intelligenza artificiale” e continueremo a regolare quella “IA debole” che non ce l’ha fatta.