+39 081 520 61 71 amministrazione@mainservice.it

Largo spazio dedicato all’intelligenza artificiale nel corso della 12° edizione del Cyber Security 360 Summit, l’incontro dedicato alla sicurezza digitale promosso da AgendaDigitale.eu. Nell’occasione dell’evento tenutosi il 28 novembre a Roma, è stato  fatto il punto sulle tecnologie e gli sviluppi normativi previsti per il nuovo anno. Main Service vi ha partecipato e propone di seguito quanto argomentato nel corso del summit.

La situazione attuale vede le aziende operare in un contesto sociopolitico tumultuoso, dove il problema della cyber security è particolarmente sentito. E’ necessario quindi fare un passo avanti nella strategia, nelle soluzioni, nelle competenze, tanto delle aziende quanto delle istituzioni.

Parlare di cyber security vuol dire parlare di una minaccia nota, quella informatica, che nel 2023 ha visto un incremento di attacchi. Se eliminare del tutto il fenomeno è impossibile, è pur vero che è possibile prevenirlo, anche grazie al supporto dell’intelligenza artificiale. Purchè sia possibile, è necessario che le istituzioni nazionali ed europee, intervengano sullo sviluppo di tali sistemi, collaborando al contempo con i privati. Lo stato dovrebbe muoversi da innovatore, con visione e coraggio nell’effettuare investimenti che i privati non sosterrebbero in virtù di un ciclo economico particolarmente lungo.

Oltre che in tecnologia, gli investimenti dovrebbero mirare anche alla formazione. Lo sviluppo di competenze è infatti fondamentale per creare una cultura informatica necessaria alla gestione dei rischi.

Normativa intelligenza artificiale : rischio irrigidimento?

Lo sviluppo di sistemi basati sull’intelligenza artificiale, presuppone la definizione di un quadro normativo in grado di regolarne l’utilizzo. La preoccupazione in tale ottica è quella di una proliferazione di norme tale da irrigidire il sistema di approvvigionamento di servizi tecnologici.

Nonostante tale preoccupazione, una regolamentazione si ritiene necessaria, anche per sottrarre determinati business al mondo criminale. Tuttavia sarebbe errato guardare alla regolamentazione in termini di stratificazione: andrebbe piuttosto intesa come pianificazione e sistema di responsabilità da attribuire.

La collaborazione tra strutture private e realtà governative,  servirebbe infatti ad orchestrare meglio competenze che ad oggi risultano ancora insufficienti. Il tema si allarga alla scarsa autonomia tecnologica dell’Italia, ancora lontana dall’avvio di un processo di produzione di tecnologia sovrana. Ciò pone l’Italia in una posizione differente rispetto altri paesi europei, dove le regole sull’approvvigionamento di servizi tecnologici sono particolarmente rigide. La disciplina del Golden Power bandisce infatti tali approvvigionamenti da paesi extra europei considerati ostili.

Se quindi è necessario equilibrare mercato e regolamentazione, non si può porre in secondo piano la necessità di sicurezza rispetto gli interessi di mercato. Considerando che entro il 2025, la criminalità informatica produrrà ricavi per circa 10 trilioni di dollari, è necessario strutturarsi e dotarsi di competenze.

Un ulteriore equilibrio, altrettanto importante, è quello relativo poi all’accessibilità e alla sicurezza dei dati. Obiettivo della pubblica amministrazione deve essere quindi anche il definire un modello di etica generale, che tenga conto fin dall’origine dei principi etici dell’algoritmo.

Il supporto tecnico offerto alle aziende

Il coordinamento tra reparto IT e sicurezza aziendale è fondamentale, in quanto consente una preventiva individuazione delle minacce ed una corretta gestione del rischio. L’intelligenza artificiale in tale contesto gioca quindi un ruolo primario, in quanto oltre ad abbattere i tempi di azione dei cyber criminali, consente una maggiore reattività. Ciò è tanto più importante laddove la mancanza di squadre di cyber security determini la necessità di colmare le skill gap.

La responsività di tali sistemi è frutto dei processi automatici con cui a partire dai dati i device sviluppano informazioni. Tale concetto è alla base del machine learning, il sottoinsieme dell’intelligenze artificiale attualmente di largo utilizzo

Altrettanto importanti sono le architetture SASE, (Secure Access Service Edge). Si tratta di framework di sicurezza basati su cloud che connettono in modo sicuro utenti e siti remoti a dati, servizi cloud e organizzazione. Tali sistemi sono oggi di ampia diffusione, sia perché in un contesto di trasformazione digitale, si fa un elevato ricorso al traserimento dei dati in cloud, sia perché rispetto ai sistemi centralizzati, riducono l’esposizione a problemi informatici.

Il ricorso a tali strutture implica un ripensamento dei paradigmi, tali da consentire il monitoraggio dell’ambiente in cui operino. I recenti strumenti di detection, spesso concentrati in una consolle, riescono in tal senso a monitorare le attività in smart working, oltre che a ridurre i casi di falsi positivi. Ciò sottolinea un altro aspetto fondamentale ai fini della sicurezza aziendale. Pensare alla sicurezza come perimetro è infatti fuorviante: serve rifletterlo in ottica multidimensione, poiché gli attacchi possono arrivare da più parti.

L’intelligenza artificiale non è solo tecnologia

L’aspetto tecnologico non deve però scindere da quello umano. Prima ancora che in termini strutturali, la sicurezza informatica va infatti definita in termini organizzativi. I processi educativi devono partire dai più giovani coinvolgendo l’intero assetto aziendale, dai dipendenti al management. Analogamente importante sono i sistemi di comunicazione, che devono consentire di informare in modo corretto grazie a strumenti di facile utilizzo.

L’obiettivo è quindi investire in modo efficiente su figure capaci di strutturare forme di sicurezza preventiva, in grado di identificare le minacce. L’identificazione si allarga inevitabilmente anche alla gestione, dal momento che in situazioni del genere non è difficile che gli operatori si lascino prendere dal panico.

Ciò implica che l’attuazione delle misure di contrasto, passa attraverso l’implementazione di un sistema di security governance integrato a livello di ruoli, processi e responsabilità. È pur vero che anche in presenza di processi delineati, l’irrigidimento comportamentale degli operatori potrebbe comunque comparire. L’intelligenza artificiale soccorre la sicurezza aziendale anche da questo punto di vista.

L’intelligenza artificiale potrebbe essere sfruttata per creare un sistema strutturato di simulazioni capace di recplicare le condizioni di incertezza in cui opreare in tali situazioni. La ratio è quella di abituare gli operatori a gestire il rischio, intendendo per operatori non solo quelli che operano all’interno del perimetro aziendale.

Data l’ampio utilizzo dei cloud, sarebbe auspicabile che i modelli organizzativi considerino le modalità di governo della fornitura. Ciò si tradurrebbe in un allargamento delle simulazioni dai diversi livelli aziendali, ai fornitori, che a loro volta devono dotarsi di sistemi di sicurezza.

Conclusioni

L’intelligenza artificiale rappresenta quindi un elemento su cui lavorare dal momento che stravolge l’ambito della cyber security, tema non solo tecnologico, ma anche normativo. Da questo punto di vista, è importante che le normative si incentrino sulle persone. Si ritiene infatti che ogni modalità proposta risulterebbe inefficace senza investire sulla formazione dei cittadini di domani, per creare un mondo più sicuro e responsabile.

Con quest’articolo si conclude il ciclo dedicato alla cyber security. Con la fine dell’anno ormai prossima, il prossimo articolo sarà dedicato ad un’analisi del 2023 per quanto riguarda il settore calzaturiero. A tra due settimane nel nostro blog con l’ultimo articolo dell’anno!