
AI e Cybersicurezza
A cura di Graziella Soluri
Per un ambiente digitale sicuro è fondamentale la sinergia tra esperti umani e algoritmi di AI.
Preambolo
Negli ultimi anni, l’intelligenza artificiale ha rivoluzionato molti settori, inclusa la cybersecurity; stiamo assistendo infatti a una vera e propria rivoluzione tecnologica legata allo sviluppo e all’utilizzo dell’AI, con sistemi automatizzati che hanno raggiunto un livello di maturità tale da poter svolgere compiti sempre più raffinati e complessi, che fino a poco tempo fa sembravano essere esclusivamente alla portata di tecnici specializzati umani.
Questa capacità dell’AI di “industrializzare” molte attività dell’intelletto umano ha posto un legittimo quesito ovvero se non sia possibile delegare ad essa la gestione, anche parziale, della sicurezza di un sistema informatico a fronte della capacità degli algoritmi di AI di rendere veloci ed efficaci le risposte alle minacce digitali sempre più complesse; tuttavia, l’adozione non supervisionata degli algoritmi comporta rischi significativi connessi alla loro vulnerabilità intrinseca a causa della sofisticatezza degli attacchi avversari e delle difficoltà nel comprendere la semantica delle minacce che spinge gli attaccanti a sfruttare le debolezze di questi sistemi.
In questo contesto, l’integrazione tra AI e cybersecurity non è più solo una strategia opzionale, ma una necessità per contrastare la crescente complessità ed efficacia degli attacchi informatici; tuttavia, la carenza globale di professionisti qualificati nel settore rende l’impiego di algoritmi per difendere aziende e professionisti da attacchi malevoli un alleato prezioso, ma non un sostituto del lavoro umano; pertanto, questo breve scritto ha come scopo quello di evidenziare la necessità di integrare le grandi capacità dell’AI in materia di sicurezza digitale con le competenze critiche e creative degli esperti umani.
Ebbene, a parere di chi scrive, per un futuro digitale resiliente, è fondamentale bilanciare l’innovazione tecnologica con una gestione proattiva del rischio e investire nella formazione continua, promuovendo una sinergia strategica tra AI e intelletto umano.
Il rapporto tra AI e Cybersecurity: benefici e sfide
Prendiamo in esame i vantaggi dell’uso dell’AI nell’ambito della sicurezza delle infrastrutture digitali delle organizzazioni pubblico o private.
L’intelligenza artificiale e gli algoritmi di Machine Learning (ML) sono strumenti utili al potenziamento delle misure difensive del perimetro di sicurezza di organizzazioni pubbliche e private perché forniscono mezzi avanzati per identificare, prevenire e rispondere alle minacce malevole in modo più efficiente. L’AI ottimizza la velocità e l’efficacia delle risposte agli attacchi, accelerando processi di analisi dei dati che un essere umano non potrebbe mai raggiungere con le proprie facoltà.
In particolare, la sua capacità di elaborare e correlare enormi volumi di dati provenienti da diverse fonti, anche quelle isolate, permette di identificare minacce nascoste e schemi ripetitivi che rivelano la presenza di attacchi informatici in corso per contrastarli efficacemente e proteggere il patrimonio informativo dell’attaccato.
Tra le varie applicazioni, ad esempio, l’AI migliora il rilevamento dei malware, estendendo il raggio d’azione degli antivirus per individuare varianti complesse; permette un rilevamento avanzato delle minacce e l’identificazione proattiva di vulnerabilità, come dimostrato dalla capacità di identificare attacchi non ancora noti basandosi su comportamenti e framework di attacchi passati. Gli algoritmi di AI possono, ad esempio, analizzare il comportamento degli utenti e il traffico di rete per identificare anomalie e attività sospette e, svolgere analisi utili nel prevenire minacce interne e rilevare tentativi di takeover degli account, inoltre gli algoritmi intelligenti consentono risposte automatizzate e la mitigazione degli incidenti di cybersecurity mediante blocco degli indirizzi IP sospetti e messa in quarantena di richieste infette provenienti da dispositivi non noti o prevedere l’avvio di procedure di risposta automatizzate.
Questo riduce i tempi di inattività e minimizza i danni grazie alla tempestiva reattività all’attacco. Inoltre, con gli algoritmi di Ai si possono automatizzare attività di sicurezza ripetitive come la gestione delle identità, l’analisi dei log e la correzione delle vulnerabilità, riducendo la dipendenza dal lavoro manuale e migliorando l’efficienza dei controlli di sicurezza al fine di liberare risorse umane da destinare a compiti più complessi e strategici.
Algoritmi di AI che auto-apprendono offrono anche la capacità di mantenere le difese sempre aggiornate, poiché gli algoritmi di ML possono essere addestrati continuamente, anche in modo autonomo predisponendo, in ogni caso, una verifica periodica umana del dataset implementato, con nuovi dati per meglio adattarli alle minacce emergenti, riducendo al contempo i falsi positivi e gli errori.
In sintesi, un ottimo sistema di sicurezza correttamente implementato e integrato con algoritmi di AI addestrati sulle minacce passate e potenziali, supervisionato e aggiornato, accanto a personale umano altamente specializzato sono la soluzione sinergica più idonea a contrastare attacchi informatici sempre più frequenti, precisi, efficaci e dannosi.
L’evoluzione delle minacce mediante algoritmi di AI
Nonostante i vantaggi, affidarsi completamente a sistemi di AI per la sicurezza informatica comporta rischi significativi per i limiti intrinseci insiti nei sistemi e per la facilità con cui gli attacchi possono essere realizzati con l’uso di sistemi di Aia scopo malevolo parimenti potenti e pervasivi.
Pertanto, un problema fondamentale dell’impiego di sistemi di ML nella cybersecurity è la presenza di un avversario non più solo umano e molto abile, ma o potenziato dagli algoritmi di AI o come autonomo agente razionale, in grado di elaborare strategie efficaci finalizzate a sfruttare le debolezze dei sistemi di riconoscimento delle minacce e penetrare le difese.
Le AI hanno infatti problemi di sicurezza intrinseci che sono spesso trascurati e solo il 40% delle aziende che utilizzano questi algoritmi hanno introdotto pratiche di sicurezza specifiche per irrobustire la difesa predisposta con questa tecnologia; purtroppo, infatti, molte delle soluzioni adottate non proteggono contro attacchi specifici alle AI, come, ad esempio, le backdoor nei modelli di machine learning.
C’è il rischio quindi che l’uso dell’AI come strumento di sicurezza si trasformi in un boomerang; in particolare, gli algoritmi di ML, pur essendo accuratissimi, non sono infallibili.
Essi sono agenti puramente sintattici, che non possono fare riferimento alle proprietà semantiche delle informazioni e, questo difetto intrinseco, rende gli algoritmi classificatori aggirabili, come dimostrato dagli attacchi che bypassano i Web Application Firewall (WAF) tramite trasformazioni sintattiche che preservano la semantica malevola.
Le minacce AI-driven includono, ad esempio, campagne di disinformazione e manipolazione dell’AI generativa capaci di incidere significativamente sui diritti e le libertà fondamentali degli utenti finali. Attacchi come il data poisoning e il data slow poisoning possono distorcere la capacità di riconoscimento di un sistema con minime perturbazioni nel modello di apprendimento.
I cyber criminali stanno anch’essi implementando l’AI per creare nuove minacce, come gli attacchi “AI driven dumpster diving” per estrarre informazioni personali, i “credential stuffing” per accedere a un grande numero di account e rubare dati sensibili, e le “spear phishing email” generate dall’AI per aumentare il successo degli attacchi.
Inoltre, l’AI, essendo una tecnologia relativamente nuova, non è ancora sufficientemente affidabile per operare in modo completamente indipendente e potrebbe non essere altrettanto efficace nel rilevare minacce nuove ed emergenti, basandosi, il suo funzionamento, su dati storici, seppur periodicamente aggiornati.
I sistemi di AI che auto-apprendono presentano molte vulnerabilità e sono esposte a corruzione o manipolazione dei dataset di input, inoltre, la mancanza di trasparenza nei loro modelli decisionali rende difficile ricostruire ciò e in che modo si è diffusa la violazione di sicurezza che ha alterato il sistema e complessa l’analisi forense post-attacco, impedendo una piena comprensione di come e perché una violazione sia avvenuta. Pertanto, è essenziale combinare l’impiego di sistemi di sicurezza gestiti con l’AI con controlli umani e strategie di sicurezza multilivello per prevenire o mitigare rischi futuri.
La carenza di competenze nel settore
Ulteriore problema da gestire in materia di sicurezza informatica è la formazione del personale che viene descritto come l’anello debole delle misure preventive adottate dall’organizzazione per far fronte ad attacchi malevoli.
La disponibilità di personale qualificato è un problema significativo a livello globale nel settore della cybersecurity; l’Europa, ad esempio, soffre di una carenza di talenti stimata in 500.000 professionisti. Assumere personale qualificato può essere costoso, e la necessità di formazione e certificazione continua è un impegno gravoso per le aziende ma remunerativo sul lungo periodo.
Infatti, sebbene gli strumenti di sicurezza basati sull’AI possano ridurre la necessità di personale specializzato e i costi associati, è essenziale riconoscere il fatto che a livello globale gruppi di esperti di cybersecurity in grado di implementare e supervisionare strumenti di AI impiegati per la sicurezza informatica anche basati sul ML è ancora troppo ridotto rispetto all’immensa domanda che si sta generando.
Tutto questo evidenzia come l’investimento in misure di sicurezza gestite anche in modo automatizzato rimane uno degli asset strategici da adottare in azienda per proteggere il patrimonio informativo delle organizzazioni mentre l’investimento nella formazione del personale umano sarà una delle misure necessarie ed imprescindibili da adottare per soddisfare le migliori esigenze di difesa.
Bilanciare l’innovazione con la gestione del rischio attraverso strategie proattive
Ebbene, per sfruttare appieno il potenziale dell’AI nella cybersecurity, le organizzazioni devono trovare un equilibrio tra l’adozione dell’innovazione e la gestione dei rischi. È fondamentale adottare una strategia di sicurezza basata sul rischio, che identifichi le aree più vulnerabili e si concentri sulla loro mitigazione. Questo include l’implementazione di piani di intervento che armonizzino la segmentazione delle reti OT, l’adozione della gestione dell’IoT nel cloud e l’impiego di tecnologie difensive potenziate dall’AI/ML per il monitoraggio attivo dei sistemi implementati.
È consigliabile investire in soluzioni di sicurezza basate sull’AI che siano in grado di rilevare e rispondere alle minacce in modo più efficace rispetto ai metodi tradizionali, ma, lo ribadiamo, per fare ciò è necessaria una preventiva analisi dei rischi cui l’organizzazione può essere esposta in ragione dell’attività svolta e del patrimonio da proteggere.
Tuttavia, l’AI deve essere impiegata in modo razionale e ponderato, riconoscendo che la decisione ultima in materia di misure di sicurezza, interventi di prevenzione e di contenimento del rischio da implementare anche in modo automatizzato, spetta sempre all’essere umano.
L’AI fornisce dati, analisi e raccomandazioni, ma è il professionista della sicurezza che deve valutare la situazione nel contesto specifico in cui la misura deve operare e prendere le decisioni finali assumendosi la responsabilità dell’uso di questi sistemi. Le informazioni fornite dall’AI, per quanto possibile, vanno sempre verificate e valutate e soprattutto conservate e analizzate come strumento informativo utile per la scelta di misure eventuali aggiuntive atte a prevenire il rischio di ulteriori tipologie di attacchi.
Le strategie proattive devono includere una formazione regolare del personale sulla consapevolezza della sicurezza per tutti i dipendenti, in quanto essi svolgono un ruolo strategico fondamentale nel mantenimento della postura di cybersecurity di un’organizzazione.
Per garantire l’efficacia delle misure adottate è necessario l’aggiornamento specifico del personale addetto alla gestione dei sistemi di sicurezza informatica basati sull’Ai, il monitoraggio dei sistemi e la valutazione continua delle soluzioni di cybersecurity adottate dagli esperti, la revisione periodica e la validazione delle prestazioni degli algoritmi.
Inoltre, è necessario aggiornare regolarmente le policy sui dati per conformarsi alla legislazione in continua evoluzione, specialmente per quanto riguarda la riservatezza e sicurezza dei dati trattati, dato che i sistemi di ML richiedono l’elaborazione di grandi quantità di dati aggregati per il training ed il corretto funzionamento.
La collaborazione con partner del settore, la condivisione di informazioni sulle minacce e la cooperazione sulle soluzioni possono aiutare le organizzazioni a rimanere al passo con le minacce informatiche comuni e più gravi. L’Unione Europea, ad esempio, sta rafforzando la cybersecurity attraverso strategie legislative come il Cyber Resilience Act (CRA) per i prodotti IoT, e partnership con aziende tech come Google e Amazon per la formazione e la condivisione di best practice.
In sostanza si possono trarre concreti benefici da sistemi di cybersicurezza basati sull’AI solo se le scelte dell’organizzazione che se ne avvale sono prese in modo consapevole, strategico e proattivo sulla base del corretto bilanciamento tra l’aggiornamento del sistema e l’uso del medesimo da parte di personale competente e altamente formato nonché la conoscenza diffusa di tutti i dipendenti dell’organizzazione delle misure necessarie da attuare per il suo corretto funzionamento.
Integrazione di algoritmi di AI e competenze umane: una sinergia imprescindibile
Da quanto sin qui evidenziato possiamo dedurre che l’AI non sostituirà completamente i lavori nell’ambito della sicurezza informatica, ma sta portando a una ridefinizione delle mansioni degli esperti di sicurezza umani. Molti dei compiti ripetitivi e banali possono essere svolti dall’AI, permettendo ai gruppi di esperti di sicurezza informatica di concentrarsi su aree a maggiore valore aggiunto. Gli esseri umani saranno sempre chiamati a gestire e supervisionare gli strumenti di AI, assicurandosi che funzionino correttamente, siano privi di pregiudizi e forniscano le giuste informazioni e risposte e siano reattivi nel contrastare attacchi indesiderati.
Potremmo quindi definire l’AI un “acceleratore di reazione” e un “abilitatore tecnologico” che supporta l’operatore umano, ma non è in grado di replicare il pensiero critico e la creatività umana; l’integrazione dell’AI nella cybersecurity, quindi, non è una soluzione miracolosa, ma un approccio multilivello che combina competenze umane e tecnologie all’avanguardia necessarie a contrastare pericoli sempre più numerosi con modalità sempre più complesse; pertanto solo un impegno costante e condiviso tra organizzazioni, governi e professionisti del settore, che bilanci attentamente l’innovazione con la gestione del rischio e investa nella ricerca e sviluppo, può garantire un ambiente digitale sicuro e resiliente di fronte alle numerose minacce in costante evoluzione.
Fonti
Così l'intelligenza artificiale sta rivoluzionando la cyber security – Federica Maria Rivelli - 25 settembre 2025 https://www.cybersecurity360.it/cultura-cyber/cosi-lintelligenza-artificiale-sta-rivoluzionando-la-cyber-security/
L’illusione della sicurezza: i pericoli nascosti dell’AI nella cybersecurity – Gabriele Costa – 16 settembre 2024 https://www.agendadigitale.eu/sicurezza/lillusione-della-sicurezza-i-pericoli-nascosti-dellai-nella-cybersecurity/
https://blog.cyberoo.com/intelligenza-artificiale-per-la-cyber-security-vantaggi-e-applicazioni
https://www.kaspersky.it/resource-center/definitions/ai-cybersecurity
https://www.ictsecuritymagazine.com/articoli/intelligenza-artificiale-cybersecurity/





