23 Maggio 2025
Information assurance: come cambia con l’intelligenza artificiale


Nel contesto della crescente digitalizzazione, il rapporto tra information assurance e intelligenza artificiale diventa centrale per comprendere le nuove dinamiche della sicurezza informatica.

L’evoluzione dei sistemi digitali e l’introduzione massiva dell’AI stanno infatti ridefinendo le modalità con cui vengono protette, gestite e certificate le informazioni.

Cessione crediti fiscali

procedure celeri

 

Le basi normative dell’information assurance

Non è un caso quindi che tutte le principali Autorità mondiali hanno emesso e stanno emettendo normative in tale ambito con requisiti sempre più stringenti. Il loro obiettivo è quello di forzare una “security by compliance”, ovvero rendere obbligatori requisiti di sicurezza sempre più stringenti, al fine di evitare di vanificare gli investimenti nel digitale delle aziende e, nel contempo, garantire i diritti dei consumatori dei servizi digitali.

Esempi di queste normative, in ambito europeo, sono:

In questo contesto, la Information Assurance (IA), ovvero la garanzia che i sistemi informatici proteggano le informazioni, funzionino in modo corretta e tutelino la riservatezza, l’integrità, la disponibilità e l’autenticità dei dati attraverso l’applicazione di misure preventive, è diventata un snodo centrale intorno al quale ruota la strategia che le Autorità mondiali stanno sviluppando in ambito sicurezza informatica e cybersecurity. Ne sono esempi il Cyber Security Act e il Cyber Resilience Act emessi dalla Commissione Europea e l’incremento sempre maggiore delle certificazioni di sicurezza ai sensi dello standard Common Criteria che è diventato lo standard di riferimento in tale ambito.

L’impatto dell’AI sui paradigmi dell’information assurance

In tale contesto irrompe in modo prepotente l’Artificial Intelligence (AI) che di fatto scombussola le carte in tavola in quando modifica in maniera significativa modelli e paradigmi che sono oggi alla base dell’attuale Information Assurance.

Contabilità

Buste paga

 

In questo articolo illustreremo come l’Intelligenza Artificiale può offrire un valido aiuto alla Information Assurance e, dall’altra parte, cosa può fare l’Information Assurance per rendere più sicura l’Intelligenza Artificiale.

Come l’intelligenza artificiale rafforza (e minaccia) la sicurezza

L’Artificial Intelligence è una delle tecnologie più promettenti del nostro tempo in quanto, grazie a complessi algoritmi, è in grado di analizzare enormi quantità di dati, riconoscere schemi, prevedere comportamenti e prendere decisioni automatiche.

La possibilità di analizzare enormi quantità di dati in maniera “intelligente”, consente di incrementare in maniera significativa processi di monitoraggio della sicurezza delle infrastrutture consentendo di identificare in maniera tempestiva e precisa violazioni di policy di sicurezza e malware, definire modelli di comportamento e identificare prontamente comportamenti anomali, accessi non autorizzati e così via.

L’AI può essere utilizzata efficacemente anche per prevenire le frodi finanziarie. Ad esempio, si possono utilizzare algoritmi di AI per monitorare le transazioni in tempo reale, definire dei modelli di comportamenti usuali e identificare le anomalie rispetto a tali comportamenti bloccando la transazione sospetta.

Altro ambito in cui la AI si sta affermando come strumento valido è la protezione dei dati personali. Sono stati sviluppati degli strumenti di AI che possono monitorare i flussi di dati e segnalare accessi non autorizzati o possibili violazioni della privacy rispetto al GDPR (es l’accesso a dati sensibili da parte di dipendenti che non dovrebbero avervi accesso).

Gli esempi possono essere molteplici e molte aziende del settore stanno già offrendo sul mercato soluzioni di sicurezza basate sull’utilizzo della AI.

Ma come in tutte le cose, c’è il rovescio della medaglia. Le potenzialità offerte dall’AI possono essere utilizzate anche dai cybercriminali per effettuare attacchi più rapidi, mirati, efficaci e, soprattutto, sfruttare le tecniche di apprendimento dell’AI per migliorare sempre più tali attacchi.

Nel prossimo paragrafo analizzeremo quali sono le principali minacce ai sistemi di AI e quali possono essere possibili soluzioni per garantire la loro sicurezza.

Finanziamo agevolati

Contributi per le imprese

 

Principali tipi di AI e vulnerabilità dell’AI predittiva

Come citato in precedenza, le potenzialità dell’AI possono essere utilizzate da soggetti malevoli per effettuare nuovi tipi di attacco.

Le minacce verso l’AI non sono oggi completamente note e comprese, ma quelle identificate e studiate aprono degli scenari alquanto preoccupanti che rendono sempre più rilevante modificare e rinforzare l’Information Assurance in tale ambito.

Per poter comprendere quali sono le principali minacce che oggi si sono riscontrate sui sistemi di AI, bisogna definire cosa si intende per AI Predittiva e AI Generativa.

L’AI predittiva si concentra sull’analisi dei dati esistenti per fare previsioni o pronostici su eventi o risultati futuri. L’obiettivo principale è comprendere schemi, tendenze e relazioni nei dati storici e utilizzare queste intuizioni per prevedere eventi futuri. In genere opera all’interno di una gamma definita di risultati possibili in base ai dati su cui è stato addestrato.

L’AI Generativa, d’altra parte, si concentra sulla creazione di nuovi contenuti, siano essi testi, immagini, musica o persino codice, spesso in risposta a un input specifico. Ciò avviene apprendendo gli schemi e le strutture sottostanti dei dati di addestramento e utilizzando tali conoscenze per generare nuovi dati originali.

Vulnerabilità e minacce dell’AI predittiva

I principali attacchi e minace ad oggi noti per l’AI predittiva sono:

  • Attacchi di data poisoning (Avvelenamento dei Dati): questa è una delle minacce più gravi per questa tipologia di sistemi di AI. In questo caso, gli attaccanti manipolano i dati di addestramento del modello in modo che il sistema apprenda informazioni distorte o ingannevoli. Questo tipo di attacco può portare a previsioni errate, riducendo l’affidabilità delle decisioni basate sull’AI. Ad esempio, in ambito pagamenti, un sistema predittivo utilizzato per rilevare frodi, potrebbe essere “inquinato” con transazioni false e potrebbe portare il sistema a riconoscere come legittime delle transazioni fraudolente.
  • Attacchi di inversione dei modelli (Model Inversion Attacks): in questo scenario, un attaccante cerca di ottenere informazioni sensibili (es. dati personali sensibili, dati confidenziali,..) attraverso l’analisi del modello predittivo. Ad esempio, se un sistema predittivo è utilizzato per fare previsioni sui comportamenti degli utenti (es. profilazione dei comportamenti dei consumatori), l’attaccante potrebbe riuscire a risalire, analizzato il modello, ai dati sensibili che sono stati utilizzati per addestrarlo. Questo attacco potrebbe compromettere la privacy degli utenti e esporre l’azienda a rischi legali/normativi, in particolare quando si trattano dati sensibili, come quelli sanitari o finanziari.
  • Attacchi Adversariali (Adversarial Attacks): questo tipo di attacco prevede l’introduzione di piccole perturbazioni nei dati in modo che il modello faccia previsioni errate. A differenza degli attacchi di Data Poisoning, questi attacchi sono particolarmente insidiosi perché le modifiche ai dati sono minime e impercettibili e quindi difficilmente rilevabili, ma sufficienti a ingannare il sistema. Questo potrebbe compromettere l’affidabilità del sistema portando a false negatività o false positività. Un attacco del genere, se ben progettato, potrebbe bypassare un sistema di sicurezza o fornire diagnosi errate, con danni significativi per la sicurezza e la salute delle persone.
  • Overfitting e Underfitting: anche se non sono minacce dirette, overfitting (quando il modello è troppo adattato ai dati di addestramento) e underfitting (quando il modello non riesce a cogliere i pattern dai dati), essi sono vulnerabilità che possono rendere il sistema predittivo meno affidabile. Va considerato che un modello che non generalizza bene ai dati reali può produrre previsioni imprecise che compromettono la sua capacità decisionale. Tali vulnerabilità potrebbero avere impatti significativi in contesti critici quali la sicurezza nazionale o la diagnostica medica.

Vulnerabilità e minacce dell’AI generativa

I principali attacchi e minace ad oggi noti per l’AI Generativa sono:

Microcredito

per le aziende

 

  • Generazione di deepfake: i deepfake sono una delle minacce più conosciute nell’ambito dell’AI generativa. Questi sono contenuti (video, audio, immagini) artificiali ma estremamente realistici, creati utilizzando reti neurali. L’uso malevolo di deepfake può portare alla disinformazione e alla manipolazione dell’opinione pubblica, come nel caso di falsi video di figure pubbliche che sembrano fare dichiarazioni compromettenti. Pertanto, la diffusione di deepfake può causare danni alla reputazione di individui o di aziende, disturbare elezioni politiche o addirittura essere utilizzata per ricatti.
  • Manipolazione di contenuti generati (Misinformation): l’AI Generativa può essere usata per creare e diffondere disinformazione generando, ad esempio, articoli, post sui social media e altri contenuti persuasivi che sembrano autentici, ma che sono in realtà completamente falsi. Questi attacchi di manipolazione delle informazioni potrebbero influenzare opinioni pubbliche, creare confusione su eventi critici o alterare la percezione delle notizie. Questo potrebbe portare ad impatti anche molto gravi quali crisi politiche, conflitti sociali o danni economici per le aziende coinvolte (es. un’azienda potrebbe subire danni reputazionali se vengono diffusi contenuti falsi su un suo prodotto o servizio).
  • Creazione di malware e phishing automatizzati: l’AI generativa può essere utilizzata anche per generare codice dannoso (malware) o per creare attacchi di phishing altamente convincenti (es. email di phishing personalizzate che sembrano provenire da fonti affidabili). Tali attacchi sono estremamente difficili da individuare, poiché l’AI generativa è in grado di imitare perfettamente stili di comunicazione e comportamenti umani. Le vittime potrebbero essere truffate e perdere denaro, compromettere la propria sicurezza o esporre dati sensibili a furti.
  • Bias e discriminazione nei contenuti generati: se un modello AI generativo viene addestrato su dati parziali o discriminatori (i cosiddetti Bias), potrebbe produrre contenuti che favoriscono determinati gruppi e svantaggiano altri, perpetuando discriminazioni di genere, razza, o classe sociale. Questo può causare conflitti sociali o danni alla credibilità dei sistemi basati su AI quando vengono usati, ad esempio, in sistemi utilizzati per la selezione di candidati in ambito lavorativo.

Strategie per rendere sicuri i sistemi basati su AI

Quelle indicate sono le principali minacce ad oggi note che possono impattare sui sistemi di Ai, ma, come detto prima, molte minacce non sono ancora note e/o comprese perfettamente e, vista la elevata dinamicità del settore, probabilmente in futuro si presenteranno altre minacce e altre tipologie di attacco sempre più sofisticati.

Ma come si possono mettere in sicurezza tali sistemi e cosa la Information Assurance può fare per garantire tale sicurezza?

Alla luce della complessità di tali sistemi e della loro natura altamente dinamica e non deterministica, l’approccio alla sicurezza deve essere necessariamente multidimensionale e deve coinvolgere tecnologie avanzate, politiche regolamentari dell’AI rafforzate e, soprattutto, implementare una efficacia educazione continua degli utenti di tali sistemi per ridurre il rischio di abusi e sfruttamenti dell’AI.

La sicurezza di tali sistemi può essere quindi basata sulle attuali tecniche utilizzate in ambito sicurezza informatica, ma rafforzandole e facendole evolvere verso nuovi modelli che utilizzano tecnologie evolute (la stessa IA) e approcci dinamici adattabili al nuovo contesto.

A titolo esemplificativo ma non esaustivo:

  • la protezione contro i data poisoning può essere ottenuta attraverso tecniche avanzate di data validation e monitoraggio continuo dei dati utilizzati per il training e quelli generati;
  • la trasparenza dei sistemi di AI può essere migliorata utilizzando tecniche chiamate “AI spiegabile” (Explainable AI – XAI) o Modelli Interpretabili per contrastare gli attacchi di inversione dei modelli;
  • si possono sviluppare meccanismi avanzati di rilevamento dei deepfake e tools di accesso e autenticazione sempre più robusti ed efficaci per ridurre il rischio di disinformazione;
  • si possono implementare filtri di bias per garantire che l’AI generativa produca contenuti equi e neutrali;
  • i modelli di AI possono essere addestrati localmente sui dispositivi degli utenti, senza necessità di centralizzare i dati, riducendo così il rischio di esposizione dei dati sensibili (Federated learning);
  • si possono stabilire standard operativi e di sviluppo sicuri per i sistemi di AI e, nel contempo, incrementare gli audit e le verifiche della loro conformità, preferibilmente eseguiti da terze parti indipendenti;
  • la privacy e la riservatezza dei dati può essere protetta sia attraverso tecniche di “privacy differenziale” (tecnica che introduce “rumore” nei dati per impedire che singole informazioni sensibili vengano rivelate, pur mantenendo l’utilità complessiva dei dati) che utilizzando nuove tecniche crittografiche (es. crittografia omomorfa);
  • le valutazioni dei rischi possono basarsi su una modellazione sistematica e dinamica delle minacce;
  • si possono implementare processi di monitoraggio e di risposta agli incidenti efficaci utilizzando tecniche di AI.

In pratica bisogna passare da una sicurezza “statica” ad una sicurezza “dinamica” che adotta misure di sicurezza che incorporano, a loro volta, le logiche di AI.

Dilazioni debiti fiscali

Assistenza fiscale

 

Limiti dei common criteria nell’era dell’intelligenza artificiale

Ma gli attuali standard utilizzati per l’Information Assurance come i Common Criteria possono essere applicati ai sistemi di AI per garantire la loro sicurezza?

I Common Criteria (CC) sono il principale insieme di standard internazionali utilizzati oggi per la valutazione della sicurezza dei sistemi informatici. Essi sono principalmente orientati a valutare la sicurezza dei sistemi e dei prodotti informatici deterministici, ovvero sistemi che seguono regole predefinite e prevedibili. I sistemi di AI agiscono in modo dinamico e adattivo, evolvendo e cambiando il proprio comportamento nel tempo man mano che vengono inseriti nuovi dati e pertanto i Common Criteria non si possono considerare completamente adeguati per garantire la sicurezza di tali sistemi. Per tale ragione, essi devono evolvere ed essere adattati alle nuove logiche dell’AI, pur mantenendo la struttura e l’impianto ad oggi stabilito che si è dimostrato essere comunque valido.

Uno dei principali problemi dell’applicazione dei CC ai sistemi di AI è la complessità e poca trasparenza che questi offrono. I Common Criteria non sono progettati per trattare “scatole nere” o “l’interpretabilità” dei requisiti. Inoltre, devono essere rivisti e rafforzati i Security Functional Requirements (SFR) ed in particolare quelli relativi alle classi Cryptographic support (FCS), User data protection (FDP) e Identification and authentication (FIA) al fine di renderli “dinamici”, ovvero adottare requisiti di sicurezza che incorporano le logiche di AI.

Verso nuovi standard di valutazione per l’information assurance

Alcune classi di Assurance (vedi la classe ATE) devono essere completamente ripensate. Come si possono effettuare test funzionali delle misure di sicurezza se non si hanno dei risultati/comportamenti di riferimento? Per le valutazioni di livello elevato, come si può effettuare una code review se non c’è un codice da revisionare?

Queste sono le questioni su cui gli esperti del settore e le principali Autorità mondiali si stanno interrogando e, molto probabilmente, nei prossimi anni avremo delle risposte e delle soluzioni a tali questiti.

L’Information Assurance nell’era dell’AI è una delle sfide più importanti e urgenti per le organizzazioni che adottano queste tecnologie avanzate. Ma se l’AI offre incredibili vantaggi in termini di efficienza e innovazione, dall’altro porta con sé rischi significativi per la sicurezza e la privacy delle informazioni.

Information assurance e AI: costruire fiducia nel digitale

L’Information Assurance è quindi molto più di una questione tecnica: è la base su cui si costruisce la fiducia degli utenti e delle aziende nel digitale. Serve un approccio bilanciato che da un lato sfrutta tutto il potenziale dell’AI e dall’altro, mette al centro i principi dell’etica, della trasparenza e della responsabilità.

Conto e carta

difficile da pignorare

 

In tale contesto, l’adozione dei Common Criteria può offrire una garanzia di conformità e affidabilità, creando un ambiente di fiducia per gli utenti e riducendo il rischio di abusi tecnologici. Ovviamente vanno superati i limiti attuali e, come detto in precedenza, bisogna aumentare la “trasparenza” dei modelli e rivedere lo standard attuale per adattarlo alla certificazione di sistemi dinamici e non-deterministici sviluppando nuove metodologie di valutazione e framework normativi specifici per l’AI.

In tale ambito giocano un ruolo fondamentale le Autorità mondiali le quali, attraverso normative specifiche, come ad esempio il GDPR, la NIS 2 e l’AI Act, possono forzare ad utilizzare la AI in maniera più responsabile, tutelando così la sicurezza delle informazioni e la privacy degli utenti.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Cessione crediti fiscali

procedure celeri