L’intellligenza artificiale è un potente strumento impiegato in una grande varietà di strumenti di cybersecurity, che grazie a tecniche di automazione e machine learning migliora la protezione dei dati aziendali e il rilevamento tempestivo delle minacce. La grande innovazione e i vantaggi che le imprese possono trarre dallo sviluppo e implementazione dell’AI devono però essere accompagnati dalla consapevolezza dei rischi che la tecnologia porta con sé. Per garantire lo sviluppo etico e responsabile dell’AI, l’Unione europea ha elaborato l’AI Act, primo caso al mondo di regolamentazione normativa dell’AI, approvata nel 2024 e la cui piena entrata in vigore è prevista per la metà del 2026.

Per prepararsi in maniera proattiva a soddisfare gli obblighi di legge previsti dall’AI Act, la Commissione Europea ha quindi lanciato una iniziativa, l’AI Pact, volta a supportare le aziende nella transizione verso la nuova normativa offrendo loro una serie di linee guida e azioni per prepararsi a implementare le principali disposizioni dell’AI Act. Sono già numerose le aziende che hanno aderito all’AI Pact, che consiste dunque in un accordo volontario proposto dalla Commissione e rivolto a organizzazioni pubbliche e private che sviluppano, implementano e utilizzano tecnologie di AI, e fra queste figurano molti nomi afferenti al mondo della cybersecurity.

L'immagine mostra uno scenario di implementazione della AI per le aziende in Europa conforme all'AI Act grazie alla iniziativa AI Pact

Le organizzazioni che scelgono di aderire all’AI Pact assumono dei pledges, ovvero degli impegni formali, per lavorare concretamente in direzione della conformità all’imminente AI Act. Queste azioni includono: attività come l’adozione di strategie di governance dell’AI che favoriscano l’utilizzo dell’intelligenza artificiale in azienda; la mappatura dei sistemi di AI forniti o utilizzati in ambiti che sono considerati ad alto rischio ai sensi della normativa; garantire la trasparenza e prevedere meccanismi di supervisione umana nel caso di malfunzionamenti o anomalie; integrare principi di sicurezza by design ed effettuare la valutazione dei rischi associati ai sistemi di AI in fase di sviluppo o di utilizzo e del loro potenziale impatto sui diritti fondamentali, onde identificare e mitigare eventuali effetti negativi di sistemi di AI in questi ambiti. Garantendo così la non discriminazione, la protezione dei dati personali e la tutela della libertà di espressione. Tra le azioni proposte dall’AI Pact figura quindi anche un impegno alla formazione delle risorse, con l’obiettivo di promuovere la consapevolezza e l’alfabetizzazione sull’AI tra il personale e tra coloro che operano a vario titolo con i sistemi AI, tenendo conto delle loro conoscenze tecniche, dell’esperienza e del contesto di utilizzo.

Una serie di pratiche che non solo supportano le aziende verso la conformità all’AI Act, garantendo loro di trarre vantaggio dalle tecnologie AI in piena sicurezza e un modo responsabile, ma che contribuiscono anche a costruire la necessaria fiducia nei sistemi di AI da parte del mercato. Altro importante pillar su cui si fonda l’AI Pact è quindi il principio della condivisione e della trasparenza, per cui le aziende che aderiscono all’AI Pact accettano di dare il loro contributo alla creazione di una comunità collaborativa, pensata per la condivisione di esperienze, conoscenza, best practices e policy interne nell’adozione sicura e responsabile dei sistemi di AI, che possono essere utili anche ad altre organizzazioni verso la conformità all’AI Act. Queste attività includono anche una serie di webinar organizzati dall’AI Office, volti a fornire ai partecipanti una migliore comprensione della normativa, delle nuove responsabilità che questa prevede e su come prepararsi alla sua implementazione.