16/07/2025 - INTELLIGENZA ARTIFICIALE, ECCO IL CODICE DI CONDOTTA UE
Dal prossimo 2 agosto entrerà in vigore (per alcuni aspetti) il nuovo Regolamento europeo sull'Intelligenza Artificiale (AI Act). Per aiutare le imprese ad adeguarsi, la Commissione Europea ha presentato un Codice di Condotta volontario, che offre indicazioni operative su trasparenza, diritti d’autore e sicurezza dei sistemi di IA. Il codice viene inviato dalla commissione ai singoli Stati per la valutazione. Il Codice di Condotta europeo per i modelli di intelligenza artificiale generativa (GPAI) è uno strumento non vincolante ideato per indirizzare le imprese verso la conformità alle nuove norme dell’AI Act. È stato redatto da 13 esperti indipendenti con il contributo di oltre 1.000 stakeholder del settore. E' suddiviso in tre capitoli distinti. Il codice si applica in particolare a chi sviluppa o si avvantaggia dei modelli di intelligenza artificiale generici, come i chatbot o i sistemi di generazione automatica di testi, immagini e dati. Ciò nonostante, molte delle indicazioni fornite sono utili anche per imprese che utilizzano strumenti AI già disponibili sul mercato (es. piattaforme di gestione HR, recruiting automatico, analisi predittive per il business, ecc.). Come già anticipato il codice si occupa di tre macroargomenti. In sintesi le principali indicazioni riguardano: la trasparenza, la tutela del diritto d'autore e infine la sicurezza e protezione. In ambito di trasparenza il codice chiede alle imprese di: Documentare in modo chiaro come funziona il modello IA utilizzato; Indicare quali dati sono stati usati per l’addestramento; Specificare i limiti e gli usi consentiti dell’IA. Per chi utilizza sistemi di IA in azienda (es. per selezione del personale o analisi di dati), questo significa essere consapevoli delle fonti dei dati e degli eventuali rischi di pregiudizi automatici o errori di interpretazione. Il secondo pilastro impone attenzione ai contenuti protetti (parliamo della tutela dei diritti d'autore), i modelli non devono usare o generare contenuti coperti da copyright senza autorizzazione. Le imprese devono prevedere misure attive per evitare violazioni, anche quando utilizzano piattaforme esterne. Per i datori di lavoro questo si traduce in una verifica delle licenze dei software di IA adottati e nella formazione del personale sull’uso corretto degli strumenti AI (ad esempio quando generano contenuti aziendali o documenti interni). Sotto l'aspetto di sicurezza e protezione le imprese devono: Monitorare i rischi legati all’uso dell’IA (es. contenuti offensivi o distorsioni nei dati); Gestire incidenti e criticità con sistemi di controllo; Escludere l’uso di siti o fonti compromesse nei modelli. Nel dettaglio, per i consulenti che assistono aziende tecnologiche o PMI con strumenti digitali, sarà utile predisporre policy interne per la gestione dell’IA, compresi audit periodici e procedure di segnalazione. Il Codice è volontario, ma sarà promosso dalla Commissione e dai governi europei già dalla fine del 2025. L’AI Act, ovvero il Regolamento ufficiale europeo, invece, è gia in vigore e prevede l'obbligo di adeguamento a specifica norme: dal 2 agosto 2026 per i nuovi modelli, dal 2 agosto 2027 per quelli già esistenti. Comunque, aderire già oggi al Codice significa prepararsi con anticipo, riducendo il rischio di non conformità e migliorando la gestione interna della tecnologia. Ecco alcune azioni consigliate per imprese e i consulenti: Mappare gli strumenti di IA utilizzati in azienda (anche indirettamente, tramite fornitori); Verificare le policy dei software adottati (es. chatbot, piattaforme per CV screening, assistenti virtuali); Aggiornare la formazione del personale sugli strumenti AI e i rischi connessi; Valutare l’adesione al Codice come buona prassi volontaria, anche a fini di reputazione e responsabilità sociale. Il Codice UE sull’Intelligenza Artificiale rappresenta un passaggio fondamentale per una trasformazione digitale responsabile. Anche se non è ancora obbligatorio, seguirlo aiuta le imprese ad allinearsi al nuovo quadro normativo europeo e a gestire con consapevolezza gli strumenti di IA già presenti nei processi aziendali. Per i consulenti del lavoro e i datori di lavoro si apre un nuovo campo di azione, cioè quello di guidare l’adozione etica e sicura dell’IA, nel rispetto dei diritti dei lavoratori e delle regole europee.