Chi fa impresa sceglie gli strumenti più idonei al raggiungimento dei propri obiettivi di business o organizzativi anche grazie alle nuove tecnologie senza pensare che un sistema basato sull’IA possa generare delle violazioni di legge con un significativo impatto economico per la propria società.

  1. Il Regolamento Europeo sull’IA

Per esempio, il regolamento Europeo sull’IA, recepito in Italia il 12 luglio 2024, mira a garantire che i sistemi di intelligenza artificiale (IA) siano sviluppati, commercializzati e utilizzati in modo responsabile in Europa. In questo contesto, le società di qualsiasi dimensioni e le organizzazioni in generale che utilizzano prodotti e sistemi di IA sono obbligate a rispettare questa nuova legge.

L’obiettivo principale dei sistemi di intelligenza artificiale essendo quello di simulare l’intelligenza umana nelle macchine e nei processi al fine di consentire loro di svolgere compiti complessi e prendere decisioni in modo autonomo, ci è voluto un quadro legislativo per evitare potenziali situazioni che potrebbero portare ad un controllo delle persone, una manipolazione nei comportamenti umani o errori che potrebbero causare danni alle persone che interagiscono con questi sistemi.

Ad esempio, l’utilizzo dell’IA per correggere gli esami o selezionare i CV è considerato un sistema ad alto rischio perché potrebbe influire sulla carriera e sul futuro di una persona.

In questo contesto, il regolamento ha definito una scala di impatto e pericolosità dei sistemi d’IA e un calendario di applicazione a scaglioni.

  1. Tipologie di sistemi di IA con i relativi livelli di rischio

Il Regolamento Europeo sull’IA ha definito quattro diversi livelli di rischio per inquadrare l’uso dei sistemi di IA come di seguito.

RISCHIO INACCETTABILE: sono vietati i sistemi e gli usi con pratiche contrarie ai diritti fondamentali dell’UE come per esempio il rating sociale, lo sfruttamento della vulnerabilità delle persone, l’uso di tecniche subliminali, l’uso da parte delle forze dell’ordine dell’identificazione biometrica remota in tempo reale in spazi accessibili al pubblico, la polizia predittiva rivolta agli individui, il riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative.

RISCHIO ELEVATO: i sistemi di IA che possono nuocere alla sicurezza delle persone sono soggetti a requisiti rafforzati come valutazione di conformità, documentazione tecnica, meccanismi di gestione del rischio. Sono i sistemi biometrici, sistemi utilizzati per il reclutamento o per scopi repressivi. Possono essere dei sistemi come dispositivi medici, giocattoli, veicoli, ecc…

RISCHIO LIMITATO: per i sistemi di IA che necessitano specifici obblighi di trasparenza, in particolare in caso di evidente rischio di manipolazione, anche nel caso di messaggi pubblicitari. Sono ad esempio: utilizzo di chatbot o generazione di contenuti artificiali come voce, documenti ufficiali, ecc. che può essere utilizzato per scopi di truffa. In questi casi gli utenti devono essere consapevoli che stanno interagendo con una macchina e avere la possibilità di rifiutare questa opzione e chiedere di interagire con un essere umano.

RISCHIO MINIMO: Non ci sono limitazioni all’uso per tutti gli altri sistemi di IA ma sono necessari regole di utilizzo e comportamenti aziendali per assicurare un uso corretto e etico in quanto gli utenti devono essere consapevoli che stanno interagendo con una macchina.

 

  1. La prima interdizione e le sanzioni

Dal 2 febbraio 2025 sono vietati in Europa i sistemi di IA che presentano un rischio inaccettabile, ossia la prima categoria definita e che possono potenzialmente influenzare le persone in modi pericolosi. Il divieto ha come scopo di proteggere la popolazione europea da sistemi di intelligenza artificiale potenzialmente intrusivi.

Il non rispetto della legge in merito alla commercializzazione, la messa in servizio e l’uso di sistemi di IA proibiti fa rischiare una sanzione amministrativa fino a 35 milioni di euro o il 7% del suo fatturato.

  1. Una società europea può ritrovarsi in situazione sanzionabile?

E’ possibile per qualsiasi società ritrovarsi in una situazione di interdizione in quanto i sistemi vietati in Europa sono utilizzati in altri paesi del mondo e sono quindi disponibili all’acquisto, come i sistemi di intelligenza artificiale utilizzati per la sorveglianza di massa negli spazi pubblici per monitorare i cittadini in Cina o per diffenderci in tempi di guerra in Ucraina.

Prendiamo l’esempio di tecnologie come Clearview AI, un sistema di riconoscimento facciale che scansiona Internet per identificare le persone con la metodologia web scraping oggetto di controversie in Europa. Questo sistema ricade nella prima fascia di rischio del regolamento IA con proibizione applicabile dal 2 febbraio 2025 ed è accessibile on line sul sito dell’omonima società.

  1. Cosa fare per essere conforme?

Per evitare di ritrovarsi in situazione irregolari, le società devono identificare e analizzare i sistemi di IA in uso nella propria organizzazione e quelli previsti per l’implementazione di nuovi servizi in modo da verificare come si applica il regolamento UE sull’Intelligenza Artificiale e il regolamento UE sulla protezione dei dati GDPR quando i sistemi utilizzano dati personali.

E’ interessante notare che le violazioni possono nascere senza che l’imprenditore sia consapevole di essere in situazione di infrazione. Infatti, l’implementazione di nuova tecnologia con IA è normalmente rimessa al dipartimento tecnico o informatico che si concentra sugli aspetti tecnici senza conoscere gli aspetti legali.

In questo modo la società viola diversi obblighi di legge imposti dal Regolamento IA e dal GDPR, senza rendersene conto, come quelli di limitare la raccolta dei dati sul principio di proportionnalità, essere trasparente verso gli utenti, non esportare dati personali fuori dall’UE, esponendosi a multe sostanziose.

Quindi per evitare sanzioni e digitalizzare la propria organizzazione senza rischi, Your Group dà la possibilità a imprenditori di essere supportati da fractional manager specializzati in ambito per lo svolgimento di una verifica di conformità dei sistemi di IA presenti in azienda. Questi manager, competenti nella materia, svolgono analisi di natura tecnico-giuridiche mirate a conoscere lo stato dell’arte e ad individuare possibili violazioni in essere fornendo soluzioni e metodi concreti per un’applicazione conforme dei regolamenti UE in azienda.

Contatta YOURgroup per una soluzione di accompagnamento per la tua società tramite fractional manager altamente specializzato in processi di digitalizzazione e di gestione dei rischi.