Menu Menu

Le nuove leggi europee sull’intelligenza artificiale sperano di influenzare le normative tecnologiche globali

Mentre la tecnologia dell’intelligenza artificiale avanza rapidamente, i politici hanno concordato una nuova serie di regolamenti per garantire che le sue capacità siano utilizzate eticamente negli Stati membri dell’UE. Una volta approvate, sperano che le leggi fungano da modello per altre nazioni in tutto il mondo.

Con l'enorme progresso delle capacità dei software di intelligenza artificiale (AI) nell'ultimo anno, la domanda è "cosa può fare l'intelligenza artificiale?" è diventato "cosa". non può Lo faccio?"

Alla luce di ciò, i legislatori di tutto il mondo hanno tentato di elaborare regolamenti che stroncheranno l’abuso della tecnologia sul nascere, garantendo al tempo stesso che la tecnologia dell’intelligenza artificiale possa continuare la sua tendenza al rialzo e al miglioramento.

Durante il fine settimana, l’Unione Europea (UE) è diventata uno dei primi organi di governo a svelare un’ambiziosa proposta per regolamentare l’IA, stabilendo un quadro che dia priorità alla protezione dei diritti dei cittadini affrontando al tempo stesso le sfide etiche poste dai sistemi di intelligenza artificiale.

La proposta di legge, nota come l Legge dell'UE sull'IA, regolerà lo sviluppo, la diffusione e l'uso complessivo delle applicazioni di intelligenza artificiale in diversi settori, tra cui l'assistenza sanitaria, la finanza e le forze dell'ordine.

L'iniziativa dell'UE nasce come risposta alle crescenti preoccupazioni relative al potenziale uso improprio dell'intelligenza artificiale. Questi includono l’uso dell’intelligenza artificiale per diffondere disinformazione online, la sua potenziale minaccia alla sicurezza nazionale, nonché il modo in cui l’automazione del lavoro tramite intelligenza artificiale può influenzare i lavoratori.

Le bozze dell'AI Act sono state presentate nel 2021, ma sono diventate rapidamente obsolete e insufficienti alla luce dell'emergere di modelli di IA generici, come quelli che alimentano ChatGPT.

Le nuove leggi sottolineano la necessità di responsabilità e trasparenza in un panorama tecnologico in rapida evoluzione sottoponendo i sistemi di intelligenza artificiale ad alto rischio a requisiti rigorosi, tra cui misure di trasparenza, supervisione umana e solidi protocolli di test.

Ciò significa che i responsabili della tecnologia AI più popolare – Google e OpenAI, per esempio – e altri che la generano immagini manipolate oppure i deepfake dovranno aggiungere disclaimer al loro contenuto.

Multe fino al 7% delle vendite globali verranno inflitte alle aziende che violano queste normative.

Alle organizzazioni è inoltre vietato utilizzare indiscriminatamente lo scraping di immagini da Internet per creare software di riconoscimento facciale AI. Possono utilizzare il riconoscimento facciale tramite intelligenza artificiale solo previa autorizzazione concessa in specifiche esenzioni per la sicurezza e la sicurezza nazionale.

Il nuovo disegno di legge delinea linee guida chiare per l’uso responsabile dell’IA, con particolare attenzione alla riduzione al minimo di pregiudizi e discriminazioni, nonché a garantire il giusto trattamento degli individui.

Uno degli aspetti chiave della legislazione è l’intenzione di istituire un Comitato europeo per l’intelligenza artificiale, che supervisionerebbe l’implementazione e l’applicazione di queste normative negli Stati membri.

Il consiglio garantirebbe un approccio unificato alla governance dell’IA rispettando le diverse esigenze di ciascuna nazione.

Le risposte dei leader del settore e dei gruppi di pressione alla nuova legislazione sono state contrastanti.

Mentre alcuni vedono l’iniziativa come un passo necessario verso la tutela dei cittadini dai potenziali rischi legati all’intelligenza artificiale, altri sono preoccupati per il potenziale impatto sull’innovazione e sulla competitività nel mercato tecnologico globale.

Se le leggi europee sono troppo rigide, ad esempio, rischiano di ostacolare il successo delle aziende tecnologiche nella regione, consentendo al contempo alle nazioni d’oltremare di acquisire il dominio del settore grazie alla maggiore libertà di sviluppare e sperimentare strumenti di intelligenza artificiale.

Detto questo, si prevede che la posizione leader dell’UE nella regolamentazione dell’IA stimolerà ulteriori conversazioni sulle implicazioni etiche della tecnologia in tutto il mondo. La sua legislazione potrebbe anche servire da modello per altre regioni che cercano di trovare un equilibrio tra il suo progresso e la tutela dei diritti fondamentali.

Una cosa è certa: l’intelligenza artificiale sta iniziando a influenzare molti aspetti della nostra vita quotidiana. Governare la tecnologia sarà un argomento cruciale tra i leader mondiali poiché tale ruolo aumenta in linea con le crescenti capacità dell’intelligenza artificiale.

Accessibilità