Condividi queste informazioni su:

Il Parlamento Europeo ha approvato il testo contenente le nuove regole che disciplinano l’attività dei software di intelligenza artificiale, ecco cosa cambia.

Oltre al clima, la trasformazione digitale sembra essere una delle principali priorità dell’Unione Europea. Per questo, il Parlamento ha costruito politiche che puntano a rafforzare i mezzi a disposizione nel campo delle nuove tecnologie, offrendo anche opportunità a consumatori e aziende verso la transizione verde e la neutralità carbonica entro il 2050.

Intelligenza artificiale, le nuove regole europee

La priorità per il Parlamento europeo sarà far si che gli strumenti digitali  siano trasparenti, sicuri, non discriminatori, tracciabili e rispettosi dell’ambiente.

Con l’AI Act ( il nome del nuovo pacchetto di regole) l’Europa vuole stabilire una chiara definizione uniforme e neutra dell’intelligenza artificiale da applicare a tutti i futuri sistemi che ne prevederanno l’implementazione.

Il testo di fatto contiene le nuove regole europee che disciplinano l’attività dei software di AI, obbligando gli operatori al rispetto dei diritti e dei valori fondamentali dell’UE, ad esempio in materia di supervisione privacy, sicurezza, trasparenza e non discriminazione.

Pubblicità

Pubblicità

Gli obiettivi del regolamento

Lo scopo del regolamento come dice il testo, è “promuovere la diffusione di un’intelligenza artificiale antropocentrica e affidabile e garantire un livello elevato di protezione della salute, della sicurezza, dei diritti fondamentali, della democrazia e dello Stato di diritto, nonché dell’ambiente, dagli effetti nocivi dei sistemi di intelligenza artificiale nell’Unione, sostenendo, allo stesso tempo, l’innovazione e migliorando il funzionamento del mercato interno“.

Il regolamento di fatto, delinea un quadro giuridico uniforme in particolare per quanto riguarda l’ammissione sul mercato, lo sviluppo,  e  la messa in servizio dell’intelligenza artificiale (AI) in conformità ai valori dell’Unione.

Garantisce inoltre, la libera circolazione transfrontaliera di beni e servizi basati sull’AI, impedendo così agli Stati membri di imporre restrizioni rispetto allo sviluppo o alla commercializzazione e all’uso di sistemi di intelligenza artificiale, salvo espressa autorizzazione del regolamento.

Ne testo si legge: “La legge sull’intelligenza artificiale stabilirà uno standard a livello mondiale per lo sviluppo e la governance dell’intelligenza artificiale, assicurando che questa tecnologia, destinata a trasformare radicalmente le nostre società, grazie agli enormi benefici che può offrire, si evolva e venga utilizzata nel rispetto dei valori europei della democrazia, dei diritti fondamentali e dello Stato di diritto“, ha dichiarato Tudorache, uno dei correlatori.

Cosa dice il regolamento, la definizione di Intelligenza Artificiale

Stando a quanto riportato dal Parlamento europeo, Intelligenza artificiale comprende una famiglia di tecnologie che contribuisce al conseguimento di un’ampia gamma di benefici a livello ambientale, economico e sociale all’interno dello spettro delle attività industriali e sociali. L’uso dell’intelligenza artificiale così regolamentata dovrebbe garantire:

  • Un miglioramento delle previsioni;
  • L’ottimizzazione delle operazioni e dell’assegnazione delle risorse e la personalizzazione delle soluzioni digitali disponibili sia per i singoli che per le organizzazioni
  • Fornire vantaggi competitivi fondamentali alle imprese e condurre a risultati vantaggiosi sul piano sociale ed ambientale, ad esempio in materia di agricoltura, assistenza sanitaria, sicurezza alimentare, istruzione e formazione e molto altro.

Quali potrebbero essere i rischi dell’intelligenza artificiale

Prendendo in considerazione i potenziali rischi, il regolamento detta l’elenco di sistemi vietati perché costituiscono una minaccia per le persone

Questi comprendono:

  • Manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici. Questa dinamica si riscontra, ad esempio, con giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini
  • Sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale
  • Classificazione sociale: classificazione delle persone in base al comportamento, al livello socioeconomico, alle caratteristiche personali

Inoltre, i sistemi di intelligenza artificiale che influiscono negativamente sulla sicurezza o sui diritti fondamentali saranno considerati ad alto rischio sono:

  1. I sistemi di intelligenza artificiale utilizzati in prodotti soggetti alla direttiva dell’UE sulla sicurezza generale dei prodotti. Questi includono giocattoli, aviazione, automobili, dispositivi medici e ascensori.
  2. I sistemi di intelligenza artificiale che rientrano in otto aree specifiche dovranno essere registrati in un database dell’UE:
  3. identificazione e categorizzazione biometrica di persone naturali
  4. gestione e funzionamento di infrastrutture critiche
  5. istruzione e formazione professionale
  6. occupazione, gestione dei lavoratori e accesso all’autoimpiego
  7. forze dell’ordine
  8. gestione delle migrazioni, asilo e controllo delle frontiere

Tutti i sistemi di intelligenza artificiale ad alto rischio saranno valutati prima di essere messi sul mercato e durante tutto il loro ciclo di vita.

La classificazione delle applicazioni ad alto rischio include anche i sistemi di AI, che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l’ambiente.

La nuova legge promuove i cosiddetti spazi di sperimentazione normativa, o ambienti di vita reale, creati dalle autorità pubbliche per testare l’AI prima che venga attivata.

Infine, i deputati intendono rafforzare il diritto dei cittadini di presentare reclami sui sistemi di AI e di ricevere spiegazioni sulle decisioni basate su sistemi di AI ad alto rischio con un impatto significativo sui loro diritti fondamentali.

Pubblicità

Pubblicità