IL vertice sull’IA a Parigi .

Scienza & Tecnologia

Di

IL 10 e 11 febbraio Parigi ospiterà il French Artificial Intelligence Action Sum, (Vertice d’Azione sull’Intelligenza Artificiale). L’ennesima convocazione globale incentrata sullo sfruttamento della potenza dell’IA per un futuro vantaggioso. Uno dei temi chiave della conferenza sarà l’ideazione di strutture per impiegare l’IA per il bene, con l’obiettivo principale di “chiarire e progettare un quadro di governance condiviso ed efficace con tutti gli attori rilevanti”. Questo obiettivo è stato tentato numerose volte con scarso successo, date le sfide di riunire nazioni con priorità diverse sullo insieme di regole dell’intelligenza artificiale. Si collega anche a una preoccupazione più ampia per l’intelligenza artificiale nel 2025, vale a dire come (e anche se) i governi e le aziende che creano IA affronteranno lo sviluppo e il controllo di nuovi potenti sistemi di IA in modo responsabile. Una settimana fa il cinese DeepSeek R1 , un modello che si avvicina alle prestazioni o1 di OpenAI a un costo molto inferiore, è arrivato sul mercato, proprio quando il presidente Trump ha annunciato l’iniziativa OpenAI-Softbank-Oracle Stargate, un piano da 500 miliardi di dollari per costruire infrastrutture di dati e calcolo negli Stati Uniti, e la sua amministrazione ha rapidamente revocato l’ordine esecutivo dell’amministrazione Biden incentrato sulla sicurezza dell’IA e sugli standard di test. Nuovi modelli stanno arrivando sulla scena e grandi interessi commerciali sperano di portare avanti i progressi dell’intelligenza artificiale, a tutto vapore. La sicurezza è stata in gran parte a parole.

I modi unici in cui l’IA si sta evolvendo in tutto il mondo e le diverse preferenze dei governi per sfruttare le innovazioni del settore privato possono rendere difficile raggiungere il consenso internazionale sulla governance dell’IA.

. Attualmente, governance è un termine malleabile e generico che governi, aziende hanno usato per riferirsi alternativamente alla regolamentazione dei modelli di IA o ai pesi che modellano il loro comportamento e le aziende che li producono; valutare tecnicamente la sicurezza e il rischio attraverso test e valutazioni; o anche controllando la diffusione dei componenti necessari per la creazione di modelli di intelligenza artificiale fondamentali, che sono reti neurali su larga scala per uso generale.

Decifrare il modo in cui le aziende e i governi interpretano la governance dell’IA può mostrare se sono d’accordo su come sfruttare in sicurezza nuovi potenti sistemi.

Come giustamente sottolineano gli organizzatori del vertice, paesi e gruppi multilaterali come il processo di intelligenza artificiale di Hiroshima del G7, la dichiarazione di Bletchley del Regno Unito e l’accordo tecnologico per combattere l’uso ingannevole dell’intelligenza artificiale nelle elezioni del 2024, guidato dal settore privato, hanno sviluppato quadri di governance in parallelo.

 Per l’Unione europea, la governance ha significato principalmente di regolamentazione. L’anno scorso l’Unione europea ha fatto passi avanti adottando il primo quadro normativo completo al mondo per lo sviluppo e la diffusione dell’IA. L’AI Act segna una pietra miliare significativa per la governance dell’intelligenza artificiale e, data la mancanza di normative comparabili, fornisce un modello unico per altre nazioni: la Corea del Sud e il  Brasile hanno proposto regolamenti successivi con forti parallelismi con il quadro dell’Unione Europea. L’Unione Europea ha conquistato una posizione di leadership nella governance essendo la prima a stabilire le regole , influenzando in modo significativo il modo in cui l’IA potrebbe essere regolamentata anche oltre i suoi confini. Mentre altre nazioni stanno ancora valutando le loro strategie in materia di governance, i rappresentanti dell’UE e dei suoi Stati membri possono sfruttare la loro visione unificata al vertice e utilizzarla per spingere verso un quadro di governance internazionale che adotti le caratteristiche chiave dell’AI Act.

L’attenzione dell’Unione europea si è ora spostata sull’attuazione. L’AI Act si basa in gran parte su standard tecnici e codici di condotta per definire l’aspetto della conformità per gli sviluppatori. Dal punto di vista della governance dell’IA, gli sforzi in atto per definire i requisiti di conformità saranno fondamentali per determinare se l’atto è in grado di mitigare con successo i rischi e proteggere i cittadini europei dai danni algoritmici, come l’esposizione alla disinformazione generata dall’IA o ai pregiudizi discriminatori provenienti da sistemi addestrati su set di dati non rappresentativi. Dal punto di vista della politica estera, l’attuazione del regolamento offre all’Unione europea un’altra opportunità per espandere la propria influenza sugli sforzi globali di governance dell’IA. Mentre il governo degli Stati Uniti rivaluta il suo approccio alla supervisione dell’IA e con il futuro dell’Istituto per la Sicurezza dell’IA  , l’Unione Europea è pronta a colmare il divario plasmando interpretazioni globali di ciò che sembra “IA affidabile” attraverso standard e migliori pratiche. Negli USA Trump ha revocato l’ordine esecutivo 14110 di Biden sullo sviluppo e l’uso sicuro e affidabile dell’IA e ha sollecitato la revisione  per valutare dove l’ordine era in contrasto con il miglioramento del dominio globale dell’IA in America e della “prosperità umana, della competitività economica e della sicurezza nazionale”. Dato che l’ordine esecutivo di Biden ha rappresentato un passo significativo verso lo sviluppo di solidi standard governativi e protocolli di test, i risultati della revisione dell’amministrazione Trump possono illuminare come gli standard e le valutazioni di sicurezza dell’IA, e gli organismi che li conducono, si inseriscano in una visione “America First”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Traduci
Facebook
Twitter
Instagram
YouTube