Serve un quadro normativo nazionale che sia etico, strategico e orientato all’innovazione, prima che siano altri a scriverlo per noi.
Di Domizia Di Crocco
Segretario e consulente politico, rappresentante di interesse
L’intelligenza artificiale non è più una promessa futuristica. È una realtà concreta, che già oggi plasma il lavoro, la sanità, l’istruzione e persino la giustizia. Secondo il McKinsey Global Institute, il 30% delle ore lavorative nei Paesi sviluppati sarà automatizzabile entro il 2030. E in Italia, l’Osservatorio Artificial Intelligence del Politecnico di Milano rileva un aumento del 52% degli investimenti in IA solo nell’ultimo anno.
Ma in Parlamento, il tema dell’IA è ancora trattato in modo frammentario, senza una visione organica. Il rischio? Perdere il controllo. Subire modelli tecnologici sviluppati altrove – spesso da big tech extraeuropee – senza una cornice giuridica che tuteli i diritti fondamentali dei cittadini italiani.
L’AI Act, approvato dal Parlamento europeo nel marzo 2024, è un punto di partenza. Ma si tratta di un regolamento che necessita di attuazione e declinazione nazionale. Non possiamo affidarci solo a Bruxelles: servono norme italiane, radicate nella nostra Costituzione e nella nostra realtà economica e sociale.
Proporre oggi una legge quadro nazionale sull’IA significa governare il cambiamento. Non subirlo.
Serve un investimento politico e culturale forte. Per questo propongo l’istituzione di una Commissione parlamentare speciale sull’Intelligenza Artificiale, con un mandato chiaro: elaborare entro sei mesi una proposta di legge organica, che non sia ostile all’innovazione, ma ne orienti l’uso verso finalità pubbliche, etiche e inclusive.
Cinque azioni concrete che il Parlamento può attuare subito
- Commissione parlamentare sull’IA
Un organismo bicamerale, con esperti, giuristi, ingegneri e rappresentanti sociali. L’esempio francese (Commission Villani, 2018) ha mostrato che è possibile unire rigore scientifico e visione politica.
- Legge quadro nazionale sull’intelligenza artificiale
Basata su quattro pilastri: trasparenza degli algoritmi (specialmente nei servizi pubblici), protezione dei dati, supervisione umana obbligatoria per le decisioni critiche e rispetto dei principi costituzionali.
- Certificazione etica per sistemi IA ad alto rischio
Applicazioni in sanità, giustizia, credito e pubblica amministrazione devono essere certificate prima della loro adozione. Il modello può ispirarsi alla proposta di algoritmo auditabile del CNIL francese.
- Fondo per la formazione e la transizione professionale
L’Italia è al penultimo posto in Europa per investimenti in lifelong learning. Servono risorse per riqualificare lavoratori nei settori a rischio automazione.
- Incentivi per un’IA civica e trasparente
Finanziamenti e premi a startup, università e enti locali che sviluppino soluzioni IA orientate al benessere collettivo: sanità territoriale, agricoltura di precisione, trasporti intelligenti, lotta allo spreco.
Un esempio concreto: IA nella giustizia
Nel 2023, in alcuni tribunali italiani è stato sperimentato un software di supporto alle sentenze civili. In mancanza di linee guida chiare, ci si è affidati a strumenti privati, con codici chiusi e logiche opache. Ma decidere sul destino di una persona – se riceverà un risarcimento o sarà condannata – non può essere affidato a un algoritmo incontrollato. Serve una legge. Subito.
Conclusione
L’IA sta ridefinendo il potere. Non solo economico, ma decisionale. Se il Parlamento italiano non assume un ruolo guida, saranno altri – aziende private o Stati più veloci – a stabilire le regole del gioco. Con quale trasparenza, con quale etica, con quale visione?
Regolare l’intelligenza artificiale oggi significa difendere la democrazia di domani. L’Italia non può restare a guardare.