Moltissimo in questi ultimi due anni si è parlato e si sta parlando di intelligenza artificiale nelle sue varie sfaccettature e applicazioni. L’Italia è una delle prime a muoversi per tentare una regolamentazione dal punto di vista del diritto. Si parla anche di una sua eventuale applicazione all’interno sia del settore privato, che di quello pubblico. Per quanto concerne la Pubblica Amministrazione si può pensare a quanto lavoro amministrativo possa smaltire se utilizzata nella redazione degli atti e determine. Molto su tale tema sta spingendo il Federazione Lavoratori Pubblici e Funzioni Pubbliche, Marco Carlomagno. Per quando concerne l’IA citando proprio il Segretario Generale in un suo articolo del 1° luglio su HuffPost, ci dice: «Basti pensare allo studio condotto da Microsoft-Ambrosetti, presentato a inizio di quest’anno, che spiega come un’integrazione dell’intelligenza artificiale nei processi lavorativi possa produrre, a parità di ore lavorate, ben 312 miliardi di aumento del PIL, vale a dire il 18,2%. Oppure, a parità di valore aggiunto, potrebbe liberare 5 miliardi e 700 milioni di ore lavorate». Carlomagno riporta, su pagine di giornali e sulle sue pagine social, studi statistici concreti, i quali rivelano un netto miglioramento delle condizioni lavorative in caso di un’eventuale applicazione dell’I.A. Altri studi e ricerche, che leggo sempre con piacere, sono pubblicati anche da Rosario Moscato, tra i massimi esperti di I.A. a livello nazionale.
Ma a che punto siamo in Italia sulla regolamentazione dell’I.A. e quali sono gli aspetti fondamentali? Il presente lavoro dopo aver illustrato le tante possibilità offerte dall’applicazione dell’Intelligenza artificiale, vuole concentrarsi sugli aspetti relativi in particolare alla necessità di garantire l’intervento e la sorveglianza umana ed alla valutazione dell’impatto sui diritti fondamentali, basandoci proprio sul testo dell’IA Act, (Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024), la legge europea sull’intelligenza artificiale. Ciò che più colpisce dell’evoluzione tecnologica dovuta all’applicazione della I.A. «non è tanto e solo la dimensione globale della trasformazione – (…)– ma la velocità della trasformazione in atto e la continua produzione di nuove invenzioni, che rendono rapidamente inutili o obsoleti le regole e gli strumenti di controllo via via progettati e posti in essere. Non si tratta, quindi, di una singola invenzione – come l’elettricità, o il motore a scoppio, o la televisione – ma di un processo di trasformazione delle abitudini individuali e delle modalità di interazione sociale i cui esiti non si stabilizzano mai completamente, ma continuano invece ad evolvere» (L. Torchia, Lo Stato digitale-Una introduzione, Bologna, Il Mulino, 2023, p. 21.). A questo punto la trasformazione/transizione tecnologica è da considerarsi dal punto di vista strategico uno dei tratti salienti dello Stato Moderno.
Non ci occuperemo in questa sede dei rischi etici legati all’applicazione dell’I.A., ma piuttosto ci andremmo a concentrare sul problema giurisprudenziale legato all’imputazione di responsabilità. Il dibattitto si accende quando si parla dei compiti umani che possono essere demandati all’I.A., in caso di errore o illecito chi si andrebbe ad imputare? Si pensi ad esempio all’intricata questione legata alle automobili in grado di procedere autonomamente, senza supporto umano, in caso di incidente a chi andrebbe la colpa? Al possessore? All’azienda che le produce? Al titolare del brevetto di quella particolare I.A.? Tutto ciò comporta l’emergere di problemi giuridici di rilevante difficoltà. È ovvio pensare che, se la dottrina ha dovuto regolamentare responsabilità dirette e indirette attraverso leggi e articoli (art. 114, d.lgs. 206/2005; art. 2052 c.c; rt. 2048 c.c.; rt. 2054 c.c.; art. 2051 c.c.), è necessario che vada a regolamentare anche l’Intelligenza Artificiale, in quanto anche questa se applicata a macchine e i veicoli a guida autonoma possa causare danni a persone e cose. Inoltre, va detto che più si ha a che fare con sistemi di intelligenza artificiale evoluti, tanto più sarà difficile la regolamentazione in termini conseguenziali. Un altro esempio, sempre relativo ai veicoli a guida autonoma, ma più di carattere etico riguarda un ipotetico scenario nel quale l’I.A. che controlla il veicolo debba decidere, in caso di collisione inevitabile che determina il danno o addirittura il sacrificio di esseri umani, se danneggiare quelli all’interno del veicolo o investire pedoni all’esterno. In questo caso quali istruzioni dovranno essere fornite all’algoritmo per operare concretamente tale scelta? Questo è però un dilemma morale ed etico, quello che più interessa a noi è quello giurisprudenziale della colpa. L’Unione Europea ha intanto avanzato una proposta di direttiva sulla responsabilità per i danni da intelligenza artificiale. La Commissione europea ha optato però per lo strumento della nuova direttiva, poiché ha ritenuto il regolamento esistente troppo vincolante e stringente per il settore della responsabilità extracontrattuale caratterizzato da tradizioni giuridiche di lunga data in ciascuno degli Stati membri. La nuova direttiva «garantisce l’effetto di armonizzazione e la certezza del diritto auspicati, prevedendo nel contempo la flessibilità per consentire agli Stati membri di integrare le misure armonizzate senza attriti nei rispettivi regimi nazionali di responsabilità». Inoltre, in data 28 settembre 2022 è stata elaborata una proposta di Direttiva del Parlamento europeo e del Consiglio relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale (direttiva sulla responsabilità da intelligenza artificiale in coerenza con il piano di azione relativo allo sviluppo dell’Intelligenza Artificiale (Proposta di Direttiva del Parlamento europeo e del Consiglio relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale (direttiva sulla responsabilità da intelligenza artificiale del 28 settembre 2022 (COM (2022) 496 final); Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) (COM (2021) 206 final); Proposta di direttiva del Parlamento europeo e del Consiglio sulla responsabilità per prodotti difettosi-COM (2022) 495 del 28 settembre 2022.).
La lunga strada per la regolamentazione dell’Intelligenza Artificiale
di