AI: INVESTIMENTI E REGOLE PER IL SUO SVILUPPO NEI PAESI EUROPEI
AI: INVESTIMENTI E REGOLE PER IL SUO SVILUPPO NEI PAESI EUROPEI
L’articolo “Investimenti e regole per sviluppare l’AI nei paesi Europei”, a cura del Prof. Avv. Angelo Lalli, pubblicato Il 12 marzo 2024 su Il Sole 24 Ore (Osservatorio Fondazione Bruno Visentini)
Indice:
- Introduzione
- Potenzialità, applicazioni e rischi dell’AI
- AI: la sfida globale
- Lo sviluppo dell’AI nelle politiche e nelle normative europee
- Considerazioni conclusive
Introduzione
La ormai prossima definitiva approvazione del regolamento Consiglio e del Parlamento Europeo che stabilisce regole armonizzate sull’Intelligenza Artificiale (la legge sull’Intelligenza Artificiale, d’ora in poi anche AI), prevista per l’aprile 2024, suggerisce alcune riflessioni sui diversi approcci che si manifestano sul tema a livello mondiale.
Un dato di fatto da cui muovere è la natura rivoluzionaria dell’AI.
Tralasciando per il momento il pur importante dibattitto filosofico sul se il nuovo strumento sia espressione di autentica intelligenza creativa o se le elaborazioni dei sistemi di AI siano idonei a esprimere forme di autocoscienza, per renderci conto della rivoluzione in atto, è sufficiente osservare che questa tecnologia già oggi è in grado di elaborare in autonomia enormi quantità di dati, in modo tale da riuscire a rilevare inferenze, connessioni e, quindi, in ultima analisi, conoscenze prima ignote e di interagire direttamente con l’ambiente naturale.
Potenzialità, applicazioni e rischi dell’AI
In sintesi, i sistemi di AI possono svolgere attività caratterizzate da un sempre più elevato contenuto intellettuale, sino a oggi appannaggio esclusivo dell’essere umano, con la differenza rilevante di poterle realizzare tenendo conto di un numero di fattori talmente elevato e con una velocità e coerenza logica impossibili per un cervello umano.
Le applicazioni poi sono infinite e i risultati che già si possono apprezzare mostrano progressi innegabili: dalla ricerca scientifica in generale alle applicazioni nella diagnosi medica; dalla gestione automatizzata dei processi produttivi, della logistica, dei sistemi di trasporto e delle transazioni commerciali alla gestione dei servizi nella pubblica amministrazione; dalle applicazioni in ausilio delle attività giudiziarie, alla creazione di nuovi contenuti di testo, immagini, musica, audio e video.
AI: la sfida globale
L’immediato futuro promette ulteriori e strabilianti evoluzioni. L’AI si pone come la nuova sfida planetaria per la quale si è accesa una fortissima competizione tra gli Stati più grandi e potenti, come Stati Uniti e Cina, e, prima ancora, tra le grandi imprese multinazionali i c.d. giganti dell’high tech.
A vedere le politiche e i documenti ufficiali sia americani che cinesi sul tema emerge chiaramente, ed in modo sorprendente, un comune atteggiamento di queste due grandi Paesi: l’AI è considerata una tecnologia da sviluppare al fine principale di promuovere la potenza economica, politica e militare della rispettiva nazione. In entrambe i contesti sono in corso qualificati dibattiti pubblici sui rischi che gli impieghi delle nuove tecnologie presentano per la tutela dei diritti e si iniziano ad adottare anche i primi interventi normativi per una loro più specifica protezione.
Lo sviluppo dell’AI nelle politiche e nelle normative europee
Tuttavia, l’interesse prioritario perseguito dalle politiche pubbliche e dalle normative è lo sviluppo della tecnologia. Per la realizzazione dell’obiettivo sono destinate ingenti risorse finanziarie pubbliche; si promuovono centri di ricerca nazionali dedicati e si promuovono intense forme di cooperazione tra imprese private – che al momento sono i principali driver dell’evoluzione tecnologica specialmente negli Stati Uniti – e i pubblici poteri. Quei governi mostrano fattivamente di preoccuparsi in primo luogo di costruire un contesto favorevole all’evoluzione della tecnologia, al potenziamento delle conoscenze e all’adeguamento delle professionalità.
A fronte di questi orientamenti improntati alla mobilitazione proattiva dei rispettivi sistemi economici, di ricerca e di governo a favore dell’AI, l’Unione Europea ha manifestato un diverso atteggiamento di difesa. La nuova tecnologia – che pur essendo utilizzata al suo interno, in grande parte è sviluppata al di fuori dei suoi confini – è stata percepita principalmente come una minaccia nei confronti della quale è apparso prioritario approntare una disciplina di protezione.
Si dirà che nei considerando del regolamento e nei documenti preparatori della Commissione europea, si dichiara che l’AI è una grande opportunità di progresso, e che anzi l’opportunità del suo sviluppo è più volte indicata come una delle ratio della stessa nuova disciplina, ma si deve constatare, tuttavia, che l’esito finale ovvero l’insieme delle norme adottate, nella loro connessione sistematica, descrivono un contesto regolamentare ispirato a diffidenza e si risolvono essenzialmente nell’approntamento di mezzi repressivi per contrastare gli abusi. Il potere pubblico nel contesto europeo assume il ruolo di controllore occhiuto e non quello di promotore o facilitatore.
Considerazioni conclusive
È significativo che la Commissione europea abbia avviato solo a gennaio di quest’anno e quindi una volta approvato in nuovo quadro di regole, la definizione di un importante programma di investimenti nell’AI volto a promuovere un ecosistema europeo innovativo.
Questa inversione delle priorità di azione, secondo la quale nell’Unione europea la politica del controllo è stata anteposta a quella della promozione, rischia di causare un grave ritardo alla crescita di un autonomo settore di ricerca europeo. Ciò in definitiva può mettere in discussione anche la stessa efficacia del sistema di public enforcement istituito per proteggere dagli abusi dell’AI.
Il sistema infatti si basa, in ultima analisi, sulla professionalità e sull’aggiornamento tecnico e culturale di coloro che saranno chiamati all’esercizio delle nuove competenze di controllo: ma tali professionalità attualmente sono tutte da costruire.
È urgente allora recuperare il tempo perduto.
Occorrono investimenti pubblici importanti e un contesto favorevole agli investimenti privati. Occorre, infine, una riorganizzazione dei diversi saperi, anche a livello universitario, in chiave interdisciplinare. La rigida separazione tra conoscenze scientifiche e umanistiche di impronta positivistica è ormai un ostacolo per comprendere e gestire la complessità delle trasformazioni avviate dall’AI. Diritto e tecnica, in particolare, dovranno interagire secondo modalità cooperative se vogliamo elaborare una nuova cultura in grado di dialogare consapevolmente con l’AI e, se del caso, di correggere gli abusi nel suo utilizzo.
© RIPRODUZIONE RISERVATA