www.unimondo.org/Notizie/Sicurezza-nell-Intelligenza-Artificiale-si-ma-per-chi-246484
Sicurezza nell’Intelligenza Artificiale: sì, ma per chi?
Notizie
Stampa

Foto: Possessed Photography da Unsplash.com
Il britannico Sunak ha organizzato il 1° summit sui rischi dell’AI, gli Usa hanno creato un’Agenzia federale. Mentre si stimola l’hype, in un misto di paura e magnificazione, si rischia che la regolazione sia affidata alle Big Tech, proprietarie di tecnologie e dati. Mettendo nell’angolo sviluppatori indipendenti e società civile.
Nel marzo 2023 il Future for Life Institute ha pubblicato una lettera appello1 firmata da ricercatori, tecnici ed imprenditori della Intelligenza Artificiale (IA) in cui ne veniva chiesta la sospensione dello sviluppo per sei mesi, allo scopo di valutarne i rischi associati ed evitare in tal modo l’emergenza di “rischi esistenziali” per l’umanità ad essa correlati. La lettera appello, che include firme di personaggi come Elon Musk, CEO di Tesla e Steve Wozniak, co-fondatore di Apple, suscitò all’epoca un certo clamore, ma inizialmente sembrava destinata a rimanere sullo sfondo del sistema mass-mediatico, complice una certa divergenza sui contenuti della lettera – importante soprattutto quella espressa da Sam Altman, padre di Chat-GPT e CEO di OpenAI2. A tale lettera è seguito un secondo appello3, poche righe pubblicate il 30 maggio dal Center for AI Safety, il cui lapidario contenuto è: “Mitigare il rischio di estinzione rappresentato dall’Intelligenza Artificiale dovrebbe essere una priorità globale al pari di altri rischi di portata sociale come le pandemie e le guerre nucleari”. Questo secondo appello, al contrario del primo, veniva firmato anche dallo stesso Sam Altman, oltre che da Bill Gates (finanziatore di OpenAI) e da molti amministratori di primo piano di aziende avanzate nel campo della intelligenza artificiale (come Google, OpenAI, XAI, DeepMind, Anthropic; si nota invece l’assenza di personaggi ascrivibili a META, proprietaria di Facebook e Whatsapp). Firmano anche scienziati del calibro di Geoffrey Hinton, in Google al tempo dell’appello, e Yoshua Bengio, del Montreal Institute for Learning Algorithms: due dei padri fondatori della IA e vincitori del premio Turing nel 2018. Il terzo padre fondatore, nonché anch’esso vincitore del premio nel 2018, Yann LeCun di Meta, non firma, non condividendo il contenuto del documento4. Gli appelli fanno seguito alla diffusione pubblica, avvenuta il 3 novembre 2022, di Chat-GPT, un modello di linguaggio generativo preaddestrato5 in grado di interagire con chi lo interroga nel linguaggio naturale, fornendo risposte apparentemente esaustive ai quesiti posti. Sviluppato da OpenAI, azienda sostenuta da Microsoft, il chat-bot si è dimostrato straordinariamente capace nel suo comportamento, inducendo facilmente a pensarlo come dotato di una qualche forma di intelligenza. Ad aprile del 2023 un gruppo di ricercatori di Microsoft (tra i finanziatori di OpenAI) pubblica un articolo6 il cui stesso titolo parla esplicitamente di “scintille di intelligenza generale7” in Chat-GPT 4.
Sono questi gli eventi che hanno contribuito ad alimentare la meraviglia della IA, e insieme ad essa, contemporaneamente, la paura legata alla possibilità che questa sfuggisse di mano, diventasse in prospettiva autonoma e prendesse decisioni nocive per la stessa sopravvivenza dell’umanità. Alimentandosi vicendevolmente, meraviglia e paura sono andate velocemente oltre le discussioni accademiche, passando dai tavoli tecnici alla diffusione pubblica di massa, e infine ai governi. Il coro di voci che sollevano preoccupazioni sull’intelligenza artificiale è alla fine diventato troppo forte per essere ignorato.
Certo, come qualcuno non manca di sottolineare, esistono già oggi impatti negativi dovuti alla sempre maggiore diffusione della IA: perdita di lavoro, persistenza o addirittura rafforzamento di pregiudizi e discriminazioni razziali, sessuali, economici e così via, ma queste non hanno la stessa rilevanza nei media, non rimbalzano tra giornali, social media e televisioni allo stesso modo dei rischi catastrofici, addirittura di estinzione dell’umanità, paventati negli appelli. L’uso malvagio della IA o il suo rendersi autonoma dal controllo umano sono i “rischi esistenziali” che si impongono nella visione mainstream...