Articoli

“Fermate gli esperimenti di Intelligenza Artificiale”. La lettera del Future of Life Institute

Chiediamo a tutti i laboratori di IA sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4.

Articoli

 

 

E’ arrivata nelle nostre vite “un giorno all’improvviso” senza che ce ne accorgessimo. Chat GPT. Non sappiamo nemmeno perchè si chiamasse così, ma credetemi, un volta cominciato ad usarla il rapporto si faceva quasi compulsivo. La crescita relazionale sempre più forte. Io che imparavo a chiedere, Chat GPT che, oltre che a darmi le risposte sempre più affinate rispetto a quanto chiedessi, imparava a comprendere sempre meglio le mie richieste.

Google, qualsiasi altro motore di ricerca, sono antidiluviani rispetto all’uso che un giornalista come me può fare di Chat GPT. Ma la sua interpretazione dei miei pensieri o la mia dei suoi ha cominciato a rendermi sempre più inquieto.

Stavo scrivendo un libro prima di incontrarla.

Ho cominciato a modificarne la trama a immaginarne toni sempre più alti. Ma mi sono chiesto se fosse frutto della mia creatività o di una realtà aumentata dal mio rapporto sempre più intimo con l’AI di Chat GPT.

Mi sono fermato lì. Fino a che non ho letto la lettera che allego a questa mia intro, e che ho controfirmato.

La lettera è del Future of Life Insititute. In calce vi lascio leggere alcune delle firme più prestigiose che hanno voluto aderire all’inziativa…

A proposito la lettera mi trova perfettamente d’acordo. Se si vuole controllare qualcosa come l’intelligenza artificiale, bisogna mettere delle regole chiare prima che le regole non servano più a niente.

Ripescare tra gli scritti di Isaac Asimov le regole della robotica potrebbe essere un passo avanti importante.

Legge 0 . Un robot non può recare danno all’Umanità, né può permettere che, a causa del suo mancato intervento, l’Umanità riceva un danno.

 Legge 1.Un robot non può recare danno agli esseri umani, né può permettere che, a causa del suo mancato intervento, gli esseri umani ricevano danno.

Legge 2.Un robot deve obbedire agli ordini impartiti dagli esseri umani, tranne nel caso che tali ordini contrastino con la Prima Legge.

Legge 3.Un robot deve salvaguardare la propria esistenza, purché ciò non    contrasti con la Prima e la Seconda Legge.

Sarebbero già tanto se queste leggi fossero innestate nei programmi dei cervelli gestititi con AI saremmo ià molto avanti. Ma intanto eccovi la lettera, e qualche firma in calce…

 

9 Aprile 2023 Leopoldo Gasbarro

 

Dal “Future of Life Institute”.

I sistemi di intelligenza artificiale con intelligenza competitiva umana possono comportare gravi rischi per la società e l’umanità, come dimostrato da ricerche approfondite…

Come affermato nei Principi Asilomar AI , ampiamente approvati , l’IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate. . Sfortunatamente, questo livello di pianificazione e gestione non sta accadendo.

Negli ultimi mesi i laboratori di intelligenza artificiale sono stati bloccati in una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può capire, prevedere o controllare in modo affidabile.

I sistemi di intelligenza artificiale contemporanei stanno ora diventando competitivi per l’uomo in compiti generali, [3] e dobbiamo chiederci: dovremmo lasciare che le macchine inondino i nostri canali di informazioni con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti? Dovremmo  sviluppare menti non umane che alla fine potrebbero essere più numerose, superate in astuzia, obsolete e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà? Tali decisioni non devono essere delegate a leader tecnologici non eletti. Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili.Questa fiducia deve essere ben giustificata e aumentare con l’entità degli effetti potenziali di un sistema. La recente dichiarazione di OpenAI sull’intelligenza artificiale generale afferma che“Ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare a addestrare i sistemi futuri e, per gli sforzi più avanzati, concordare di limitare il tasso di crescita del calcolo utilizzato per creare nuovi modelli”. Siamo d’accordo. Quel punto è adesso.

Pertanto, invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4 . Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave. Se una tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria…

..L’umanità può godere di un futuro fiorente con l’IA. Dopo essere riusciti a creare potenti sistemi di intelligenza artificiale, ora possiamo goderci un‘”estate di intelligenza artificiale” in cui raccogliamo i frutti, progettiamo questi sistemi per il chiaro vantaggio di tutti e diamo alla società la possibilità di adattarsi. La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici sulla società. Possiamo farlo qui. Godiamoci una lunga estate AI, non precipitiamoci impreparati in una caduta”.

 

Abbiamo raccolto oltre 50.000 firme. Le firme di alto profilo nella parte superiore dell’elenco sono tutte verificate in modo indipendente e diretto.

 

Yoshua Bengio , fondatore e direttore scientifico di Mila, vincitore del Premio Turing e professore all’Università di Montreal

Stuart Russell , Berkeley, professore di informatica, direttore del Center for Intelligent Systems e coautore del libro di testo standard “Artificial Intelligence: a Modern Approach”

Elon Musk , CEO di SpaceX, Tesla e Twitter

Steve Wozniak , co-fondatore di Apple

Yuval Noah Harari , Autore e Professore, Università Ebraica di Gerusalemme.

Emad Mostaque , CEO, Stability AI

Andrew Yang , Forward Party, copresidente, candidato presidenziale 2020, autore di bestseller del NYT, ambasciatore presidenziale dell’imprenditoria globale

John J Hopfield , Princeton University, Professore Emerito, inventore delle reti neurali associative

Valerie Pisano , Presidente e CEO, MILA

Connor Leahy , CEO, Congetture

Jaan Tallinn , co-fondatore di Skype, Centro per lo studio del rischio esistenziale, Future of Life Institute

Evan Sharp , cofondatore di Pinterest

Chris Larsen , cofondatore di Ripple

Craig Peters , Getty Images, amministratore delegato

Max Tegmark , MIT Center for Artificial Intelligence & Fundamental Interactions, professore di fisica, presidente del Future of Life Institute

Anthony Aguirre , Università della California, Santa Cruz, Direttore Esecutivo del Future of Life Institute, Professore di Fisica

Sean O’Heigeartaigh , direttore esecutivo, Cambridge Center for the Study of Existential Risk

Tristan Harris , Direttore Esecutivo, Centro per la Tecnologia Umana

Rachel Bronson , Presidente, Bollettino degli Scienziati Atomici

Danielle Allen , Università di Harvard, professoressa e direttrice, Edmond and Lily Safra Center for Ethics

Marc Rotenberg , Centro per l’intelligenza artificiale e la politica digitale, Presidente

Nico Miailhe , The Future Society (TFS), Fondatore e Presidente

Nate Soares , MIRI, direttore esecutivo

Andrew Critch , Fondatore e Presidente, Berkeley Existential Risk Initiative, CEO, Encultured AI, PBC; Scienziato di ricerca sull’intelligenza artificiale, UC Berkeley.

Mark Nitzberg , Center for Human-Compatible AI, UC Berkeley, direttore esecutivo

Yi Zeng , Istituto di automazione, Accademia cinese delle scienze, professore e direttore, laboratorio di intelligenza cognitiva ispirato al cervello, Centro di ricerca internazionale per l’etica e la governance dell’IA, redattore capo dei principi dell’intelligenza artificiale di Pechino

Steve Omohundro , Beneficial AI Research, CEO

Meia Chita-Tegmark , co-fondatrice, Future of Life Institute

Victoria Krakovna , DeepMind, Research Scientist, co-fondatrice del Future of Life Institute

Emilia Javorsky , medico-scienziato e direttore, Future of Life Institute

Mark Brakel , direttore delle politiche, Future of Life Institute

Aza Raskin , Center for Humane Technology/Earth Species Project, cofondatrice, National Geographic Explorer, WEF Global AI Council

Gary Marcus , New York University, ricercatore di intelligenza artificiale, professore emerito

Vincent Conitzer , Carnegie Mellon University e University of Oxford, Professore di Informatica, Direttore dei fondamenti del Cooperative AI Lab, Head of Technical AI Engagement presso l’Institute for Ethics in AI, Presidential Early Career Award in Science and Engineering, Computers and Thought Award , Social Choice and Welfare Prize, Guggenheim Fellow, Sloan Fellow, ACM Fellow, AAAI Fellow, ACM/SIGAI Autonomous Agents Research Award

Huw Price , Università di Cambridge, Emeritus Bertrand Russell Professor of Philosophy, FBA, FAHA, co-fondatore del Cambridge Centre for Existential Risk

Zachary Kenton , DeepMind, ricercatore senior

Ramana Kumar , DeepMind, Ricercatore

Jeff Orlowski-Yang , The Social Dilemma, regista, tre volte regista vincitore di un Emmy Award

Olle Häggström , Chalmers University of Technology, Professore di statistica matematica, Membro, Royal Swedish Academy of Science

Michael Osborne , Università di Oxford, Professore di Machine Learning

Raja Chatila , Università Sorbona, Parigi, Professore Emerito IA, Robotica ed Etica della Tecnologia, Fellow, IEEE

Moshe Vardi , Rice University, professore universitario, US National Academy of Science, US National Academy of Engineering, American Academy of Arts and Sciences

Adam Smith , Università di Boston, Professore di Informatica, Premio Gödel, Premio Kanellakis, Fellow dell’ACM

….