Intelligenza Artificiale, ecco il pericolo più grande: ricordate HAL?

Al di là del bias politico-morale e delle questioni legate alla privacy, il problema più preoccupante dell’AI è quello detto “allineamento”: la scelta di HAL 9000

4.3k 2
generica_porro_1200_5

Ancora con l’Intelligenza Artificiale! Effettivamente, corriamo il rischio di divenire quasi mono tematici: ma si tratta di una tecnologia che avrà un impatto enorme sulle nostre vite, dove riteniamo indispensabile in questo momento che nessuno resti indietro.   

Vorremmo oggi fare qualche breve considerazione sull’articolo di ieri del nostro Roberto Ezio Pozzo, per poi passare all’apparentemente insolubile questione del bias anti-Trump (e ovviamente pro-Biden) che pare affliggere anche i modelli concorrenti di ChatGPT, per terminare con alcune good news: restate con noi.

La AI può “ragionare”?

Not so easy, non così semplice. Nell’articolo di domenica si afferma che “il ragionamento… rimane privilegio riservato ai viventi e Dio non voglia che sia mai altrimenti”. Ci pare un’affermazione assiomatica, come quella di chi sostiene, con certezza, che “Dio esiste“.  Se uno vuole crederci – per fede – massimo rispetto.  

Ma essendo abituati a cercare dimostrazioni e prove razionali ci sembra una risposta troppo facile. A parte il fatto che la frase, letta testualmente, implica che ad esempio anche batteri e alghe ragionino, il punto è che non riusciamo a capire il motivo per cui un sistema artificiale che replichi il funzionamento del cervello umano (neuroni e connessioni tra di essi) non possa col tempo “ragionare”. I segnali sono solo elettrici e non anche chimici, so what?

In realtà, temiamo che la AI arriverà rapidamente a “ragionare” e che la cosa abbia risvolti pericolosi: nel resto di questo articolo cerchiamo di chiarire il motivo.

In quanto alla spiegazione del funzionamento di ChatGPT invitiamo i lettori ad andare alle fonti primarie e non limitarsi a semplificazioni troppo tranquillizzanti. Nell’articolo di domenica manca oltretutto la parte relativa al “reinforcement learning”, che è la vera chiave sia delle sorprendenti performance di GPT-4 e degli altri modelli nonché… del bias anti-Trump. Per approfondirlo si può partire da qui.

AI moralista

Ma torniamo a quanto volevamo raccontare, partendo da alcune cattive notizie indispensabile premessa per la rivoluzionaria buona notizia con cui chiuderemo l’articolo. 

Apprendiamo qui che l’AI si rifiuta di creare un racconto erotico. Forse negli States ignorano come Giovanni Boccaccio e Pier Paolo Pasolini  facciano parte della cultura (con la C maiuscola) italiana e in ogni caso non capiamo perché mai dovremmo accettare che qualche auto-proclamato “etico” dell’AI debba decidere cosa possiamo leggere (scelta forse accettabile se avessimo chiesto un racconto “pornografico”, ma anche su questo nutriamo qualche dubbio). 

Bias anti-Trump

La seconda notizia sembrerebbe yesterday’s news, non fosse che qui non stiamo affatto usando ChatGPT, ma un modello totalmente differente, quello di you.com. Ripetiamo questo punto essenziale: la risposta arriva da un sistema di AI alternativo e concorrente a ChatGPT, trainato da persone differenti.

Ma non se ne esce: di Trump non si può parlare, mentre Biden è un uomo di onore e grazia che “in politica estera e in diplomazia ha dimostrato leadership e rara empatia”.

L’uso dei nostri dati 

Veniamo a un punto più importante che invitiamo i lettori a tenere presente. Le nostre conversazioni con ChatGPT, Bing/AI, you.com e il futuro Bard di Google non sono confidenziali e riservate: vanno invece opzionalmente ad alimentare proprio la base di conoscenza dei modelli stessi. È dunque inopportuno inserire informazioni confidenziali (documenti sensibili quali atti giudiziari, fatti personali o strategie aziendali).

Il rischio “allineamento”

Un altro problema segnalato da molti riguarda la futura (o anche presente) impossibilità di discernere quando si legge un testo (ma anche si guarda un’immagine o un video) reale e quando uno generato da una IA.

Contrariamente ai più, non siamo preoccupati dal problema delle fake news (come sappiamo sono prodotte già copiosamente da firme famose in carne ed ossa che operano per conto dei media di tutto il mondo), ma da come collettivamente, come umanità, potremmo scoprire che le opere delle migliori IA (GPT 4.0 e successivi) siano in qualche modo superiori a quelle degli umani, delegando a questi sistemi un potere su di noi che ha molti rischi, principale di tutti quello detto “allineamento”.

Si tratta di una questione poco discussa, ma che incorpora in sé i peggiori rischi di questa tecnologia, quelli che avevano fatto affermare già dieci anni fa a Bill Gates ed Elon Musk che la IA rappresenta un rischio esistenziale per l’umanità“.

Ed è il caso di prendere in seria considerazione quanto detto dai due imprenditori: il primo aveva previsto la pandemia dovuta al Covid già nel 2014, mentre il secondo è … beh, è inutile raccontare chi sia ai lettori di Atlantico.

La scelta di HAL

Il problema alla base, l’allineamento, è stato in parte inserito da Sir Arthur Charles Clarke in “2001 Odissea nello Spazio”. Come si ricorderà, il computer HAL 9000 era stato messo di fronte al conflitto tra l’ordine di essere onesto e preciso e la necessità di mentire a parte dell’equipaggio al fine di completare la missione.

La scelta di HAL, ovvia, era stata quella di eliminare l’intero equipaggio – in modo da non essere costretto a mentire. Per chi lo avesse dimenticato, nel romanzo di Clarke HAL 9000 era definito un “sentient general artificial intelligence computer” (vedere qui) capace di riconoscere il dialogo, riconoscere i volti, generare testi, generare arte, giocare a scacchi e ragionare autonomamente. Il problema dell’allineamento va anche oltre e chi volesse approfondire può iniziare da questo video.  

Alpaca

Concludiamo con la promessa buona notizia. Si tratta di un annuncio del marzo di quest’anno, che abbiamo utilizzato (installandolo sul nostro Mac) e verificato in prima persona in questi giorni. Sviluppato in uno dei più prestigiosi atenei statunitensi, la Stanford University, è stato reso pubblico con questo paper

Si tratta di Alpaca, un “modello che si comporta in modo qualitativamente simile a ChatGPT (text-davinci-003) pur essendo incredibilmente snello ed economico da replicare”. Niente super computer, il training è stato effettuato su un pc da 600 dollari.

Il documento ha dell’incredibile e invitiamo tutti alla lettura. Questo modello, pur essendo in grado di funzionare su un Mac con soli 8 GB di RAM, è in grado di rispondere quasi a livello di GPT-3 ed è privo di censure

IA che impara da altre IA 

Il tutto grazie alla surreale idea di addestrarlo partendo dal modello di Facebook e utilizzando proprio ChatGPT come antagonista.

Avete capito bene: Alpaca ha appreso quanto possibile proprio facendo parlare tra loro (legalmente) due IA concorrenti, quelle di Meta e Open AI. L’interazione di prova che segue è stata eseguita da chi scrive il 25 marzo 2023 su un Macbook Air M1 con 8 GB di RAM non connesso alla rete. 

Potenzialità e limiti

Abbiamo voluto descrivere alcuni dei problemi posti attualmente dalla IA non per cercare di rallentarne l’adozione ma, al contrario, per invitare tutti alla sperimentazione. Solo comprendendone a fondo potenzialità e limiti saremo in grado di beneficiare di questa rivoluzione importante probabilmente quanto quella della macchina a vapore.

Seguici sui nostri canali
Exit mobile version