Media

Musk: il governo aveva “pieno accesso” a Twitter. ChatGPT? Istruita a mentire

Elon Musk a Tucker Carlson: le agenzie governative avevano “accesso totale” a Twitter, messaggi privati inclusi. Una “TruthGPT” contro Microsoft e Google

Media

Questa notte in un’intervista a Tucker Carlson di Fox News, Elon Musk ha parlato principalmente di Twitter e di Intelligenza Artificiale. Su entrambi gli argomenti ha fornito – come c’era da attendersi – opinioni molto precise e alcune rivelazioni che vale la pena raccontare.

Per quanto riguarda Twitter, partendo dall’importo esorbitante speso per l’acquisto, si è arrivati all’influenza nascosta delle varie agenzie governative Usa sulla piattaforma, mentre sulla IA Musk ha espresso forti dubbi sul tipo di training al LLM (Large Language Model) dominante – ChatGPT/GPT 3.5/GPT 4 – addestrata ad essere politically correct e non per dire la verità. Dubbi tanto forti da convincerlo ad annunciare una sua iniziativa diretta, detta TruthGPT. Vediamo insieme alcuni passaggi essenziali. 

I licenziamenti

Partiamo da Twitter e dal tema “verità” e fake news. I media tradizionali sono in forte crisi (come sappiamo bene) e hanno preso l’abitudine di fare continui titoli negativi su Twitter, a cominciare dal gran numero di licenziamenti. 

Carlson ha dunque domandato quale sia la percentuale di dipendenti licenziati da Musk. La risposta:

È rimasto il 20 per cento dei dipendenti che ho trovato. Ma ho scoperto, abbiamo scoperto che non c’era bisogno di tutte quelle persone: se il tuo obiettivo non è che l’azienda sia una riverita organizzazione di attivisti, e se non ti interessa censurare gli utenti, non hai bisogno di tutte quelle persone.

Le fake news dei media tradizionali

Altra domanda. Valeva la pena acquistare Twitter per affermare il free speech? Risponde Musk:

Rimane da dimostrare che sia stata finanziariamente una buona mossa. Ho comprato Twitter al doppio del prezzo che valeva… forse qui non sono stato così smart (risata, ndr). Ma alcune cose sono senza prezzo. I soldi sono secondari rispetto ad assicurare un buon funzionamento della democrazia e il free speech è essenziale. Con la funzione “community notes” stiamo andando in quella direzione.

È importante capire di cosa sta parlando: Community Note è un sistema per cui tweet o link ad articoli che sono ritenuti da un numero sufficiente di utenti “fake news” (dunque spesso provenienti dalla stampa tradizionale) possono essere associati ad una “note” che spiega dove sta la falsità.  

Per spiegare bene il concetto prendiamo un tweet del 2 aprile dell’agenzia Reuters. Il titolo era che Tesla avrebbe immesso sul mercato meno vetture del previsto: un chiaro falso segnalato immediatamente dalla nota che possiamo vedere subito sotto (le auto consegnate erano infatti superiori alle attese). Non troverete più il tweet originale: è stato cancellato dall’agenzia stessa che – secondo Musk – difficilmente pubblicherà in futuro altre notizie palesemente false. 

L’influenza governativa su Twitter

Prosegue l’intervista: “Lei si aspettava tanta ferocia da parte di tutti, dopo la sua acquisizione”? E Musk:

C’erano molte organizzazioni che avevano un’influenza nascosta su Twitter. E ora non l’hanno più. Il livello al quale molte agenzie, incluse straniere, avevano completo accesso a quanto accadeva in Twitter era incredibile. Inclusi i messaggi privati. Questi non erano crittografati. Molte persone influenti usano Twitter per i propri messaggi diretti e le agenzie governative avevano accesso a tutto. Quindi dal mese prossimo si potrà attivare la crittografia. 

Altra domanda. “Per quale motivo altri social, quali Facebook, non sono così fissati con il free speech?”. E Musk:

Da quanto so (“it is my understanding that”, ndr) Zuckerberg ha speso 400 milioni di dollari nelle scorse elezioni per sostenere il Partito Democratico. Le sembra privo di bias? A Twitter ho voluto il free speech (ad esempio cambiando la decisione precedente di censurare i tweet di Donald Trump, ndr) e ho voluto lasciare la possibilità all’ex presidente di parlare: ma non ho votato Trump, alle ultime elezioni ho votato Biden.

AI addestrata a mentire

Ed ecco alcuni passaggi salienti dell’intervista sulla IA, che ovviamente intersecano in modo importante i discorsi sul free speech. Li riportiamo testualmente. 

ELON MUSK: (Il problema di Open AI) è che hanno addestrato ChatGPT per commentare su alcune cose e non su altre (come ben ricordiamo e con la questione degli eticisti della IA, ndr). E a mentire, a volte, a non dirci ciò che i dati reali potrebbero dirci.

TUCKER CARLSON: Ma come è possibile? Ha fondato lei quella società.

EM: Sì, è una cosa davvero ironica. 

Duopolio Microsoft e Google

TC: Lei ha dato molto a quella società… cosa ha dato loro? 

EM: Beh, gli ho dato il nome (OpenAI) e il “concept” (l’obiettivo aziendale) (ma Musk evita di citare l’ingente investimento iniziale fatto di tasca sua, ndr). Ho tenuto numerose cene nella Bay Area con le principali personalità della IA. Ho aiutato ad assumere il team iniziale, compresa la persona senza di cui nulla (di quanto vediamo: ChatGPT, ndr) si sarebbe realizzato. 

E l’obiettivo, il concept, era essere un contrappeso, un’alternativa a Google. Ma poi mi sono interessato ad altro. E il risultato è che ora loro sono “closed source” (l’esatto opposto di “open”, ndr) e sono diventati un’organizzazione a scopo di lucro. E sono alleati di Microsoft. In effetti, Microsoft oggi ha una forte influenza, forse li controlla direttamente

Quindi ci troviamo con una situazione dove da un lato c’è Microsoft con OpenAI e dall’altra Google con Deep Mind … Insomma, due pesi massimi che dominano

La terza opzione

TC: Quindi il mondo ha bisogno di una terza opzione? 

EM: Sì sì, penso che creerò una terza opzione. Anche se ora partiamo un po’ tardi. 

EC: Può essere fatto? 

EM: Vedremo. Sì, partiamo tardi ma vorrei cercare di creare una terza opzione. Che possibilmente faccia più bene che danno. Che poi era la mia intenzione anche con OpenAI ma non è chiaro se è quello che stanno facendo ora. 

Ma una cosa posso dirla: (ChatGPT) è stata addestrata per essere politically correct, che molto semplicemente non è il modo di dire la verità. Quindi la chiamerò TruthGPT (GPT della verità, ndr). Una IA addestrata a cercare la verità, che cerchi di comprendere la natura dell’universo.

E penso che questa sia la migliore strada verso la sicurezza (contro i pericoli della IA, ndr), nel senso che una IA che cerca di comprendere la natura dell’universo ha poca probabilità di distruggere l’umanità, in quanto noi siamo una parte molto interessante dell’universo… beh, almeno spero che lo siamo. 

Pericoli della IA? Proviamo a pensare… l’umanità avrebbe potuto decidere di cacciare ed estinguere gli scimpanzé, per esempio. Ma non lo abbiamo fatto, in quanto sono un aspetto interessante del creato e dunque cerchiamo di proteggere il loro habitat.

La IA, la coscienza umana e la bellezza

TC: Certo, ma noi ci comportiamo così perché abbiamo un’anima, che ci rende sensibili e ci dà un senso morale. Una macchina può avere gli stessi valori? Può capire e apprezzare la bellezza? 

EM: Qui entriamo in una specie di area filosofica difficile da risolvere. Io prediligo una visione scientifica delle cose: è possibile che noi umani abbiamo un’anima, ma è anche possibile di no. 

Non lo so. La sensazione è di averla. È possibile che possediamo una coscienza che esiste su un piano che non siamo in grado di osservare. Ma potrebbe essere un’illusione: non lo so.

Per quanto riguarda la IA, capire la bellezza… o anche creare bellezza. Beh, è già in grado di crearla, ha visto per esempio… 

TC: … Certo… 

EM: … opere che sono per noi molto belle. Che percepiamo come incredibili. Sono immagini per ora, ma a breve saranno video e film: i film non sono altro che sequenze di immagini con audio. 

TC: Ma c’è il fatto che la IA può copiare le persone, creare immagini e copiare voci. Come potremo celebrare processi, sapere che le prove che ci verranno sottoposte saranno autentiche? E non parlo di tra trent’anni, parlo di quest’anno, dell’anno prossimo. Mi sembra distruttivo per tutte le nostre istituzioni.

EM: Ma io non sono così preoccupato. È l’umanità che controlla il proprio destino, no?