“Partner a casa” anziché “casalinga”. Google sceglie per voi le parole “inclusive”

L’ultima follia del politicamente corretto. Un algoritmo che “avvisa” in caso di parole poco “inclusive”

9k 26
generica_porro_1-1200

Fino a che punto è disposto a spingersi il politicamente corretto? Dal mio punto di vista fino alla creazione di una “nuova religione dell’omologazione”. Con la nuova funzione di Google Doc si rischia di realizzare una comunicazione in forma scritta fatta di contenuti “fotocopia”, dove a farne le spese è il libero pensiero.

L’algoritmo politicamente corretto

Come riporta “La Stampa”, se scrivi una parola che l’intelligenza artificiale di Google giudica non adatta si apre una finestra con scritto: “Avviso inclusivo. Alcune di queste parole potrebbero non essere inclusive per certi lettori. Considera l’uso di parole diverse”. Per fare un esempio riguardo alle correzioni è possibile citare alcuni dei suggerimenti: “proprietario”, invece di “padrone di casa”, ufficiali di polizia, piuttosto che “poliziotti”, “partner che sta a casa”, al posto di “casalinga”. Si arriva anche all’indesiderato termine tecnico “scheda madre”. Al nuovo algoritmo sembra tutto “fastidioso e poco inclusivo”. Ma ragionando su questi esempi citati in precedenza, con logica, possiamo accettare di non poter usare il termine “padrone di casa”, solo perché secondo una tecnologia politicamente corretta il termine “padrone” potrebbe essere un richiamo alla sopraffazione di un soggetto rispetto ad un altro? O magari, rinunciare a scrivere “scheda madre”, perché potrebbe non includere la figura del padre?

Tecnologia inutile

Ci sarebbe da ridere se la cosa non facesse piangere. Infatti, quando l’algoritmo di Google è stato messo alla prova per analizzare un testo razzista del Ku Klux Klan non ha trovato nulla da segnalare. Basta questo a dimostrare l’inutilità di tale tecnologia che può solo creare fastidio a chi si trova nell’atto di scrivere un testo, immerso nel suo flusso narrativo, dove qualsiasi interruzione o invasione rischia di portare fuori tema l’autore. Anche se non è obbligatorio seguire un determinato suggerimento, resta l’invasione di quella sfera privata che deve necessariamente restare inviolata al fine di poter esprimere il libero pensiero senza condizionamenti esteriori. A prima vista potrebbe sembrare qualcosa di innocuo, ma in realtà, quello che si rischia di compromettere è la libertà di espressione.

È la nuova dittatura del linguaggio?

Volendo ragionare per assurdo, ipotizzando l’estensione un giorno obbligatoria in tutti i campi della vita di questo dispositivo, tutto dovrebbe esser messo in discussione e rivalutato. Nei film l’uso di parolacce, armi, esposizione di violenza sono all’ordine del giorno, per non parlare dei contenuti presenti nel genere musicale della trap, sovente ricca di volgarità. Secondo il principio dell’algoritmo politicamente corretto della inclusività assoluta, i testi di molti cantanti dovrebbero essere rivisti e per quanto riguarda il mondo del cinema, le armi, anche se utilizzate in un contesto cinematografico dovrebbero essere non impiegate in quanto divisive.

Anche le religioni dovrebbero riscrivere le Sacre Scritture, pensiamo al famoso passo del Vangelo dove Gesù dice: “non veni pacem mittere sed gladium”, tradotto, “non sono venuto a portare pace, ma una spada”, versetto chiaramente simbolico, dove in una prospettiva teologica, la spada è il Verbo, la Parola che divide i fedeli dagli atei. Ma delegando tutto all’interpretazione dell’intelligenza artificiale, questo versetto potrebbe essere considerato come invito alla violenza, se non addirittura alla guerra. Ho voluto esasperare volutamente il discorso, proprio per evidenziare i risvolti assurdi ed i condizionamenti che potrebbero palesarsi. Anche immaginando l’uso in futuro “non obbligatorio”, sempre restando nel campo delle ipotesi, nel momento in cui la maggioranza della popolazione decidesse di osservare questi suggerimenti “dogmaticamente”, potrebbe configurarsi un mutamento sociale di forte impatto.

Ovviamente, la funzione Google è un algoritmo che punta teoricamente a facilitare il lavoro, ma in un mondo dove sempre più la realtà virtuale si spinge ad entrare nelle nostre vite è lecito chiedersi fino a che punto desideriamo delegare le nostre attività all’intelligenza artificiale e, soprattutto quanto desideriamo farci invadere nel privato dalla tecnologia?

Carlo Toto, 25 aprile 2022

Ti è piaciuto questo articolo? Leggi anche

Seguici sui nostri canali
Exit mobile version