CulturaQuotidiano

Gioie e dolori dell’informatica: impensabile un mondo senza app, ma qualcosa stiamo perdendo

4.8k
Cultura / Quotidiano

Mettiamola giù semplice, e, magari, immaginiamo di rivolgerci ad una platea di giovani, che non fanno delle riviste di politica, economia e geopolitica le loro letture preferite, ma credo valga anche per noi adulti. Nel terzo millennio, senza informatica non si sopravviverebbe. Triste ma inconfutabile considerazione, in un mondo dove sempre più la nostra sorte è affidata ai computer ed agli strumenti che “ragionano” come computer. Ne deriva che il linguaggio (detto, in termini tecnici “linguaggio formale”) delle macchine di calcolo che sono i computer, con cui il programmatore impartisce le istruzioni necessarie al loro funzionamento, deve inderogabilmente sottostare a regole logiche e sintattiche ben precise, contrariamente a quanto avviene nella vita normale, ove il linguaggio (detto “linguaggio naturale”) del mondo non automatizzato potrà anche essere impreciso e mal espresso, purché efficace ed accompagnato da fatti concreti. Nel mondo delle macchine non è ammessa alcuna imprecisione né interpretazione arbitraria ed il concetto di “efficacia” non esiste del tutto. Le cose funzionano o si bloccano se rispondono, o no, a regole precise, e non c’è appello. I computer sono macchine immensamente stupide, dotate però di una memoria prodigiosa ed impensabile per un essere vivente. Efficacemente, i francesi, tutt’oggi, chiamano il computer ordinateur, niente di più.

Ciò che determina il funzionamento di una routine di calcolo deve avere un significato univoco ed espresso secondo regole canonizzate nei vari sistemi e nei vari linguaggi informatici, gli unici che i computer sono stati “addestrati” a tradurre, a loro volta, nel loro linguaggio digitale nativo, fatto di zero e di uno (ossia nel c.d. “linguaggio macchina”). Ciò che governa l’interazione uomo-macchina (sia essa un mainframe di calcolo scientifico, un telefonino, un robot da cucina o un forno con interfaccia digitale) è contenuto una serie di istruzioni precise, immesse dal programmatore come unico “vocabolario” accettato, all’interno del microprocessore che è il cuore dell’apparato.

Nonostante l’insegnamento dell’informatica si stia diffondendo abbastanza capillarmente in Italia, anche se con un notevole rallentamento dopo l’entusiasmo iniziale ed il primo diffondersi di aule informatiche persino nella scuola primaria, è sempre più diffuso l’insegnamento all’uso di software specifici, piuttosto cha vera e propria programmazione, ossia l’imprinting che noi e solo noi possiamo dare alla macchina. Accade, infatti, che sempre meno siano i veri programmatori e sempre più i sistemisti, ossia quelli che si occupano di applicare e adattare “pacchetti di sistema” preconfezionati alle più svariate esigenze della produzione, del commercio, della comunicazione anche soprattutto con l’utilizzo dei c.d. “frameworks”, ossia piattaforme di sviluppo già programmate da altri, ma dotate di elementi preconfezionati variamente combinabili tra loro. Ulteriore conseguenza di tale calante domanda di “programmatori puri” nel mercato del lavoro è la rigidità dello schema applicativo, per cui è più facile riscontrare intere categorie di prodotti di largo consumo che s’adeguano ad uno standard dei grandi monopolisti dell’informatica (Microsoft, Google, Apple ecc.) rispetto a quanto non lo sia d’imbattersi in sistemi avanzati che siano stati autonomamente programmati ad hoc per quel prodotto. Ciò, ovviamente, accade anche per le esigenze di economia di scala e di mercato, laddove sia necessario abbattere i costi ed uniformare quanto più possibile la produzione, ma questa scelta non è del tutto scevra da aspetti negativi.

Agli albori della vera e propria rivoluzione informatica della fine degli anni 80 del secolo scorso, gli standard informatici erano pressoché inesistenti e ciascun produttore “si arrangiava” come poteva, magari sviluppando sistemi computerizzati unici e, in ogni caso, l’utente doveva in qualche modo leggere attentamente il manuale d’uso dello strumento appena acquistato, prima di poterlo utilizzare. Alcuni ricorderanno i primi home-computers (Sinclair, Commodore, Amiga, per citarne alcuni) che necessitavano di un pò di studio del loro spartano linguaggio di programmazione, il Basic, per farne qualcosa di utile. Altrimenti, presi così come venivano venduti, rendevano ben meno della metà delle loro potenzialità. Ma, perlomeno, i giovani cercavano di capirne qualcosa e di sviluppare autonomamente qualche applicazione. Poi, con velocità e diffusione crescente, sono arrivati i software e le periferiche “plug & play”, già pronte all’uso, per cui moltissimi programmatori in erba abbandonarono lo studio e la sperimentazione del linguaggio informatico, approfittando di utilità già bell’e pronte da usare, subendone però le limitazioni imposte dai programmatori e l’impossibile personalizzazione alle esigenze specifiche dei singoli utenti. È certamente stato un passaggio, prevedibile quanto inevitabile, diffusamente presente nel campo del progresso tecnologico; basti pensare alle prime lavatrici degli anni 50 che abbisognavano di preparare a parte l’acqua calda e di versarla nella tinozza motorizzata (e senza coperchio) che costituiva la prima lavatrice domestica, fino ad arrivare a quella che facciamo partire dall’ufficio via telefonino. La richiesta di comodità è tiranna e la pigrizia ispiratrice, ma lascia sul campo lo studio, l’applicazione, l’inventiva e la straordinaria capacità degli informatici che fecero del nostro Paese il leader mondiale degli sviluppatori dei primi computer domestici (ai giovani, il marchio Olivetti dice nulla).

Dal punto di vista più cibernetico che informatico, non possiamo negare che, perdendo la voglia e la necessità di apprendere un linguaggio di programmazione, si è persa, soprattutto per i giovani, la straordinaria opportunità di imparare a mettere assieme le idee, ordinarle su un pezzo di carta, tradurle nel linguaggio informatico noto a quella macchina e, finalmente, vederle con autentica gioia “girare” sullo schermo del computer. Di cose come questa avrebbe grande bisogno la nostra scuola, troppo attenta alla cronaca, alle mode ed alla politica e molto meno incline a proporre il duro studio di una specifica e seria disciplina. Un vero peccato, soprattutto in tempi in cui logica, controllo, razionalità e semplificazione, che stanno alla base della cibernetica, sono diventati valori di quart’ordine rispetto all’animalesca libera espressione immediata degli impulsi. Oggi ci si vanta di dire senza freni (e senza ragionarvi su) qualsiasi cosa ci passi per la testa, magari dimenticandoci che anche lo scemo del villaggio lo fa. Se si tratti poi di capire come funzioni una cosa, studiandola, per imparare ad usarla meglio (e persino più responsabilmente), apriti cielo! Vogliamo tutto già pronto all’uso senza perdite di tempo, che diamine!

Ci pensino, quei giovani (e non) che, fideisticamente, affidano ogni loro interazione ad una macchina programmata, di qualsiasi tipo e dimensione. Avendo scelto di lasciar far tutto alla macchina (che non nacque tale ma lo diventò da pezzetti di silicio, germanio, rame, litio, plastica) non pretendano di comandarla più di tanto ma, al contrario, s’adeguino a subire la macchina sempre più. E, magari, più che venerare come nuovi idoli gli abilissimi industriali partiti dai modesti (e non sempre esistiti) garages americani, tributino ringraziamenti agli oscuri e sconosciuti primi programmatori.

Anche se, nerd occhialuti ed hackers a parte, ben pochi dei giovani avranno mai l’opportunità di esplorare di persona le meraviglie della programmazione, attraverso un costante, umile, studio e ripasso delle sue regole, sarebbe già qualcosa se si mettessero bene in testa che, in informatica, le cose:
• le accetti per come sono state programmate da altri, senza troppo criticarle ed accettandone i rischi;
• ti fai un mazzo enorme ed impari a programmare per tuo conto e, anche il quel caso, dovrai accettare i tuoi limiti e, magari, lasciar fare a chi ne sa più di te.

P.S. Temo, di aver usato in questo scritto, e pure molte volte, la parola “studio”. Non ci sono forse le “app” a rendere inutile lo studio? Che sciocco sono!