Una delle più ricorrenti domande che vengono poste ad un informatico è se la tecnologia sia diventata un pericolo. Nel rispondere, potrei essere accusato di conflitto d'interessi dal momento che sono un informatico e invece sorprenderò alcuni: non ho mai perorato l'onnipotenza dell'informatica, né tantomeno nascosto la sua potenziale nocività. L'informatica è una tecnica. E la tecnica, come la scienza, sono metodi, non fini. A fare la differenza è e sarà sempre l'essere umano.
Quanto sopra sarebbe una premessa banale se la propaganda dei media su ChatGPT non avesse convinto tanta gente di essere entrati nell'era dell'onnipotenza della tecnica. Ma sono balle. Non perché l'intelligenza artificiale (che per comodità d'ora in poi chiameremo AI) non abbia fatto passi in avanti - ne ha fatti eccome e ne farà altri - né tantomeno perché essa non possa essere, come spesso è, utilissima, ma perché tutto ciò che è tecnologico è AI. La tecnica, non solo informatica, agisce sottoposta a stimoli umani, ed è inevitabile che i calcolatori odierni, potendo ricevere molte più informazioni del passato e dunque rispondere meglio agli stimoli di un essere umano, possano per esempio rendere più accettabile una traduzione fatta oggi con Google Translate di quanto fosse dieci anni fa. Ma anche qui, il merito è degli esseri umani che hanno fatto evolvere quel programma: Translate, da sola, non ce l'avrebbe mai fatta. L'AI, in sintesi, è perfettamente in grado di compiere azioni basandosi su dati passati né più né meno del computer che sfida a scacchi un essere umano. Né si può affermare che, solo in quanto umani, i minus habens che mettono a ferro e fuoco uno stadio siano più intelligenti di un supercomputer. Ma nessun robot potrà mai prevedere il futuro e dunque interpretare l'ignoto. Il giorno in cui un pericolo sulla terra perigliasse l'umanità, non è detto che un essere umano possa inventarne l'antidoto, ma di certo non potrà farlo l'AI. E questo, per quanto mi riguarda, è sufficiente a chiudere per sempre la questione ChatGPT, liquidandola per quel che è: una raffinata arma di distrazione di massa dall'ormai evidente declino di una potenza geopolitica, gli Stati Uniti, che da oltre vent'anni non inventa più nulla. Ben più complesso è rispondere ad una domanda - a mio avviso - molto più pregnante che molti mi fanno: la tecnologia è diventata pericolosa? Perché questa domanda dà per scontato lo stesso errore alla base della sopravvalutazione di ChatGPT e in generale della scienza: ritenere queste branche del sapere enti sovrumani a cui l'umanità deve sottomettersi. E questa è una sciocchezza.
Come prima cosa, non dimentichiamoci che molte civiltà estinte avevano già inventato alcune cose che oggi ci sembrano postmoderne. Una volta lessi che alcuni progetti di automobili erano stati già inventati per esempio sia nell'antica Roma che nell'antico Egitto, soltanto che le classi dirigenti di quel tempo capirono che quell'invenzione avrebbe portato enormi sconquassi nelle società e quindi decisero di rifiutarle. L'idea di dover acriticamente assecondare la tecnologia e la scienza è in sé una follia. Se un domani scoprissero - obiettivo che secondo me non solo è alla nostra portata ma che forse si è già segretamente raggiunto - l'immortalità umana, senza contenere un'esplosione demografica a quel punto, ovviamente, incontrollabile, vi immaginate cosa accadrebbe in un mondo dove già per quanti ne siamo, siamo nei guai? In più, sia la scienza che la tecnologia sono usate da esseri umani, i quali non è che solo perché siano scienziati o informatici, sono per forza brave persone, non ricattabili, disinteressate. Qual è allora il punto? Il punto è che tanto la tecnologia quanto la scienza forniscono informazioni, dei cui usi è l'uomo a decidere, con tutto ciò che di bene e di male questo porta. L'energia nucleare, i vaccini, l'automazione e quant'altro sono un Bene o un Male? Sono un bene se si riesce a far prevalere gli effetti positivi (energia teoricamente illimitata, protezione da malattie, facilitazione della vita di tutti i giorni) su quelli negativi (il rischio di centrali atomiche che esplodono, la possibilità che il virus su cui si costruisce il vaccino finisca in mani sbagliate, la bomba sociale derivante dalle centinaia di migliaia di persone che si ritrovano in mezzo ad una strada perché la tecnologia li ha sostituiti) e sono un male se questi ultimi prevalgono sugli aspetti positivi.
Quanto sopra sarebbe una premessa banale se la propaganda dei media su ChatGPT non avesse convinto tanta gente di essere entrati nell'era dell'onnipotenza della tecnica. Ma sono balle. Non perché l'intelligenza artificiale (che per comodità d'ora in poi chiameremo AI) non abbia fatto passi in avanti - ne ha fatti eccome e ne farà altri - né tantomeno perché essa non possa essere, come spesso è, utilissima, ma perché tutto ciò che è tecnologico è AI. La tecnica, non solo informatica, agisce sottoposta a stimoli umani, ed è inevitabile che i calcolatori odierni, potendo ricevere molte più informazioni del passato e dunque rispondere meglio agli stimoli di un essere umano, possano per esempio rendere più accettabile una traduzione fatta oggi con Google Translate di quanto fosse dieci anni fa. Ma anche qui, il merito è degli esseri umani che hanno fatto evolvere quel programma: Translate, da sola, non ce l'avrebbe mai fatta. L'AI, in sintesi, è perfettamente in grado di compiere azioni basandosi su dati passati né più né meno del computer che sfida a scacchi un essere umano. Né si può affermare che, solo in quanto umani, i minus habens che mettono a ferro e fuoco uno stadio siano più intelligenti di un supercomputer. Ma nessun robot potrà mai prevedere il futuro e dunque interpretare l'ignoto. Il giorno in cui un pericolo sulla terra perigliasse l'umanità, non è detto che un essere umano possa inventarne l'antidoto, ma di certo non potrà farlo l'AI. E questo, per quanto mi riguarda, è sufficiente a chiudere per sempre la questione ChatGPT, liquidandola per quel che è: una raffinata arma di distrazione di massa dall'ormai evidente declino di una potenza geopolitica, gli Stati Uniti, che da oltre vent'anni non inventa più nulla. Ben più complesso è rispondere ad una domanda - a mio avviso - molto più pregnante che molti mi fanno: la tecnologia è diventata pericolosa? Perché questa domanda dà per scontato lo stesso errore alla base della sopravvalutazione di ChatGPT e in generale della scienza: ritenere queste branche del sapere enti sovrumani a cui l'umanità deve sottomettersi. E questa è una sciocchezza.
Come prima cosa, non dimentichiamoci che molte civiltà estinte avevano già inventato alcune cose che oggi ci sembrano postmoderne. Una volta lessi che alcuni progetti di automobili erano stati già inventati per esempio sia nell'antica Roma che nell'antico Egitto, soltanto che le classi dirigenti di quel tempo capirono che quell'invenzione avrebbe portato enormi sconquassi nelle società e quindi decisero di rifiutarle. L'idea di dover acriticamente assecondare la tecnologia e la scienza è in sé una follia. Se un domani scoprissero - obiettivo che secondo me non solo è alla nostra portata ma che forse si è già segretamente raggiunto - l'immortalità umana, senza contenere un'esplosione demografica a quel punto, ovviamente, incontrollabile, vi immaginate cosa accadrebbe in un mondo dove già per quanti ne siamo, siamo nei guai? In più, sia la scienza che la tecnologia sono usate da esseri umani, i quali non è che solo perché siano scienziati o informatici, sono per forza brave persone, non ricattabili, disinteressate. Qual è allora il punto? Il punto è che tanto la tecnologia quanto la scienza forniscono informazioni, dei cui usi è l'uomo a decidere, con tutto ciò che di bene e di male questo porta. L'energia nucleare, i vaccini, l'automazione e quant'altro sono un Bene o un Male? Sono un bene se si riesce a far prevalere gli effetti positivi (energia teoricamente illimitata, protezione da malattie, facilitazione della vita di tutti i giorni) su quelli negativi (il rischio di centrali atomiche che esplodono, la possibilità che il virus su cui si costruisce il vaccino finisca in mani sbagliate, la bomba sociale derivante dalle centinaia di migliaia di persone che si ritrovano in mezzo ad una strada perché la tecnologia li ha sostituiti) e sono un male se questi ultimi prevalgono sugli aspetti positivi.
La tecnologia e la scienza sono semplicemente mezzi. Non si occupano - e non ci può riuscire nessun computer o robot - di rispondere a domande esistenziali relative ad un imprevisto o ad un frutto dell'ignoto per cui occorre lo spirito di finezza che Pascal contrappone in quello di geometria. Ambedue necessitano di essere stimolati da esseri umani a cui, chi li ha programmati, ha deciso che quegli enormi cervelloni artificiali dovessero rispondere, di fronte a certe domande, in un certo modo. Se io chiedo, come ho provato a fare, a ChatGPT se sia giusto vaccinarmi, lui non mi risponderà come la vede lui, ma come la vedono quelli che lo hanno programmato. Se si chiede loro di risolvere problemi per cui non basta lo spirito di geometria ma quello di finezza, potranno sicuramente rispondere basandosi su dati passati. Ma, di fronte all'ignoto, non sapranno che fare. Perché la capacità di distinguere il Bene dal Male non è niente a cui possa provvedere un computer, fosse anche il più potente del mondo.