L’IA è una truffa, una grande balla, l’IA non esiste, il nome stesso che è stato coniato per identificare e rappresentare tale artefatto è fuorviante e volutamente menzognero. «Il punto non è che le promesse della Silicon Valley siano false o fuorvianti- spesso lo sono -, ma che quelle promesse possono essere comprese solo se inquadrate in un contesto più ampio: la scomparsa dello Stato sociale, la sua sostituzione con alternative più snelle, rapide e cibernetiche»*.

Ma per convincere le persone ad affidarsi a queste strutture più snelle e cibernetiche bisogna convincerle che queste IA sono infallibili, migliori degli esseri umani, ed infatti i padroni del discorso  vorrebbero farci credere che il compito dell’intelligenza artificiale sia quello di “enunciare la verità”. Chi potrebbe mai smentire le previsioni della «Super Macchina Intelligente»?

Secondo il filosofo Eric Sadin «il digitale si erge a potenza aletheica; l’aletheia, la verità, nel senso della filosofia greca antica, intesa come lo svelamento, la manifestazione della realtà dei fenomeni aldilà della loro apparenza». - Ma nei fatti il digitale riesce a mantenere tale promessa? No! Eppure…

Eppure succede che i signori del silicio si sono attrezzati per poter convincere le persone tramite degli inganni percettivi che sono connaturati negli esseri umani (gli umani tendono ad umanizzare artefatti ed esseri viventi che presentano caratteristiche umanoidi) e che tali signori sfruttano attraverso lo studio dell’«antropofiltro», così da poter «calibrare scientificamente» l’umanizzazione delle macchine, nel tentativo di provocare nelle masse quel senso di soggezione e meraviglia che spesso tutti noi sentiamo nei confronti di tali novità tecnologiche.

Spieghiamoci: Il sociologo Clifford Nass nel 1997 ha pubblicato il saggio accademico «Tecnologie Persuasive» per il MIT Lab (Il MIT Lincoln Laboratory, a volte indicato come MIT-LL, è un centro di ricerca e sviluppo del Massachusetts Institute of Technology creato nel 1951 e finanziato dal Dipartimento della Difesa degli Stati Uniti. Ha sede a Lexington in Massachusetts); in questo saggio si espone il concetto dell’antropofiltro, concetto che si rivela centrale per comprendere dei meccanismi psicologici a cui tutti noi siamo soggetti. 

«Possiamo definire l’antropofiltro come quello strumento astratto della mente che modifica la percezione di oggetti, cose e concetti in funzione di quanto assomigliano o meno alla natura umana. Se vediamo 5 pezzi di legno che si muovono a casaccio, per noi sono solo cinque pezzi di legno. Ma se i pezzi di legno sono quelli di un pupazzo stilizzato (testa, gambe e braccia), il nostro antropofiltro immediatamente assegna alla struttura inanimata un’ulteriore proprietà, qualcosa di indefinito che la pone in un limbo tra «vita» e «non vita». L’antropofiltro può essere immaginato come un setaccio la cui maglia ha morfologia umana: passa solo ciò che ha una proprietà tipica dell’uomo».**

Una maglia che muta e con il tempo si allarga e diventa sempre più «inclusiva» verso questi artefatti. Ormai c’è chi gli attribuisce un posto tra i propri affetti. «L’antropofiltro non è immutabile. Non solo l’evoluzione tecnologica delle macchine si adatta alle regole dell’antropofiltro, ma l’antropofiltro si modifica nel tempo, acquisisce nuovi schemi, si abitua alle macchine e impara a «umanizzarle».

Nel caso dei computer il meccanismo viene attivato dal linguaggio. Fogg e Nass comunque sia, che l’ingegnere e Docente universitario  Paolo Gallina ne dica, non hanno scoperto proprio nulla. Turing nel saggio Intelligenza Meccanica aveva profeticamente scritto: «Credo che la domanda iniziale «possono pensare le macchine?», sia troppo priva di senso per meritare una discussione. Ciò  nonostante credo che alla fine del secolo l’uso delle parole e l’opinione corrente si saranno talmente mutate che chiunque potrà parlare di macchine pensanti senza pensare di essere contraddetto».

E non solo Turing se ne era accorto ma anche i suoi colleghi. Weizenbaum scienziato straordinario e grande umanista, padre di ELIZA (il primo chatbot della storia) ne era ben consapevole di tale meccanismo.

Scriveva Weizenbaum nel saggio Il potere del computer e la ragione umana : «vogliamo […] incoraggiare gente a condurre la sua vita sulla base della frode, del ciarlatanesimo dell’irrealtà. E cosa più importante, crediamo davvero che il preferire la terapia somministrata dalle macchine a quella condotta da altre persone possa aiutare la gente che vive nel nostro mondo, già apertamente strutturato come una macchina?»

Lo scienziato era preoccupato dell’impatto che le tecnologie digitali avrebbero avuto sull’umanità. Il docente di Storia e Teoria dei Media all’Università di Torino Simone Natale scrive: «Weizenbaum temeva che il modo in cui il funzionamento di Eliza veniva narrato da altri studiosi e dalla stampa contribuisse rafforzare quella che chiamava la «metafora del computer» in cui le macchine venivano paragonate agli esseri umani e la capacità del software di creare l’esteriorità dell’intelligenza era scambiata per intelligenza vera e propria.»

Ma quindi perché Weizenbaum aveva progettato tale inganno, tale artificio? Lo spiega sempre il docente Simone Natale nello studio Macchine Ingannevoli. Scrive il Dottor Natale:

«Nella «versione iniziale di Eliza, che si chiamava Doctor, il copione del programma simulava uno psicoterapeuta che usava il metodo rogersiano, un tipo di terapia non direttiva in cui il terapeuta reagisce al discorso del paziente principalmente reinderizzandolo al paziente, spesso sotto forma di ulteriori domande.»

Un trucco, nient’altro, un artificio, una messa in scena; infatti «Il nome Eliza era basato, spiegò Weizenbaum, sul personaggio di Eliza Doolittle nell’opera teatrale Pigmalione di George Bernard Shaw. […] Fedele all’approccio comportamentale di Weizanbaum che, come abbiamo visto, mirava a simulare più che a replicare l’intelligenza umana, Eliza somigliava alla Eliza di Pigmalione in quanto creava un’apparenza di realtà, rimanendo, tuttavia, «nel dominio del commediografo».

Come osserva Simone Natale il lavoro di Weizenbaum fu preziosissimo per la moderna industria tecnologica che si interrogava su cosa fare per sponsorizzare e vendere le proprie creazioni all’umanità.

«Mentre l’IA si sviluppava fino a diventare un ambiente eterogeneo che riunisce molteplici punti di vista e approcci disciplinari, molti riconoscevano che era possibile che gli utenti rimanessero ingannati nelle interazioni come le «macchine intelligenti». Come Weizenbaum, altri ricercatori nel fiorente campo dell’IA si rendevano conto che gli esseri umani non erano una variabile irrilevante nell’equazione dell’IA: contribuivano attivamente all’emergere dell’intelligenza, o per meglio dire, al suo apparente emergere».***

Ed è per questo che ricercatori, scienziati, capitalisti, lobbisti e tutti coloro i quali «guadagnano» da questa menzogna si sono coalizzati per costruirla, narrarla e protrarla all’infinito a questa balla dell’IA. Ed è perciò che si è coniato un intero vocabolario di neologismi che servono a plasmare l’immaginario delle masse ed a riscrivere la realtà. 

Si parla Intelligenza Artificiale, di Reti Neurali, di Test di Turing, di Singolarità Tecnologica; si abusa di un lessico bugiardo, falso, menzognero. Un linguaggio pensato per costruire una cornice adatta a ricevere quella che è una falsità programmata e narrata con maestria e che nonostante ciò ormai sembra essere diventata una verità inconfutabile.

Inoltre oggi arrivano i robot e la questione diviene sempre più delicata. Ormai siamo arrivati alla simulazione dell’essere umano, alla truffa, all’imitazione: l’Uomo viene contraffatto, umiliato, scalzato dalle macchine. C’è addirittura chi si sposa con un robot. Alexa ha ricevuto 500.000 proposte di matrimonio (il mondo è un posto bellissimo: pieno di imbecilli). Ed è per tutte queste ragioni che l’esperto ed importantissimo sociologo e critico della tecnologia Frank Pasquale nel suo ultimo saggio “Le nuove leggi della robotica” denuncia e sostiene che:

«La voce o il volto di un altro umano meritano rispetto e attenzione cosa che le macchine non ci danno. Quando i chatbot […] ingannano qualcuno facendogli credere di stare interagendo con una persona, i suoi programmatori si comportano di fatto da falsari, bravi a contraffare le sembianze umane per accrescere lo status delle proprie macchine“. Secondo Frank Pasquale «contraffare l’umanità non solo è un inganno, ma anche un’ingiustizia, visto che il falsario finge di essere interessato e di offrire sostegno personale».

E noi siamo perfettamente d’accordo con Pasquale: questo è un paradigma distopico da condannare e vietare assolutamente, un grosso problema di cui la politica dovrebbe subito occuparsi e che intanto, finché la politica non se ne occuperà, tutti noi dobbiamo assolutamente rifiutare senza se e senza ma, con qualsiasi mezzo a nostra disposizione. 

STOP ALLA SOSTITUZIONE ED ALLA CONTRAFFAZIONE DEGLI ESSERI UMANI! DICIAMO NO A QUESTO PERICOLOSO INGANNO

Francesco Centineo

*Silicon Valley: I Signori Del Silicio pag. 4 Evgeny Morozov

**L’Anima Delle Macchine pag. 94 Paolo Gallina 

***Macchine Ingannevoli pag. 138 Simone Natale

Fonte: Sfero