INTELLIGENZA ARTIFICIALE, ANTROPOFILTRO ED INGANNI PERCETTIVI: TRA PROPAGANDA E MANIPOLAZIONE COGNITIVA
L’IA
è una truffa, una grande balla, l’IA non esiste, il nome stesso che è
stato coniato per identificare e rappresentare tale artefatto è
fuorviante e volutamente menzognero. «Il punto non è che le promesse
della Silicon Valley siano false o fuorvianti- spesso lo sono -, ma che
quelle promesse possono essere comprese solo se inquadrate in un
contesto più ampio: la scomparsa dello Stato sociale, la sua
sostituzione con alternative più snelle, rapide e cibernetiche»*.
Ma
per convincere le persone ad affidarsi a queste strutture più snelle e
cibernetiche bisogna convincerle che queste IA sono infallibili,
migliori degli esseri umani, ed infatti i padroni del discorso
vorrebbero farci credere che il compito dell’intelligenza artificiale
sia quello di “enunciare la verità”. Chi potrebbe mai smentire le
previsioni della «Super Macchina Intelligente»?
Secondo il
filosofo Eric Sadin «il digitale si erge a potenza aletheica;
l’aletheia, la verità, nel senso della filosofia greca antica, intesa
come lo svelamento, la manifestazione della realtà dei fenomeni aldilà
della loro apparenza». - Ma nei fatti il digitale riesce a mantenere
tale promessa? No! Eppure…
Eppure succede che i signori del
silicio si sono attrezzati per poter convincere le persone tramite degli
inganni percettivi che sono connaturati negli esseri umani (gli umani
tendono ad umanizzare artefatti ed esseri viventi che presentano
caratteristiche umanoidi) e che tali signori sfruttano attraverso lo
studio dell’«antropofiltro», così da poter «calibrare scientificamente»
l’umanizzazione delle macchine, nel tentativo di provocare nelle masse
quel senso di soggezione e meraviglia che spesso tutti noi sentiamo nei
confronti di tali novità tecnologiche.
Spieghiamoci: Il sociologo
Clifford Nass nel 1997 ha pubblicato il saggio accademico «Tecnologie
Persuasive» per il MIT Lab (Il MIT Lincoln Laboratory, a volte indicato
come MIT-LL, è un centro di ricerca e sviluppo del Massachusetts
Institute of Technology creato nel 1951 e finanziato dal Dipartimento
della Difesa degli Stati Uniti. Ha sede a Lexington in Massachusetts);
in questo saggio si espone il concetto dell’antropofiltro, concetto che
si rivela centrale per comprendere dei meccanismi psicologici a cui
tutti noi siamo soggetti.
«Possiamo definire l’antropofiltro come
quello strumento astratto della mente che modifica la percezione di
oggetti, cose e concetti in funzione di quanto assomigliano o meno alla
natura umana. Se vediamo 5 pezzi di legno che si muovono a casaccio, per
noi sono solo cinque pezzi di legno. Ma se i pezzi di legno sono quelli
di un pupazzo stilizzato (testa, gambe e braccia), il nostro
antropofiltro immediatamente assegna alla struttura inanimata
un’ulteriore proprietà, qualcosa di indefinito che la pone in un limbo
tra «vita» e «non vita». L’antropofiltro può essere immaginato come un
setaccio la cui maglia ha morfologia umana: passa solo ciò che ha una
proprietà tipica dell’uomo».**
Una maglia che muta e con il tempo
si allarga e diventa sempre più «inclusiva» verso questi artefatti.
Ormai c’è chi gli attribuisce un posto tra i propri affetti.
«L’antropofiltro non è immutabile. Non solo l’evoluzione tecnologica
delle macchine si adatta alle regole dell’antropofiltro, ma
l’antropofiltro si modifica nel tempo, acquisisce nuovi schemi, si
abitua alle macchine e impara a «umanizzarle».
Nel caso dei
computer il meccanismo viene attivato dal linguaggio. Fogg e Nass
comunque sia, che l’ingegnere e Docente universitario Paolo Gallina ne
dica, non hanno scoperto proprio nulla. Turing nel saggio Intelligenza
Meccanica aveva profeticamente scritto: «Credo che la domanda iniziale
«possono pensare le macchine?», sia troppo priva di senso per meritare
una discussione. Ciò nonostante credo che alla fine del secolo l’uso
delle parole e l’opinione corrente si saranno talmente mutate che
chiunque potrà parlare di macchine pensanti senza pensare di essere
contraddetto».
E non solo Turing se ne era accorto ma anche i suoi
colleghi. Weizenbaum scienziato straordinario e grande umanista, padre
di ELIZA (il primo chatbot della storia) ne era ben consapevole di tale
meccanismo.
Scriveva Weizenbaum nel saggio Il potere del computer e la ragione umana :
«vogliamo […] incoraggiare gente a condurre la sua vita sulla base
della frode, del ciarlatanesimo dell’irrealtà. E cosa più importante,
crediamo davvero che il preferire la terapia somministrata dalle
macchine a quella condotta da altre persone possa aiutare la gente che
vive nel nostro mondo, già apertamente strutturato come una macchina?»
Lo
scienziato era preoccupato dell’impatto che le tecnologie digitali
avrebbero avuto sull’umanità. Il docente di Storia e Teoria dei Media
all’Università di Torino Simone Natale scrive: «Weizenbaum temeva che il
modo in cui il funzionamento di Eliza veniva narrato da altri studiosi e
dalla stampa contribuisse rafforzare quella che chiamava la «metafora
del computer» in cui le macchine venivano paragonate agli esseri umani e
la capacità del software di creare l’esteriorità dell’intelligenza era
scambiata per intelligenza vera e propria.»
Ma quindi perché Weizenbaum aveva progettato tale inganno, tale artificio? Lo spiega
sempre il docente Simone Natale nello studio Macchine Ingannevoli.
Scrive il Dottor Natale:
«Nella «versione iniziale di Eliza, che
si chiamava Doctor, il copione del programma simulava uno psicoterapeuta
che usava il metodo rogersiano, un tipo di terapia non direttiva in cui
il terapeuta reagisce al discorso del paziente principalmente
reinderizzandolo al paziente, spesso sotto forma di ulteriori domande.»
Un
trucco, nient’altro, un artificio, una messa in scena; infatti «Il nome
Eliza era basato, spiegò Weizenbaum, sul personaggio di Eliza Doolittle
nell’opera teatrale Pigmalione di George Bernard Shaw. […]
Fedele all’approccio comportamentale di Weizanbaum che, come abbiamo
visto, mirava a simulare più che a replicare l’intelligenza umana, Eliza
somigliava alla Eliza di Pigmalione in quanto creava un’apparenza di realtà, rimanendo, tuttavia, «nel dominio del commediografo».
Come
osserva Simone Natale il lavoro di Weizenbaum fu preziosissimo per la
moderna industria tecnologica che si interrogava su cosa fare per
sponsorizzare e vendere le proprie creazioni all’umanità.
«Mentre
l’IA si sviluppava fino a diventare un ambiente eterogeneo che riunisce
molteplici punti di vista e approcci disciplinari, molti riconoscevano
che era possibile che gli utenti rimanessero ingannati nelle interazioni
come le «macchine intelligenti». Come Weizenbaum, altri ricercatori nel
fiorente campo dell’IA si rendevano conto che gli esseri umani non
erano una variabile irrilevante nell’equazione dell’IA: contribuivano
attivamente all’emergere dell’intelligenza, o per meglio dire, al suo
apparente emergere».***
Ed è per questo che ricercatori,
scienziati, capitalisti, lobbisti e tutti coloro i quali «guadagnano» da
questa menzogna si sono coalizzati per costruirla, narrarla e protrarla
all’infinito a questa balla dell’IA. Ed è perciò che si è coniato un
intero vocabolario di neologismi che servono a plasmare l’immaginario
delle masse ed a riscrivere la realtà.
Si parla Intelligenza
Artificiale, di Reti Neurali, di Test di Turing, di Singolarità
Tecnologica; si abusa di un lessico bugiardo, falso, menzognero. Un
linguaggio pensato per costruire una cornice adatta a ricevere quella
che è una falsità programmata e narrata con maestria e che nonostante
ciò ormai sembra essere diventata una verità inconfutabile.
Inoltre
oggi arrivano i robot e la questione diviene sempre più delicata. Ormai
siamo arrivati alla simulazione dell’essere umano, alla truffa,
all’imitazione: l’Uomo viene contraffatto, umiliato, scalzato dalle
macchine. C’è addirittura chi si sposa con un robot. Alexa ha ricevuto
500.000 proposte di matrimonio (il mondo è un posto bellissimo: pieno di
imbecilli). Ed è per tutte queste ragioni che l’esperto ed
importantissimo sociologo e critico della tecnologia Frank Pasquale nel
suo ultimo saggio “Le nuove leggi della robotica” denuncia e sostiene
che:
«La voce o il volto di un altro umano meritano rispetto e
attenzione cosa che le macchine non ci danno. Quando i chatbot […]
ingannano qualcuno facendogli credere di stare interagendo con una
persona, i suoi programmatori si comportano di fatto da falsari, bravi a
contraffare le sembianze umane per accrescere lo status delle proprie
macchine“. Secondo Frank Pasquale «contraffare l’umanità non solo è un
inganno, ma anche un’ingiustizia, visto che il falsario finge di essere
interessato e di offrire sostegno personale».
E noi siamo
perfettamente d’accordo con Pasquale: questo è un paradigma distopico da
condannare e vietare assolutamente, un grosso problema di cui la
politica dovrebbe subito occuparsi e che intanto, finché la politica non
se ne occuperà, tutti noi dobbiamo assolutamente rifiutare senza se e
senza ma, con qualsiasi mezzo a nostra disposizione.
STOP ALLA SOSTITUZIONE ED ALLA CONTRAFFAZIONE DEGLI ESSERI UMANI! DICIAMO NO A QUESTO PERICOLOSO INGANNO
Francesco Centineo
*Silicon Valley: I Signori Del Silicio pag. 4 Evgeny Morozov
**L’Anima Delle Macchine pag. 94 Paolo Gallina
***Macchine Ingannevoli pag. 138 Simone Natale
Fonte: Sfero