Home Imprese&Lavoro Intelligenza Artificiale: il pericolo dell’Antropomorfizzazione

Intelligenza Artificiale: il pericolo dell’Antropomorfizzazione

118
0

Cosa rende questa desueta ed impronunciabile parola di 20 lettere la migliore arma degli spacciatori di false Intelligenze Artificiali? E cosa possiamo fare per non cadere nella sua trappola?

Cassandra si è spesa molto come critico degli attuali e generalizzati “osanna” delle false Intelligenze Artificiali, cantati da parte di tutti, sia addetti ai lavori che utenti.

Lo ha fatto evidenziando limiti e caratteristiche logiche e tecniche degli LLM usati come “oracoli”, cioè come sistemi a cui fare domande e che forniscono risposte, e sostenendo come fosse in realtà la finanza ad essere il motore dell’esplosione commerciale delle false IA vendute in questo ruolo.

Cassandra ha però omesso di trattare approfonditamente un importante aspetto linguistico di chi parla di IA, che ritiene sia la principale causa del successo delle false IA; di questo si scusa molto, scrivendo questo articolo per cercare di rimediare alla sua grave omissione.

L’attuale spinta ad un’adozione generalizzata dei grandi modelli linguistici come tecnologia di intelligenza artificiale in grado di risolvere qualsiasi problema non è un processo naturale; è piuttosto guidato da un pugno di “grandi vecchi” che possono essere facilmente identificati con le grandi dot.com od aspiranti tali. Più ovviamente tanti “utili idioti” che nemmeno si rendono contro di essere tali.

L’Antropomorfizzazione delle false IA, cioè il parlarne in termini umani, anzi “umanoidi” è un’arma di distrazione di massa in grado di sterilizzare alla base qualsiasi discorso critico nei confronti delle false IA.

Chi ha costruito questo inganno semantico non ha inventato niente; semplicemente persone competenti si sono ricordate dell’Effetto Eliza, e lo hanno linguisticamente “aggiornato” per fare una campagna pubblicitaria estremamente efficace e su scala globale.

Le parole sono importanti, e le parole nuove con cui tutti parliamo di false IA sono state accuratamente coniate, e suggeriscono tutte che le Intelligenze Artificiali, false o vere, siano “umane”.

Partiamo dall’unico e fortunatissimo termine storico, coniato negli anni ’60 “; tecnologie di “Intelligenza Artificiale”. Se una tecnologia qualsiasi appartiene alla categoria dell’Intelligenza Artificiale allora è intelligente, e quindi umana. Mentre invece è solo un metodo che tenta di imitare certi comportamenti dell’intelligenza umana, qualsiasi cosa sia l’Intelligenza Umana.

Come vengono definite le parole che una false Intelligenza Artificiale stampa quando viene alimentata da una sequenza di caratteri che un umano considera una “Domanda”? Vengono definite “Risposte”.

Ma una falsa Intelligenza Artificiale, un LLM, non ha nessuna capacità logica di analizzare una Domanda, e tantomeno di concepire una Risposta, ma solo quella di fornire come output una sequenza di caratteri statisticamente credibile.

Sistemi logico-analitici come le menti umane possono porre Domande o fornire Risposte. Chiamare “Risposta” l’output di un LLM che ha ricevuto come input qualcosa che un essere umano considera una “Domanda” è una completa e voluta mistificazione.

Gli LLM sono invece accademicamente definiti come “generatori di stronzate dove “stronzata” è a sua volta definita come “qualsiasi risposta non derivata logicamente dalla domanda, e che non si cura della sua logica interna”.

Ma per rimediare al fatto che le false Intelligenze Artificiali, se alimentate con domande sensate, forniscono risposte insensate ed errate, chi ha definito il gioco semantico delle false Intelligenze Artificiali, ha pensato bene di definire un output insensato od errato di un LLM come “Allucinazione”.

No, una falsa Intelligenza Artificiale non può nemmeno avere una Allucinazione, può solo generare una Stronzata. Le menti razionali, quando malfunzionano, possono avere una “Allucinazione”, mentre meccanismi irrazionali possono solo generare una “stronzata”.

Chiamare una stronzata “Allucinazione” quando è solo un output di un LLM che viene interpretata come una risposta, ed è una risposta credibile ma completamente errata ad una domanda, è un’operazione di marketing magistrale!

Potremmo continuare definendo altri termini come “Addestramento” di un LLM, come “Dialogo” con un LLM, tutti vedi caso con connotazione umanoide. Ma credo che tutti i 24 informati lettori di Cassandra avranno ormai chiarissima la questione.

Potremmo allora continuare nella ricerca di chi ha coniato le nuove parole dell’Intelligenza Artificiale, e le cavalca quotidianamente durante i continui osanna di ChatGPT o di descrizione di qualsiasi prodotto software che incorpori un LLM. Ma sarebbe un discorso oggi fuori tema.

E’ invece utile stressare la conclusione logica di questa esternazione di Cassandra.

Appartenete alla categoria di persone che si sono informate sugli LLM e vogliono esprimere una critica su quello che sta succedendo?

Allora non potete usare quelle parole che, come ci ha ben insegnato Orwell, impediscono di esprimere un concetto, oppure impediscono di percepirne la sua falsità.

Non è possibile svolgere una critica agli LLM, sia filosofica che tecnica, impiegando parole che “offuscano” tutti i concetti critici.

Se parlate solo con parole umanizzate ad arte, usate solo per abitudine o conformismo, vi sarà impossibile esprimere una critica. La Neolingua delle nuove, false Intelligenze Artificiali, vi renderà impossibile esprimere qualsiasi critica.

Un esempio.

“Le intelligenze artificiali talvolta rispondono in maniera errata ad una domanda perché, se addestrate con informazioni che contengono fake news, possono avere una allucinazione!”

Vi rendete conto che per qualunque ascoltatore che non sia un esperto avete appena detto che “le intelligenze artificiali sono intelligenti, anche se talvolta sbagliano”.

Siete stati incapaci di esprimere una critica, razionalmente motivata e del tutto reale e condivisibile, perché avete usato parole faziose, coniate ad arte, che i vostri interlocutori interpreteranno con tutti i retropensieri che esse faranno echeggiare.

Avete fatto affermazioni che non convinceranno nessuno.

Non è possibile svolgere nessun discorso tecnicamente sensato e divulgativo utilizzando le parole di moda per descrivere le intelligenze artificiali. Non solo non riusciremo a trasmettere chiaramente il nostro pensiero, ma se noi stessi “ragioniamo” con queste parole, il nostro stesso pensiero ne verrà inquinato.

Qualsiasi discorso critico sulle tecnologie di intelligenza artificiale composto usando queste parole è intrinsecamente contraddittorio, e veicola per forza un messaggio positivo nei confronti delle false IA, anche quando razionalmente rappresenta una critica.

Riformuliamo quindi correttamente la frase precedente:

I grandi modelli linguistici, quando gli venga fornito come prompt il testo di una domanda, possono produrre un output privo di senso perché, se sono stati generati con informazioni errate o che contengono bias, producono output che, se interpretati da un essere umano come risposta, sono completamente errati.

Dice la stessa cosa? Si. Ma non produce confusione nell’ascoltatore, perché, seppur faticosamente, evita di usare parole “umanizzanti”.

Tutti noi divulgatori, particolarmente se critici nei confronti degli LLM e di ChatGPT, dobbiamo evitare di usare le parole “sbagliate”. E non c’è, almeno per questa volta, altro da aggiungere.


Scrivere a Cassandra — Twitter — Mastodon
Videorubrica “Quattro chiacchiere con Cassandra”
Lo Slog (Static Blog) di Cassandra
L’archivio di Cassandra: scuola, formazione e pensiero

Licenza d’utilizzo: i contenuti di questo articolo, dove non diversamente indicato, sono sotto licenza Creative Commons Attribuzione — Condividi allo stesso modo 4.0 Internazionale (CC BY-SA 4.0), tutte le informazioni di utilizzo del materiale sono disponibili a questo link.

Previous articleBankitalia a Milano
Next articleMaschere e volti alla radio: qui il podcast da White Radio dove se ne discute

LEAVE A REPLY

Please enter your comment!
Please enter your name here