Le false IA commerciali che usiamo oggi sono così ambigue che non si riesce ad usarle senza correre continui rischi. Anche quando si parla in confidenza.
Proprio nel giorno di San Valentino, Cassandra si è imbattuta su Gizmodo in un articolo, citato anche da Slashdot, che parlava di evidenti e gravi problemi di privacy presenti negli accordi di licenza del “chatbot romantici”.
La prima reazione di Cassandra la dice lunga sulla sua ignoranza di certe questioni del presente; si sa che le profetesse amano occuparsi principalmente del futuro, e talvolta, appunto, si distaccano dal presente.
Infatti che esistessero siffatti chatbot, e la gente li usasse così tanto che una recensione elenca 11 aziende e servizi che ne forniscono, è stata per lei una novità assoluta.
Ma la meraviglia si è rapidamente dileguata per far posto ad un più ordinario, profondo sconforto.
E’ del tutto naturale, come la Regina Rossa ha sempre saputo benissimo, che la gente proietti sé stessa su qualunque output in linguaggio naturale proveniente da un computer, e che gli attribuisca profondità e significati ovviamente provenienti dall’umano, e non dal computer.
Ricordate Eliza?
Wikipedia la introduce così “ELIZA è un chatterbot scritto nel 1966 da Joseph Weizenbaum.” Sì, quasi sessanta anni fa, e si trattava di poco più di mille righe di un linguaggio simile al BASIC. Altro che retrocomputing!
Gli storici riferiscono concordemente che persone ordinariamente intelligenti, e che avevano avuto esperienze di psicoterapia, la scambiavano per uno psicoterapeuta umano, e si dichiaravano soddisfatte dell’interazione con “lei”.
All’epoca si iniziò a parlare, senza ancora aver capito alcunché, di un “Effetto Eliza”.
Per Cassandra, ovviamente, si trattava non di un fatto storico eclatante ma semplicemente preoccupante, e lo aveva correttamente inserito nelle famiglia delle dipendenze che le persone si creano grazie all’informatica, come quelle ben più gravi dovute ai social.
Pochi secondi dopo aver appreso la notizia, i soliti ragionamenti si sono formati e conclusi nella mente della nostra profetessa preferita, ed i 24 informatissimi lettori certo li potranno prevedere.
Saltando a piè pari quelli legati alla stupidità naturale del “genus Homo Sapiens”, che non fa certamente onore al suo nome, concentriamoci sul fatto in sé.
Ed in particolare sull’amplificazione, del tutto prevedibile, che l’arrivo delle false Intelligenze Artificiali, ed in particolare dei Grandi Modelli Linguistici Generativi Pre-addestrati (così si chiama, per esteso, chatGPT), avrebbe avuto sugli inevitabili “successori” di Eliza.
Successori nati ovviamente per far soldi, principalmente estraendo dati personali e sensibili (e quanto sensibili!) dalle persone.
Sì, perché qui, ora ed in questo mondo esistono persone, tante persone, che raccontano sé stesse, i loro segreti più intimi, le loro paure, e qualsiasi altra cosa venga loro in mente ad un chatbot dotato di falsa intelligenza artificiale, ufficialmente allo scopo di avere “sostegno psicologico e sollievo esistenziale”.
Saltiamo di nuovo a piè pari l’efficacia ed i problemi di un tale servizio, ed arriviamo rapidamente al fatto più importante secondo Cassandra, ed anche alla conclusione di questo suo “ragionamento”; i dati personali.
Le aziende che producono i chatbot analizzati dall’inchiesta, nel 90% dei casi dicono chiaramente, nella licenza, che utilizzeranno le conversazioni come dati per ulteriori elaborazioni, addestramenti di false intelligenze artificiali, e per qualsiasi altro scopo venga loro in mente, iniziando ovviamente dalla vendita dei dati a chiunque sia disposto a pagarli.
In inglese, in maniera molto più ampollosa, dispersiva e forbita, ed in legalese stretto, c’è scritto proprio questo.
E come sempre gli ignoranti utenti (in senso latino) che hanno già detto sì ad Alphabet, a Meta ed ai tutti i loro famuli, proprio come la monaca di Monza, hanno risposto, ed hanno risposto sì.
A parte qualsiasi ulteriore considerazione, su questa (per lei) “novità” Cassandra non può fare profezie; dare suggerimenti invece sì.
E lo farà concludendo in un modo che nemmeno i suoi 24 interdetti lettori si aspettano.
Se non avete mai usato questi chatbot, potete fare una segnalazione al Garante per la Protezione dei Dati Personali, che già in passato ha dimostrato di prendere in seria considerazione (più dei colleghi europei) anche aspetti “strani” di quanto di sua competenza; sempre se qualcuno glieli segnala e sono pericolosi.
Se avete invece davvero usato un chatbot di questo tipo, o magari se lo ha fatto una persona che dipende da voi, potete (per non dire dovete) fare un reclamo al Garante, che in questo secondo caso vi darà, con i tempi necessari, una risposta.
Segnalazione e reclamo sono due cose diverse, e sul sito del Garante tutto questo è spiegato esaurientemente e ci sono istruzioni e modelli da utilizzare.
Fatelo.
Scrivere a Cassandra — Twitter — Mastodon
Videorubrica “Quattro chiacchiere con Cassandra”
Lo Slog (Static Blog) di Cassandra
L’archivio di Cassandra: scuola, formazione e pensiero
Licenza d’utilizzo: i contenuti di questo articolo, dove non diversamente indicato, sono sotto licenza Creative Commons Attribuzione — Condividi allo stesso modo 4.0 Internazionale (CC BY-SA 4.0), tutte le informazioni di utilizzo del materiale sono disponibili a questo link.