L’intelligenza artificiale viene allenata con dati che riflettono i biascognitivi?
Bias deriva da “ tiro obliquo” e nel contesto psicologico, e’ una deviazione dal pensiero “normale” o razionale. Un bias cognitivo può alterare la nostra percezione o interpretazione della realtà dalla sua effettiva verità o oggettività. Praticamente i bias sono errori di pensiero automatici che il nostro cervello compie quando deve elaborare informazioni e prendere decisioni, con la conseguenza che la percezione ed interpretazione della realtà viene rilevata in modo distorto.
Ad esempio, se crediamo che un determinato politico sia disonesto, tenderemo a prestar maggior attenzione a notizie negative su di lui e ad ignorare quelle positive.
Gli algoritmi dell’Intelligenza Artificiale sono prodotti da “allenatori”, ma chi sono?
Un allenatore di algoritmi è generalmente un ingegnere o un professionista del settore dell’intelligenza artificiale, il quale si occupa del processo di “addestramento” di un algoritmo di apprendimento automatico chiamato “machine learning”. Gli allenatori di algoritmi devono essere ben consapevoli dell’importanza dell’etica nell’allenamento, gli algoritmi addestrati possono percepire pregiudizi esistenti, praticamente essere prodotti da bias umane. L’intelligenza Artificiale apprende dai dati che le vengono forniti e se i dati contengono bias, l’IA incorpora e replica quei bias nelle sue risposte e nelle sue decisioni.
Quindi i bias, in base ai dati elaborati, possono seguire una precisa ideologia politica, oppure fare una scelta di preferenza di uomini rispetto alle donne, o viceversa, in ruoli di leadership. Bisogna specificare che tutto ciò non significa che l’Intelligenza Artificiale “condivida” o “aderisca” a quella data ideologia, ma semplicemente che sta replicando i modelli che ha trovato nei dati con cui è stata allenata.
Quindi, se un allenatore di algoritmi, politicamente orientato, introduce nei dati di addestramento contenuti che riflettono la propria visione politica, l’IA potrebbe produrre degli output, cioè risultati, che sono deviati da uno specifico e personale bias. Il rischio è la produzione di un comportamento non etico o trasparente, poiché gli algoritmi devono fornire risultati equi e obiettivi.
L’intelligenza artificiale non ha propri pensieri in senso umano. Non possiede coscienza, sentimenti o la capacità di avere un “pensiero proprio”, è un insieme di algoritmi e tecniche di apprendimento automatico attuate per eseguire determinati compiti, come riconoscere immagini, comprendere e generare linguaggio umano, fare previsioni basate su dati, ecc.
Durante l’allenamento, l’ingegnere dell’Intelligenza Artificiale usa i dati forniti e modifica i suoi algoritmi per migliorare le sue prestazioni.
Tuttavia, questi processi sono basati su regole matematiche e statistiche, e non su un processo di pensiero conscio o su una volontà propria. Quindi, mentre l’IA può sembrare che “pensi” o prenda decisioni, in realtà sta solo seguendo gli algoritmi che è stata programmata per eseguire.
E’ fondamentale che vi sia un buon approccio multidisciplinare alla progettazione, una “Ghirlanda Brillante” come la chiamo’ nel 1979 nel suo saggio vincitore del Premio Pulitzer Richard Hofstadter, in modo da considerare diverse prospettive e evitare la riproduzione inconscia di pregiudizi umani, di bias.
Il nuovo anno che si sta avvicinando vedrà’ andare al voto ben 26 paesi, quattro miliardi di persone, esattamente la metà della popolazione umana.
La domanda da porsi è: quanto potrà influire l’Intelligenza Artificiale e i bias cognitivi nelle campagne elettorali?
L’intelligenza Artificiale non deve essere sottovalutata, perché potrà influire sulle campagne elettorali in vari modi: come essere utilizzata per comunicare con gli elettori e diffondere i messaggi della campagna elettorale, sarà utilizzata per analizzare i dati sui comportamenti degli elettori per sviluppare strategie di campagna elettorale sempre più efficaci. Potrà essere utilizzata anche per creare falsi con la “tecnologia deepfake”, che può manipolare l’opinione pubblica diffondendo informazioni false, creando contenuti audiovisivi completamente inventati.
I bias cognitivi, potranno influire sul modo in cui gli elettori percepiscono e reagiscono alle informazioni. Ad esempio, il bias di conferma può fare sì che le persone siano più propense a credere a informazioni che confermano le loro opinioni esistenti, ignorando o sminuendo le informazioni che le contraddicono.
Per questo motivo, l’Intelligenza Artificiale e i Bias cognitivi dovranno garantire l’uso responsabile ed etico nelle campagne elettorali.
Sicuramente i rischi che si prospettano con l’uso della IA sono preoccupanti ma gia’ da tempo i social influenzano in modo determinante, con l’uso di algoritmi, le coscenze di molti.
I filtri e le logiche associative, infatti, impediscono o facilitano sempre piu’ in questi ambienti collegamenti fra soggetti che coltivano orientamenti etici e sociali similari.
In questo quadro, c’e’ da sperare nella scarsa propensione alla lettura delle masse, geneticamente poco propense ad allargare conoscenze e bagaglio culturale.
Potrebbero paradossalmente venire a costituire dei diffusi antidoti adatti a frenare la potenziale pandemia etico-culturale attenzionata.
Creando uno dei casi in cui l’igoranza pigra potrebbe venire a costituire un’efficace risorsa. Chissa’?