L’intelligenza artificiale e’ razzista?

Una delle stronzate che mi sento dire piu' spesso sulla AI e' che si sarebbe rivelata razzista. La cosa potrebbe passare inosservata, se non riconoscessi dietro a questa fake news la longa manus di certa accademia. Cosi' e' ora di chiarire un paio di cose.

Per prima cosa, questa e' la seconda ondata di AI, anzi forse la terza. L' AI e' una cosa che torna ad ogni grande salto di capacita' computazionale. I primi tentativi, che risalgono agli anni '70, erano fatti usando strumenti spesso analogici per simulare le sinapsi, come i transistor. Questo perche' a quei tempi la capacita' computazionale era bassissima. La prima onda, quindi fu principalmente teorica, e le principali applicazioni furono principalmente nel campo delle “logiche fuzzy”, all'epoca considerate intelligenti. Tipicamente si trattava si sistemi di controllo (freni per i treni ed altro) che riuscivano a ragionare in maniera “quantitativa” pur facendo uso di componentistica digitale.

La seconda ondata torno' circa 20 dopo, negli anni '90. E qui cominciarono a scoprire la bellezza delle prime reti neurali Back Propagation, degli algoritmi “genetici” (basati su un algoritmo che riproduceva la selezione naturale), sui dicotomizzatori inferenziali di ogni ordine (oggi chiamati “Decision Tree”) , sulle reti di Kohonen (che oggi nel mondo del big data vengono chiamate “algoritmi di clustering”, e ce ne sono molte altre, eccetera) .

A che cosa era dovuta? Era dovuta all'introduzione dei primi sistemi di supercalcolo che le universita' potessero permettersi, ovvero ancora una volta ad un salto di quantita' nel capo della capacita' computazionale. C'era il GigaFLOP. WOW.

Le applicazioni furono scadenti e rare, e principalmente in ambito militare: sistemi di aggiustamento di tiro per cannoni che cambiano caratteristiche con l'usura, sistemi di correzione del volo per i jet supersonici, e poco altro di rilevante. Ok, il newton di Apple implementava un sistema di riconoscimento della scrittura. Ammettiamolo. Ecco, cosi' facciamo contenti anche i civili. Il resto era sperimentale, cioe' limitato all'ambito accademico.

L'ondata di oggi in parte da un nuovo cambio di paradigma nella potenza computazionale, e da una nuova facilita' di costruire ASIC ad hoc, come quanto vi dicono che nel vostro cellulare “c'e' un chip con la AI”. Ok. Quindi adesso si stanno sviluppando all'infinito i modelli convoluzionali, le reti ricorsive, e tante altre tecnologie.

Ma c'e' un secondo punto che nessuno sta facendo notare: in questa ondata gli accademici non GUIDANO piu' la ricerca. Se volete trovare lo stato dell'arte, non e' piu' nelle universita' che potete trovarlo. Per diversi motivi.

  • il budget per la ricerca del mondo accademico e' microscopico rispetto a quello di Google&co.

  • la capacita' di calcolo del mondo accademico e' microscopica rispetto a quella di Google&co.

  • l'attrattivita' del posto di lavoro nel mondo accademico e' microscopica rispetto a quella di Google&co.

in pratica, il mondo accademico in questa ondata della AI e' tagliato fuori: non ha i fondi, non ha le infrastrutture, non ha piu' i migliori cervelli. Si, molte universita' vantano collaborazioni con questo e quello, ma se andiamo a vedere quanto “cubano”, scopriamo che si tratta di cose fatte “for the show” , ma alla fine il brevetto, cioe' lo know-how, resta alle grandi industrie.

Non c'e' da stupirsi, dal momento che la stessa cosa e' successa nel farmaceutico.

Cosa fa l'accademia quando viene superata? Mette in campo tutto il suo potere e la sua credibilita', inizia ad infettare i giornali e internet, e allora scopriamo che la robotica sta facendo skynet, che l'intelligenza artificiale ci ammazzera' tutti, e ora abbiamo scoperto che “e' razzista”.

balle.

Non appena le grandi aziende cominciano a fare progetti “in cooperazione” con le universita', cioe' pagata la tangente, allora le tecnologie torneranno innocue, etiche, e tutto quanto. Anche se le usano per sganciare missili Hellfire. Sono i nostri Hellfire. Mica come quelli sviluppati senza la preziosa supervisione del dipartimento di Etica, che avrebbero sganciato degli Hellfire, pero' malvagi.

Esiste cioe' un ricatto: o le industrie annunciano progetti insieme all'universita', oppure gli accademici e gli esperti di Etica si mettono a strillare: quello che fanno i malvagy assetati di soldi ci uccidera' tutti!!!!. E' un modello sperimentatissimo gia' usato con il mondo della farmaceutica, ma anche dell'ecologia (se non fai donazioni ai soliti GrPe e le tre lettere maiuscole sei nel mirino anche se le tue auto vanno a neutrini, se invece fai loro donazioni si dimenticano di te anche quando le tue auto vanno a cuccioli di foca).

Ma andiamo al succo. La AI puo' essere razzista?

Chi sostiene questa balla dice che “quando negli USA si sono fatti gli esperimenti si e' visto che secondo le AI i negri erano piu' criminali”.

Ma guarda che strano.E se ci chiedessimo con quali dati sono state istruite, cosa ci risponderebbero? Ci risponderebbero che sono state istruite coi dati della polizia americana. Quella che ammazza negri random, a quanto pare.

Di fatto, quindi il risultato sperimentale non e' affatto negativo: nel diventare razzista, la AI ci aveva segnalato che i dati fossero in qualche modo razzisti, o contenessero del razzismo.

Esattamente come la AI di Microsoft che, lasciata da sola su Twitter in piena tempesta della Alt-Right, divenne nazista. Anziche' scandalizzare le persone per il fatto che una AI volesse sterminare il genere umano, FORSE qualcuno si sarebbe dovuto chiedere “ma non e' che su twitter c'e' un lieve problema di odio?“.

Quindi il punto e': SI. Una AI puo' diventare nazista se la si fa girare su dati scritti da Goebbels in persona. Il problema delle AI che fanno machine learning, in generale, e' che non hanno i fatti: hanno solo i dati.

Se i dati mostrano che ai neri diamo pene piu' alte che ai bianchi, la AI li riterra' piu' colpevoli: ma il fatto che la Ai diventi razzista, semmai, e' un segnale di pericolo. Nel fare questo la AI sta IMITANDO il comportamento dei dati che legge: se i dati arrivano da un sistema giudiziario razzista, allora diventera' razzista.

Ma a quel punto sarebbe interessante semmai usarle come cartina tornasole: si crea una AI, la si educa coi dati prodotti da una data istituzione, e si verifica cosa sia diventate : qui entra in gioco la XAI cioe' la costruzione di intelligenze artificiali che sia possibile capire dopo il periodo di istruzione. Allo stato attuale le AI sono difficilissime da comprendere perche' il costrutto di tutti i dati che hanno macinato non e' comprensibile se non a loro stesse.

Il problema non sta nel metodo con il quale noi controlliamo che cosa le AI abbiano imparato: possiamo anche programmarle come chatbot e parlarci. Ma se adesso io prendessi una AI, ci ficcassi dentro tutti i dati dell' INPS, e scoprissi che la AI diventa razzista contro i calabresi, non dovrei dire “la AI e' razzista contro i calabresi”: dovrei al contrario andare a verificare come si comporta INPS nei confronti dei calabresi.

Se quando le prime AI si sono mostrate “razziste” dopo aver macinato i dati della polizia qualcuno fosse andato a controllare, forse si sarebbe capito che effettivamente la polizia americana qualche problemino di razzismo magari lo aveva. Ma faceva piu' scalpore sui giornali (e piu' comodo al mondo accademico) segnalare il “fallimento” dell'industria delle AI, piuttosto che ascoltare il segnale d'allarme.

Se per caso prendessi una AI e la programmassi coi dati delle forze dell'ordine italiane, e la AI cominciasse ad esaltare il Duce e chiedere cocaina ed anfetamine, non andrei a criticare la AI: mi chiederei se le forze armate italiane non abbiano un problema di fascismo e un problema di droghe eccitanti. (ogni riferimento a fatti e persone realmente esistenti e' un riferimento a fatti e persone realmente esistenti).

Essenzialmente, il gioco di tanti accademici e giornalisti e' stato proprio quello di non capire la AI come strumento: e' come se usando un termometro si dicesse “ehi, il termometro ha la febbre!”. Beh, no: magari il termometro e' alla stessa temperatura del corpo umano, ma ad avere la febbre e' il corpo umano.

Riassumendo: si, se una AI viene lasciata a fare machine learning su un blocco di dati che annida un problema di nazismo, diventera' nazista. Se la nutrite con i dati di una polizia razzista , diventera' razzista. Se la lasciate esposta durante la fase di apprendimento in un ambiente colmo di odio, vi dira' che vuole eliminare ogni essere umano.

Ma la AI e' un termometro, e il termometro non ha la febbre: la febbre ce l'ha chi ha usato il termometro.

E se qualcuno avesse chiesto, glielo avrebbero spiegato anche i creatori di quelle AI.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *