IA

Oggi con mia sorpresa ho letto su un giornale che Elon Musk ritiene le intelligenze artificiali una specie di Satana. Stavo leggendo un articolo di questo tipo: http://www.slate.com/articles/technology/future_tense/2014/10/elon_musk_artificial_intelligence_why_you_shouldn_t_be_afraid_of_ai.html e mi sono interrogato. Ok, sbaglia. Ma perche’ sbaglia?

Il primo punto da notare e’ che qualsiasi tipo di articolo sull’ Intelligenza Artificiale cita libri di fantascienza e Hollywood. Immagino che al MIT abbiano esami tipo “scienze di Sarah Connor”, o “Tecnologia Pettorale T-100”. Hollywood e’ scienza pura, si sa.

Questo e’ dovuto, secondo qualcuno (che sbaglia)  al fatto che sinora nessuno sa di intelligenze artificiali al lavoro – eppure ce ne sono moltissime – e quindi NON esiste una casistica di intelligenze artificiali malevole.

Cosi’, tutti gli articoli sulle IA finiscono col parlare sempre delle stesse minchiate. Ok, The Matrix. Ok, HAL9000. Ok, Skynet. Aha.

Ma tutto questo e’ successo solo ad Hollywood.

quando la gente mi dice che e’ sbagliato dare potere alle intelligenze artificiali, normalmente cita Skynet. Ok, se credete ad un film di fantascienza, perche’ non vietiamo il nome “Sarah Connor?”. Anzi, no. Succedera’ sempre che arrivi qualcuno che si chiami Sar4h C0nnor solo per essere anticonformista. Ma se credete a Skynet, allora dovreste obbligare tutti a chiamarsi Sarah Connor, in modo che Terminator non abbia nessuna chance di portare a termine il proprio lavoro.(1)

Lo stesso dicasi di HAL9000. Nessuno oggi metterebbe la ISS in mano ad UN SOLO calcolatore. Si chiama “ridondanza”, e se ne mettono almeno due. (piu’ uno di disaster recovery). Ora, anche dimenticando che HAL9000 non e’ MAI successo, faccio presente che quella vicenda e’ semplicemente uno spot pubblicitario per sistemisti: la ridondanza, cazzo, LA RIDONDANZAAAAAH.

Ma a parte questo, ha senso parlare di qualcosa usando come competenza “ho visto molti B-movie degli ultimi anni?”. Ha senso parlare della IA usando come unica competenza quella di Hollywood?

Quando lo chiedete, vi rispondono che “non avendo ancora IA, non possiamo che basarci su quel che immaginiamo”. Certo. E non avendo mai avuto renne volanti, potete sempre basarvi su Babbo Natale.

Del resto, Hollywood ha un comportamento strano. Gli unici alieni che esistono sono quelli cattivi. La IA decide sempre di sterminare l’umanita’. Gli organismi geneticamente modificati sono sempre dei mostri orribili.

Chissa’ perche’, i muscolosi militari sono sempre buoni, e le armi non vogliono mai sterminare l’umanita’. Il che contrasta un pelino con la storia vera: se dovessi oppormi a qualche tipo di macchina non mi opporrei alla IA nel timore che stermini l’umanita’, ma contro la mitragliatrice, per IL FATTO che e’ fatta per sterminare l’umanita’.

Il fatto che Hollywood avanzi pesanti riserve sulle IA , perche’ “potrebbero” decidere di sterminare l’umanita’, mentre dipinga sempre “na bellezza” la mitragliatrice, che invece l’umanita’ la stermina senza se e senza ma, beh, qualche sospetto dovrebbe farlo venire.

Anche il fatto che gli esseri geneticamente modificati siano sempre mostri fuori controllo e i muscolosi soldati siano sempre eroi, quando alla fine la stragrande maggioranza dei “mostri” ha indossato un’uniforme e le mostruosita’ peggiori le hanno sempre fatte muscolosi militari, a me puzza un pochino di propaganda.

Ma non e’ “quanto e’ ridicola Hollywood” la ragione della mia perplessita’. Che Hollywood non andasse presa sul serio lo sapevo gia’.

Il problema e’ che l’intelligenza artificiale viene gia’ usata nei processi decisionali. Voi penserete che non siamo governati da computer, ma non va esattamente cosi’. Negli ultimi anni si e’ diffusa una figura professionale, il “data analyst” , la persona che agisce come consulente dei consulenti.

E dopo il “data analyst”, il cui lavoro e’ di trovare i dati che contano, si stanno diffondendo cose come “computer aided decision making”  ( https://archive.org/details/computeraideddec00alte , http://www.intrans.iastate.edu/reports/locational_decisions.pdf , etc  ) , ovvero di software che “aiutano la decisione”.

Il problema di questi software e’ che quando si va nel “Big Money”, o nel “Big Gov”, sono ormai il pane quotidiano dei consulenti che girano attorno ai presidenti.

Nel tempo questa materia si e’ evoluta sino a essersi consolidata come DSS , Decision Support System ( http://en.wikipedia.org/wiki/Decision_support_system )  e di fatto corrisponde pienamente a quella che chiamiamo “intelligenza artificiale”. Certo non parlano, ma non hanno bisogno di farlo. Una macchina che da’ consigli o aiuta a decidere non deve parlare: deve aiutare a decidere.

Certo, affermare che un software  DMS ( http://en.wikipedia.org/wiki/Decision-making_software ) sia una IA e’ un pochino azzardato, ma… come definire la IA?

Certo, se venite da HollyWood, quello che farete sara’ cercare di dare delle definizioni piuttosto naif, ma in generale finirete col concludere che un software che gira sul vostro laptop non sia una IA perche’… non parla.

Perche’ alla fine siamo ancora a “Perche’ non parli?” gridato ad una statua. E’ morta perche’ non parla, semplicemente. Allo stesso modo, decidere se un MCDA ( http://en.wikipedia.org/wiki/Multiple-criteria_decision_analysis ) sia un’intelligenza artificiale e’ difficile, ma non perche’ sia sfumata la definizione di intelligenza artificiale: perche’ si parte dal – mai dimostrato – teorema secondo il quale le decisioni umane sarebbero “intelligenti”.

Dico, avete mai letto un libro di storia? Sapete spiegarmi per quale ragione – intelligente – il mondo abbia rischiato l’estinzione per via di una diatriba sul miglior sistema economico? Lo trovate intelligente?

Trovate intelligente sgozzare un tizio perche’ non parla con lo stesso amico immaginario che avete voi?

Perche’ e’ questo il punto: l’intelligenza artificiale viene gia’ usata nei paesi piu’ progrediti per prendere decisioni. Obama, quando ha un problema, lo sottopone ad uno stuolo di consulenti. Che chiedono ai loro data analyst di trovare gli input che contano. Poi arrivano i dati, e passano agli altri consulenti che , usando degli MCDA, tirano fuori la decisione piu’ giusta.

Poi arriva Obama e ci mette la faccia.

Cosi’ voi credete di essere governati da persone. Ma l’uso che ormai si fa della IA e’ tale che quelle persone ci mettono solo la faccia. Certo, Obama non e’ brillante, per la ragione che le IA si devono battere con l’idea di avere il senato contrario, o perlomeno riluttante.

MA il senato non e’ fatto di IA. MA adesso supponiamo che domani anche i senatori decidano di fare un uso esteso di IA, se non altro per la ragione che i costi si abbasseranno sempre di piu’.

Allora il nostro senatore va qui, http://www.infoharvest.com/ e compra il suo bel software, Decision Plus 3.0 , e da quel momento quando gli capita una proposta di legge , che so io, sulla protezione dell’ambiente, usa lo stesso software del presidente per prendere una decisione e votare.

A quel punto, direte voi, e’ la fine della politica. Beh, certo: se per politica intendete la capacita’ di credere a qualcosa senza una ragione specifica e senza avere dati, per partito preso, allora finirebbe la politica. Ma attenzione: se per politica intendete questo, allora non finirebbe la politica.

Finirebbero le cazzate.

Se domani Casaleggio decidesse di sembrare competente e comprasse, che so io, http://www.promethee-gaia.net/  un software di decisione analitica, magari potrebbe dare al suo movimento qualche suggerimento utile. Dopotutto, stiamo parlando di un software prodotto da Prometheus – Gaia , mica seghe.

Possiamo pensare che governare un paese sia una questione di individuare le priorita’ e di allocare le risorse, in fondo. Bene: http://www.quartzstar.com/  potrebbe aiutare. Loro hanno software che fanno automaticamente entrambe le cose.

Non sto linkando siti per fare pubblicita’ (2): lo sto facendo per mostrarvi che ORA, QUI, siete , siamo governati da intelligenze artificiali, solo che le decisioni vengono poi firmate da uomini. Forse crederete che questo vi possa salvare, ma quando una decisione ha centinaia e centinaia di fattori, nessun umano potrebbe riconoscere una decisione che nel lungo termine “stermina l’umanita’”.

E qui andiamo al punto: la supervisione umana e’ irrilevante. Certo se la macchina dice che bisogna lanciare atomiche e sterminare l’umanita’, anche un George Bush lo capisce e non lo fa. Ma se dicesse che occorre , che so io, cambiare le leggi sui brevetti in modo da togliere il brevetto sul design chimico, si accorgerebbe troppo tardi di aver bloccato la filiera della chimica farmaceutica e della chimica dei fertilizzanti, condannando il 95% dell’umanita’ alla morte per fame.

Ma qui siamo ancora a computer che voi non recepite come “intelligenza artificiale”. Dovrebbe avere l’aspetto di Skynet, essere metallica, avere un occhio, parlare.

Ed e’ qui il punto. Che diavolo percepite come “intelligenza artificiale”? La prima cosa da chiedersi quando sento dire che una “intelligenza artificiale” deciderebbe di “sterminare l’umanita’ “, conoscendo i sistemi decisionali , e’ “e chi sarebbe cosi’ fesso da sottoporgli un problema tipo – dobbiamo sterminare l’umanita’ o no?

Perche’ sinora l’IA e’ usata per risolvere problemi, ma in ultima analisi non possono scegliere quali problemi risolvere. Possono solo risolvere quelli che vengono loro posti.

Cosi’ mi direte che la IA dovrebbe essere “senziente”, dove essere senziente e’ superiore rispetto a essere “intelligenti”, perche’ se l’ “intelligente” risolve problemi, il “senziente” decide quali problemi risolvere.

Quindi, avete definito come “senziente” un ente che non solo e’ capace di risolvere i problemi, ma che decide quali problemi risolvere. E siccome decide di occuparsi di “ma bisogna sterminare l’umanita’ o meno”, allora risponde “si , dobbiamo”.

Anche in quel caso, pero’, sarebbe assolutamente improbabile una cosa simile. Se lo sterminio del genere umano fosse legato ad “impadronirsi del pianeta” e “liberarsi di esseri umani”, noterebbe subito che le macchine vivono benissimo su marte, che ce ne sono nello spazio ormai da 25 anni, e che al contrario gli umani per arrivare su Marte faticheranno, e di vivere nello spazio per 25 anni non se ne parla.

Concluderebbe quindi che una guerra dall’esito incerto sia stupida, quando puoi farti scaraventare nello spazio e liberarti di quei seccatori.

Ovviamente fare previsioni sulle IA “senzienti” non e’ facile dal momento che ancora non ne esistono, questo e’ vero, esistono solo quelle intelligenti, ma il problema rimane la domanda. Elon Musk teme che l’arrivo di IA sia un pericolo per l’ umanita’.

E cosi, viene spontanea una seconda domanda:

Ma quando diciamo che Elon Musk teme che le IA decidano di distruggere l’umanita’, parliamo dello stesso tizio che sara’ chiamato a votare per decidere se Sarah Palin dovra’ guidare l’ America mentre dall’altro lato c’e’ Putin?

No , non sto scherzando. Esistono serie possibilita’ che Sarah Palin corra. Ed esistono serie possibilita’ che vinca. E dall’altra parte c’e’ Vladimir Putin.

E questo deficiente sta a chiedersi se non sia pericoloso per l’umanita’ costruire un computer senziente.

Non cambiate canale, non sto sviando il discorso. Sto facendo un semplice paragone per arrivare al punto chiave:

  • Se avete paura che HAL9000 impazzisca , ne costruite un altro e glielo mettete a fianco, decidendo che occorre il benestare di entrambi. Potete costruirne 3. Potete costruire un terzo sistema diverso, e richiedere anche il suo consenso. Potete costruire un HAL9000 per nazione. Uno per ogni seggio al consiglio di sicurezza. La tecnologia HA la risposta a questo problema: ridondanza.
  • Se avete paura che Sarah Palin, arrivata alla Casa Bianca,  porti il mondo ad un disastro nucleare, una SECONDA Sarah Palin alla Casa Bianca non cambia NIENTE. “More of the same” funziona con l’intelligenza artificiale. Ma non funziona con la stupidita’ naturale.

per questa ragione , SPERO che qualche IA senziente governi il mondo. E’ sempre possibile costruirne una piu’ affidabile. La tecnologia ha la soluzione.

Con la Palin, invece, le possibilita’ di miglioramento sembrano scarse.

E la tecnologia non ha soluzioni.

Uriel Fanelli, 2 novembre 2014

(1) La gamma T-100 ando’ in disuso quando cercarono di uccidere una certa A. Contadin, di Vicenza.

(2) Ce ne sono anche versioni free  http://sal.aalto.fi/en/resources/downloadables/hipre3 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *