Ancora su ChatGPT

Ancora su ChatGPT

Ho parlato tempo fa del rapporto tra mondo del lavoro e forme di machinie learning, data analytics , e le nuove tecnologie di automazione che entrano nelle aziende. E gia’ quando si reagiva con fastidio a quello che dicevo, ho sempre ricordato il diverso atteggiamento della working class e dei white collars.

Non e’ la prima volta che arriva una nuova tecnologia e cambia il modo di lavorare dell’industria. La cosiddetta “working class” ormai ci e’ abituata, e non si scompone piu’ di tanto: invece, va a fare corsi di aggiornamento sulle nuove tecnologie.

Se ormai queste “rivoluzioni” vengono affrontate con un certo distacco da una classe lavoratrice abbastanza abituata, il problema e’ nato quando la rivoluzione ha toccato i colletti bianchi.

Ma questa era un’idiosincrasia: abituati a pensare di essere insostituibili, i colletti bianchi hanno visto sotto pressione il loro valore principale, ovvero la presunzione che nessuna macchina avrebbe mai potuto rimpiazzarli facendo il loro “lavoro di concetto”.

Ma questo e’ ormai il passato, perche’ oggi come oggi la tecnologia e’ arrivata piu’ un alto: se prima si erano toccati i piani bassi dei colletti bianchi, da qualche tempo si stanno prendendo di mira piani piu’ alti, e in questo momento siamo arrivati a prendere di mira l’attico dell’edificio, ovvero gli “artisti”.

E se i colletti bianchi si sono sentiti oltraggiati da questa nuova ondata di automazione aziendale, immaginate un pochino quel branco di pomposi , inutili cialtroni che si fanno passare per “artisti”, nello scoprire che una AI puo’ scrivere poesie, canzoni, dipingere.


Ai fini storici, possiamo ricordare una data : 

Il 3 Agosto 2022 un certo  Jason M. Allen  partecipa ad un concorso artistico, il cui tema e’ arte realistica (non astratta, o altre bizzarre macchie sul muro) . La giuria e’ fatta da “esperti di arte”. La sua opera vince, e si scopre che e’ stata fatta da DALL-E 2, ma non con la solita interfaccia, bensi’ usando la sua interfaccia su Discord, detta Midjourney.

Tz, ta, pum!

Ovviamente nasce l’oltraggio. E questo oltraggio nasce dalla cattiva coscienza. La cattiva coscienza di chi si era raccontato di fare qualcosa di tanto sopraffino, creativo, sublime, trascendente, che giammai una macchina (tantomeno l’ “algoritmo”) avrebbe potuto raggiungere le loro vette.

Ma la cosa che li tocca ancora di piu’ e’ che i giudici, capaci a loro dire di capire cosa sia l’arte e sapere se ce l’hanno davanti o meno, hanno confuso quel mero prodotto di una macchina senza sentimenti, mero algoritmo che “non soffre” (sic! l’ho appena letto su un giornale italiano) , con un vero pezzo di “arte”.

E questo e’ ancora peggiore, perche’ a questo punto diventa difficile capire cosa sia l’arte, se nemmeno gli esperti di arte riescono a distinguerla dal vero.


Sul piano economico, cosa potrebbe significare questo? I casi sono due:

  1. una proliferazione di contenuti
  2. una concorrenza spietata

voglio dire, ho provato DALL-E sulla mia GPU, e arranca un tantino.  Ma sappiamo bene che col tempo le GPU saranno capaci di supportarlo. Quindi, so che di questo passo per l’anno prossimo potro’ prendere i libri di fantascienza che ho scritto e trasformarli in fumetti, semplicemente spiegando alla AI cosa devo disegnare.

Non e’ male. E non e’ male se pensate che, entro un cinque anni, con una normale GPU riusciro’ direttamente a farci altrettanti film.

Questo e’ quello che io definisco “la proliferazione dei contenuti”: CHiaramente non saro’ io il solo a pensarci, e probabilmente usciranno anche programmi ad hoc per farlo.

Se pensiamo solo a ChatGPT, posso pensare che non appena sara’ uscito in versione “papabile” per la mia GPU , sicuramente tradurro’ in diverse lingue i miei libri, cosi’ da adattarli al mercato locale.

Siccome non saro’ di certo l’unico a pensare di fare una cosa simile, e’ chiaro che assisteremmo ad una proliferazione improvvisa di contenuti. Sinora, la gran parte dei “content creator” non fanno altro che spogliarsi su OnlyFans, ma nel momento in cui una AI desse la possibilita’ di disegnare facilmente dei fumetti, o dei video, la partita cambierebbe notevolmente.

E la vera domanda, al massimo, sara’ “ma chi consuma e/o compra tutti quei contenuti?”


Alla voce “una concorrenza spietata” troverete il fatto che anche Netflix, Amazon Prime, Disney & compagnia potranno avere a disposizione queste tecnologie, solo che a differenza di me avranno tutte le GPU che vogliono. In questo caso, bisogna prepararsi alla condizione per la quale produrre video e film sara’ sempre piu’ economico, e gli attori saranno sempre meno indispensabili. Personalmente, stimo che di questo passo tra sette/otto anni non ci saranno piu’ attori veri.

Se non ci credete, ecco:

https://www.tiktok.com/@curt.skelton/video/7135836562771758382?refer=embed

come vedete, da qui a fare un vero e proprio film, il passo e’ breve. Immaginate di poter fare qualcosa come Avatar 2 in due, tre settimane.


Siamo ad un punto di svolta? Secondo me ancora no. Mi spiego: tutte queste AI girano (almento per la parte di learning) su delle GPU. La GPU non e’ un concetto molto diverso dalla CPU: certo, e’ specializzata, certo spesso ha un’architettura MIMD, ma non e’ architettonicamente una cosa nuovissima.) 

La svolta verra’ quando queste AI verranno traferite sul silicio in maniera “as is”, ovvero con tutta la topologia del caso. In questo modo, le performance saranno di gran lunga superiori ad ora. 

Mi spiego meglio: immaginate di voler trasmettere un video. Per risparmiare dati, lo rendete in 256 colori di grigio, a 640×480. In questo modo avete ottenuto un video di merda, ma dimentichiamo che dall’altra parte nella scheda grafica abbiamo una AI che puo’ prendere questo pessimo filmato e riportarlo in 4K, oppure oltre.

E’ ovvio l’effetto di compressione, superiore a quello di qualsiasi codec. Con questo intendo dire che da quel momento potrebbe arrivare, direttamente nella scheda di rete, un pezzo di silicio con la specifica capacita’ di “rivitalizzare” video di bassa qualita’.

Poi potreste avere delle componenti che “modernizzano” i vecchi film, consentendo di modernizzare il look degli attori e l’ambiente circostante, portandolo al 2023. Anche questo non e’ complicatissimo.

A furia di aggiungere, potrebbe anche finire che le schde grafiche diventino delle vere e proprie “schede visualizzatrici”, che si occupano di visualizzare un imput piuttosto impreciso , magari ridotto a un sacco di pixel sparsi (“Stable Diffusion”) funziona gia’ cosi’.

Quello, secondo me, sara’ il punto di svolta, nel quale chiunque, con un computer normale, potra’ semplicemente chiedere alla scheda grafica di fare qualcosa che ha in mente, descrivendolo a parole.

Da quel momento, il mondo delle arti visive, e probabilmente anche di quelle sonore, non saranno davvero piu’ gli stessi.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *