Ho appena avuto una bizzarra discussione sulla scrittura e sull’uso della AI nel campo del selfpublishing. Ora, come sapete ho cominciato a usare Amazon Kindle Publishing svariati anni prima che la AI esistesse , quindi e’ ovvio che i miei testi li scrivevo io (a meno che non vogliate anche accusarmi di aver inventato la AI generativa dieci anni prima di OpenAI) , ma la fesseria piu’ grande che ho sentito e’ che il solo uso, non fosse che per le copertine, e’ sufficiente a dire che l’opera non e’ piu’ mia.
Vediamo di capire un attimo cosa significa.
Nel flusso normale, voi scrivete il testo del libro, poi pagate un editor per fare, appunto, l’editing. In questa fase un lettore che non siete voi legge il libro e corregge i refusi e le forme “stravaganti” che magari avete usato senza accorgervene.
La tesi che ho sentito dice che se uso una persona umana per questo lavoro, allora il libro e’ ancora “mio”. Se invece uso un modello di linguaggio , allora il mio libro non e’ piu’ mio perche’ sto usando la malvagia AI, che sicuramente ha rubato a Manzoni la capacita’ di scrivere. Quindi l’autore (o almeno il co-autore) del mio libro e’ , senza ombra di dubbio, Manzoni.
E’ superfluo dire che non ha senso pensare ad una persona (l’editor) come una persona completamente neutra, essendo certi che non si sia mai formata/o leggendo Manzoni, mentre un modello di linguaggio sarebbe chiaramente manzoniano se correggesse il mio testo.
Il problema, pero’ e’ il seguente:
- tecnicamente, anche il correttore automatico del computer e’ un modello di linguaggio.
- anche il suggeritore di parole della vostra tastiera, pur essendo un banale markoviano, e’ un modello di linguaggio. E anche il T9 lo era.
- essenzialmente, sono almeno 30 anni che tutti usano modelli di linguaggio, solo che erano piccoli.
Quindi no, fatevene una ragione: avete detto una cazzata. Usare un grosso modello di linguaggio per correggere il vostro testo, come per fare editing, non lo trasforma in un testo di Manzoni solo perche’ anche Manzoni e’ stato usato per creare il modello di linguaggio.
Un altro grosso argomento riguarda le copertine. Sto usando una AI generativa per fare le copertine, e anche qui c’e’ lo stesso argomento. Stai “rubando” a qualcun altro, sul quale la AI si sarebbe addestrata.
Devo dire un paio di cose: ho costruito le immagini di copertina usando le descrizioni dei personaggi che ci sono sul libro, e al massimo aggiungendo cose per rendere piu’ precise le immagini. Posso dire che oggi, se osservate le copertine di “Pietre”, vedete i personaggi quasi esattamente, se non esattamente, come li ho immaginati.
Significa che se aveste preso la fotografia dal mio cervello, avreste ottenuto la stessa faccia. Sinora sono riuscito a simulare benissimo sia Amira che D’hu, e devo dire che la somiglianza e’ impressionante.
E qui e’ il punto, ovvero: ammettiamo pure che la AI si sia addestrata sulla foto del Manzoni in persona, non ha senso pensare che un’immagine apparsa nella MIA mente sia una creazione altrui, nella misura in cui assomiglia alla persona che ho in mente, e non a quella che aveva in mente Manzoni.
Ogni volta che scrivo un lungo prompt, ottengo una ventina di immagini, piu’ quelle che vengono “sognate”. Tra queste, moltissime sono da scartare, ma almeno una di solito e’ praticamente una fotografia di quel che avevo in mente. Si tratta, quindi, di un processo che non e’ neppure deterministico: sono IO a riconoscere tra le tante immagini “ecco, questo e’ quello che vedo se chiudo gli occhi”.
Il lettore, quindi puo’ essere sicuro: quando guardate la copertina di Pietre: prima puntata, vedete praticamente una fotografia di come io immagino D’hu, con una precisione che definirei “telepatia”.
Lo stesso per quanto riguarda Amira, sulla copertina della seconda puntata. E cosi’ via. Usero’ lo stesso criterio per tutte le copertine.
Ma adesso ho una domanda: quando invece chiedevo a qualcuno esperto di Photoshop di farmi qualcosa, e non ottenevo MAI quello che avevo in mente, avevo rubato “di meno”, avendo la CERTEZZA che quella roba NON veniva dal mio cervello, ma da quello di qualcun altro?
Certo, una differenza si nota. Posso farmi da solo le copertine e posso farmi da solo l’editing. Non devo piu’ pagare qualcuno.
Quindi la domanda sorge spontanea: e se per caso, dietro tutte queste lamentele dei “puristi”, ci fosse in realta’ la difesa di un bieco interesse economico, cioe’ il tanto avversato “capitalismo”?
Lo dico onestamente: sinora nessuno era riuscito a “fotografare” la mia mente come stanno facendo le AI generative. Posso dirvi che quelle foto rispecchiano quello che IO ho immaginato. Con che coraggio ve ne uscite a dire che in qualche modo, se arriva qualcun altro e non ci azzecca MAI, il libro e’ piu’ “mio”?
E lo sto chiedendo perche’ ultimamente vedo che Linux sta diventando piu’ un partito politico che un sistema operativo, e c’e’ una tremenda avversione nell’ integrare AI generative nel suo desktop e nei suoi programmi: poi non voglio sentire lamentele se si dice che dopo l’integrazione della AI nel desktop di windows e di office, l’anno del linux desktop e’ l’anno prossimo.
La stallmanizzazione di Linux, con tutta questa avversione inutile verso uno strumento che aiuta moltissimo, potrebbe fare MOLTI piu’ danni di quelli che pensate.
Lasciate che Stallmann si diverta con GNU HURD.
Tutti gli altri vorrebbero lavorare in pace.