“Lavoro alla portata di tutti?”

Ho sempre dato per scontato che un lavoro qualsiasi debba essere fatto da una persona che abbia un robusto background scolastico e una certa quantita’ di competenze consolidate dalla pratica. Che si tratti di fare l’ idraulico, il cuoco, l’informatico , il medico oppure l’ingegnere edile, ho sempre trovato ovvio che nessun lavoro sia “alla portata di tutti” o che esista uno strato professionale che “chiunque puo’ fare”.

Come nasce la convinzione che l’informatica possa essere un lavoro “per tutti” , convinzione che si sta rivelando falsa e sta riducendo in miseria decine di migliaia di persone che ci si sono buttate illudendosi che esista una fascia di informatica al loro livello?

Questa convinzione nasce in preciso periodo di interregno, quando si passo’ da sistemi primitivi ma relativamente stabili, a un insieme di accrocchi terribilmente instabili e pretenziosi: da un lato si volevano aggiungere features piuttosto sofisticate, dall’altro si tentava di rendere i sistemi “user friendly”, cio’ si credeva che l’utente potesse configurare (e non solo usare) un sistema  completamente da solo.

Vorrei distinguere “usare” da “configurare”, e lo faro’ paragonando due periodi storici che ho visto (anche) sul piano lavorativo. (Ho iniziato con un part-time da Vobis, durante l’universita’, facendo assistenza tecnica, nei primi anni ‘90).

Vediamo la situazione iniziale:

Negli anni 90 non si fa amministrazione dei sistemi per utenti finali perche’ non c’e’ nulla da amministrare. Lo scenario era diviso un pochino cosi:

  • MSDOS/IBMDOS/DRDOS: Un microscopico kernel (MSDOS.SYS) e una stupidissima shell monoutente e monotasking (command.com). E’ sufficiente manipolare due files , Config.SYS e Autoexec.bat, per definire il comportamento del sistema. I Driver di MSDOS sono programmi che si piazzano ad un preciso indirizzo della RAM, e scrivono tale indirizzo nel vettore degli interrupt. Quando viene chiamato un interrupt, la macchina va a prendere l’indirizzo del programma da eseguire, il quale legge da una porta logica configurata a linea di comando, e fa quello che deve fare, settando il bit di mascheramento degli interrupt, a seconda dei casi. Windows3.11, che viene installato on top, gira quasi interamente in spazio utente, tranne per alcuni casi (i suoi “driver”) che possono venire rilocati ,  per una gestione “386″ della memoria, con tanto di swap. Il file system e’ FAT: una tabella di allocazione all’inizio del disco contiene le referenze di ogni settore del disco: quello che fa il sistema e’ , creando un file dopo aver scritto i settori, scrivere sia sui settori stessi l’offset del frammento successivo, dato che viene scritto anche nella tabella all’inizio del disco. Per trovare un file la macchina va a cercare nella FAT il frammento iniziale, lo legge, se ce ne sono altri trova la referenza nel metadata del file, va a cercare la referenza nella fat, e sposta la testina nel secondo settore. Un file di N blocchi richiede N letture della FAT e N spostamenti iniziali della testina. In compenso, se non si sovrascrive esplicitamente un settore del disco, e quasi triviale salvare dati “cancellati”, visto che basta scandire il disco, trovare il primo frammento, e poi inseguire gli altri. La capacita’ limitata della fat incontra il primo scoglio con i dischi di capacita’ superiore a 512 MB, che diventano ingestibili a meno di installare “gestori di disco”, veri e propri driver che virtualizzano il disco. Il sistema si inchioda in diversi , rarissimi casi: diversi driver pretendono di leggere lo stesso indirizzo di porta, di gestire lo stesso interrupt. Non c’e’ concorrenza perche’ il sistema e monoutente. L’accesso diretto dei programmi all’hardware e’ consentito, e anzi considerato “ottimizzazione”.Windows3.11 si inchioda quando il multitasking cooperativo per un qualche motivo non riesce a rilasciare il controllo di un programma all’utente. Tutto, tutto e’ in mano al programmatore, che puo’ anche riprogrammare l’accesso al DMA, essendo il DMA un processore con tre registri del tutto accedibile e riprogrammabile attraverso un’apposita porta, accedibile da qualsiasi programma. Il programmatore deve, per forza di cose, essere vicinissimo alla macchina.
  • IBM OS/2. Il primo tentativo commerciale di avere un sistema che mascheri l’hardware. Se nei concetti e nella configurazione somiglia ad MSDOS, con il suo config.sys , in realta’ gestisce in maniera molto diversa la temporizzazione e non tollera molto facilmente che un programma acceda liberamente all’hardware o si prenda il 100% della CPU. C’e’ poco a configurare sia perche’ le prime versioni sono monoutente, sia perche’ gli applicativi multitasking di fatto girano con windows 3.11 , il che riduce il multitasking ad un timesharing cooperativo. I driver vengono “catturati” (trapped per dirla alla IBM)  ed eseguiti in maniera da non poter essere acceduti direttamente dagli applicativi come capita sotto MSDOS. Il sistema risulta piu’ stabile nei confronti di applicativi che sono “hardware intensive”, anche se l’accesso diretto consentito da MSDOS viene preferito dagli sviluppatori. Idem la possibilita’ di chiamare direttamente funzioni del BIOS, cosa sulla quale OS/2 inizia a mettere dei paletti. I crash di OS/2 sono rari, e dipendono quasi sempre da driver installati in maniera conflittuale. Dalla versione 3 il filesystem era un HPFS, che aveva la FAT a meta’ del disco (per alleviare la corsa delle testine) e alcune ottimizzazioni a livello di indicizzazione.
  • Apple Macos7 . Un sistema a multitasking cooperativo, fortemente dipendente da un firmware molto piu’ complesso di un BIOS IBM-compatibile. La gestione dei driver e’ affidata a delle “estensioni”, che vengono caricate come moduli del kernel. Il sistema NON e’ accedibile a livello utente, ed in caso di conflitto gli “esperti” non sanno indicare che cosa sia in conflitto con cosa: si limitano a rimuovere estensioni a casaccio, fino a quando non trovano quella problematica. La memoria e’ gestita secondo una filosofia mista, che permette la protezione della ram MA tollera che l’utente assegni in maniera statica la quantita’ di memoria da riservare al singolo programma, attraverso un meccanismo di “prenotazione” dei segmenti , basato su assunzioni ottimistiche legate alla lunghezza fissa delle istruzioni del processore motorola 680XX.  I crash di questo sistema sono catastroficamente frequenti: l’errore “bomba” -11 si verifica ogni qualvolta un programma che cerchi di allocare memoria gia’ prenotata da altri programmi , specialmente se usano librerie condivise, e la situazione peggiora con l’adozione dei primi Risc 601. (Erano stati messi in commercio dei “performa serie 5000″, che dopo qualche installazione iniziavano a dare “bomba -11″ mezza dozzina di volte al giorno.) Fino ai motorola 680×0, comunque, la quantita’ di “bomba -11″ era accettabile.

Nessuno di questi sistemi richiedeva amministrazione a chi non la volesse fare. Intendo dire che una volta installato dal negozio/azienda fornitrice, la persona che voleva solo lavorarci avrebbe usato lo stesso PC nello stesso modo per anni, senza notare particolari degradazioni nelle prestazioni, avendo solo problemi hardware.

Lo smanettone ovviamente si sforzava di ottimizzare gli ultimi 4 K di memoria residua riservata ai drivers del modello “primi 64K tutti miei”  , o installava (nel mondo MAc) mprobabili “estensioncine” tipo RamDoubler, che nelle intenzioni si proponevano di comprimere la RAM, o fare altro. In definitiva, la configurazione la facevano degli smanettoni, e non e’ che ci fosse un granche’ da configurare.

La rete era destinata a pochi, ed era in mano ad aziende di medio/alto livello, fossero rivenditori Novell, Banyan Vines, Microsoft, Ibm.

Fino a questo momento, nessuno al mondo si sognava di dire che potesse esistere una “informatica al livello di tutti”: il lavoro del configuratore sul PC era impensabile. Chi ci lavorava, il solito cliente, se lo faceva configurare una volta (a peso d’oro e solo da persone fidate)  e poi lo usava cosi’ per anni. Lo smanettone faceva da solo. Pochissimi ricconi appassionati erano sia clienti che smanettoni e si fottevano il sistema, ma come clientela non bastavano.

Arriva poi la seconda fase, cioe’ il disastro. Ad un certo punto si decide che l’utente possa avere accesso alla configurazione del sistema, e si inizia a voler portare il multitasking preemptive in sistemi che non supportano ancora la multiutenza. Il multitasking preemptive da’ al sistema gli stessi PROBLEMI di un sistema multiutente, perche’ richiede mutex/semafori come se piovessero , ma non offre una vera multiutenza, facendo lavorare tutti gli utenti con gli stessi privilegi. I filesystem sono catastroficamente inadeguati a gestire una cosa simile, sia perche’ i kernel non sono specializzati , sia perche’ su quei sistemi girano ancora programmi che lavorano in modalita’ cooperativa. Fa eccezione MacOS, che mantiene la modalita’ cooperativa sino a tardissima era, quando viene introdotto MAcOSX. La multiutenza e’ illusoria e in realta’ si limita all’acquisizione di una identita’ di rete, che pero’ non ha seguito in una vera filosofia della multiutenza locale.

Ma specialmente, si fa un clamoroso errore di disegno, tutti insieme. Poiche’ prima la configurazione del sistema era quasi tutta la professionalita’ degli informatici, si creano “pannelli di controllo” , “wizard di installazione”, “programmi di configurazione”, i quali lasciano all’utente il lavoro di configurare il sistema. Ma c’e’ un piccolo problema: che con questa scusa, ogni programma professionale  richiede una configurazione , e con la scusa che c’e’ il pannello di controllo e’ l’utente che si deve fare carico di configurare il PC. Vuoi metterlo in rete? Prima arrivava l’ uomo Novell/Microsoft/DEC/BanyanVines che ti installava il driver dell rete. Esso intercettava alcuni interrupt di accesso al filesystem e di fatto li rimappava sulla EEPROM della  scheda di rete, e questo permetteva di vedere dischi remoti, poco di piu’. Su apple entrare in rete era una cosa triviale perche’ le reti AppleTalk si limitavano a dare un accesso flat a qualsiasi cosa, e al massimo erano i primi router e i primi server a definire dei permessi. OS/2 e’ diventato ristretto ad una comunita’ di utilizzatori speciali.

Adesso c’e’ , sia sugli Apple che sui PC, il “pannello di controllo”. Si pretende che l’utente sia capace di fare da solo, o che un tecnico poco specializzato sia capace di fare configurazioni triviali.

Tutto questo dura quasi dieci anni. Nel mondo apple , delle persone che conoscono solo in senso empirico il comportamento medio dell’interfaccia grafica si spacciano per “tecnici”. Conobbi uno dei maggiori esperti di Apple, che mi mostro’ un “conflitto”. Alla mia domanda “quale risorsa e’ origine del conflitto”, mi disse che stavo ragionando in maniera PC e non mi serviva, sotto Apple, sapere quale indirizzo di memoria o quale interrupt o quale porta logica venissero “litigate” tra due estensioncine. “Quella li’ e quella non stanno bene insieme,vedi? Mela P, non la carico, e il sistema parte. Sapeva tutto, lui. “. Sotto Windows 95 era un inferno. Coesistevano driver per win3.11 e windows 95, che usci’ in tre versioni, A, B, C. Ci fu anche un cambiamento di filesystem (il filesystem e’ sempre stato il punto dolente di Microsoft, e anche oggi lo e’).

In quel periodo nacquero i nostri “informatici di basso livello”. Di fatto il lavoro consisteva nel configurare sistemi che avevano inventato cose che necessitavano di configurazione (sotto MSDOS regolavi la velocita’ del mouse mediante le opzioni a riga di comando di mouse.exe, sotto windows 95 era il pannello di controllo. Se il mouse non funzionava dovevi accedervi da tastiera, e per questo il cliente di chiamava disperato se cambiava modello di mouse tra “Seriale Logitech” e “Seriale Puro”.)

In definitiva, si chiede all’utente di configurare il sistema, dimenticando che i concetti di base gli mancavano. In questo cuneo si inserirono tutta una serie di “professionisti” che avevano (spesso a livello intuitivo) i principi di base dell’informatica, abbastanza da poter aiutare molti utenti, ma non abbastanza per andare oltre.Finche’ Apple mantenne il suo “Classic” (con tutte le trepidazioni circa qualcosa di nuovo, vedi la triste storia di  BeOS) e microsoft mantenne la sua fascia Windows 95 /98 /Me , la curva di apprendimento era cosi’ ripida che occorreva “il professionista lo-end”.

L’utente doveva connttersi con internet usando un modem, configurare la scheda grafica per i giochi o per il CAD, configurare la rete locale dell’ufficio, tutte cose che non sapeva fare non perche’ non fosse “semplice”, ma perche’ non aveva gli strumenti culturali di base per fare queste cose. Certo, bastava andare nel “pannello di controllo” e fare una decina di click: sapendo che le stampanti andassero su “parallela”, per dire. L’utente medio ti chiamava dicendo “mi chiede quale porta usare , io in ufficio ne ho due ma una da’ sul cortile”. Cosi’, questa “forbice” di differenza tra l’utente bleso e chi sapeva qualcosa permise la creazione di un grande numero di professionisti del settore, che facevano soldi muovendosi in un segmento molto comodo.

Da un lato, non serviva studiare: bastava aver iniziato con passione qualche anno prima degli altri, aver letto un poco di giornali del settore, e gia’ si poteva aiutare l’utente che viveva a livello zero. Non serviva studiare, bastava aver smanettato, ed essere assiduo frequentatore di un piccolo negozio, diciamo quello con cui chiacchieravo durante i momenti di “morta” in agosto, davanti alla porta dell’angolo assistenza, nel quale il nostro futuro professionista averebbe voluto entrare a costo di un braccio. (1)

Cosi’, arrivo’ questa schiera di universitari falliti, di smanettoni che sfruttavano la loro piccola conoscenza del computer per fare tutte queste cose che l’utente medio non sapva fare, compresa la piccola assistenza hardware, come la sostituzione di schede, dischi rigidi, eccetera.

Oggi questa pletora di invididui sta iniziando a fare la fame. Per diversi motivi.

  • Mentre all’epoca i PC venivano di fatto assemblati dai negozi, e continuamente upgradati, oggi c’e’ meno spazio per via dei supermercati e dei loro computer branded. Lo compri cosi’ e ti dura cosi’. I portatili stanno crescendo di mercato, e si puo’ solo cambiare disco e ram. Lo spazio del “sostituiamo la scheda madre”, del “mettiamo un CDrom 42X al posto del tuo 24X” e’ sempre piu’ ridotto.
  • I sistemi operativi sono diventati dei veri sistemi multiutente , con tutti i paletti del caso. Niente accesso diretto all’hardware, moltissimi driver gia’ installati , sempre piu’ rari i programmi “vecchi” che girano in modalita’ cooperativa, filesystem adeguati. Un sistema professionale, una volta installato, puo’ essere usato indefinitamente, o quasi, se solo si evita di installare ogni schifezza e si ha un discreto antivirus.(su windows).
  • Le reti hanno iniziato ad usare DHCP, SMB, e altri protocolli che le rendono sempre piu’ triviali. Esclusa la grande sistemistica, moltissimi apparati sono gia’ plug and play.
  • Iniziano a nascere gli EEPC , che non richiedono affatto amministrazione.

Da Windows Vista in poi, addirittura il pannello di controllo viene trasfigurato, prende una terminologia specifica che esclude lo smanettone, e inizia a cadere l’idea che sia l’utente ad averci a che fare: se non funziona, devi chiamare un vero esperto.Su MAC , di fatto MACOSx fa tutto, e la richiesta di configurazione e’ sempre piu’ rara.

I sistemi high end, dal loro canto, devono supportare quantita’ sempre maggiori di utenti, con la relativa verieta’ crescente di features,  e diventano sempre piu’ sofisticati, e richiedono sempre piu’  competenze e certificazioni.

Il risultato e’ che la forbice si sta richiudendo. Il nostro smanettone non sa piu’ abbastanza da poter vendere le proprie conoscenze ad un prezzo sufficiente: l’ergonomia dei programmi e’ migliorata e l’utente riesce ad usare i sistemi senza troppo sforzo, togliendo spazio all’utente esperto che si improvvisa consulente. L’accesso ad Internet ed alla rete e’ amministrato in maniera centrale mediante DHCP , active directory e Netbios, e si fatica a vedere spazio per questa piccola competenza.

Il consulente serve solo in ambiti superiori, ma li’ bisogna aver studiato.

Ma la cosa che vorrei chiarire e’ che si sta chiudendo un’anomalia. E’ del tutto normale che per fare il chirurgo, l’idraulico, il panettiere, il cuoco, l’avvocato, servano anni di gavetta e studio. C’e’ stata una grande anomalia di mercato che ha creato la fascia dell’informatica “lavoro aperto a chi sapesse solo 3 cose piu’ dell’utente medio”. MA questa anomalia oggi si va chiudendo: sapere tre cose piu’ di un analfabeta non basta piu’. Perche’ l’analfabeta e’ stato preso sottobraccio da sistemi “protettivi”, “preinstallati”, “preconfigurati”, dall’ hardware standardizzato e ingegnerizzato dei brand  e dei portatili, dalla rete Internet basata sui nuovi protocolli “plug and play”, come UpNP, DHCP, eccetera.

L’utente medio di oggi non ha piu’ bisogno di una miriade di tecnici il cui compito e’ di configurare l’accesso in rete locale, l’accesso ad internet, la posta elettronica, la stampante, eccetera. Alcuni ne hanno ancora bisogno, ma il setup iniziale di negozio basta a molti di loro.

D’altro canto, questi signori “utnti esperti = professionisti”  arrivano nel mondo hi-end troppo tardi. Arrivano quando ci sono conoscenze consolidate, certificazioni e selezione del personale. Per questa ragione nel mondo Hi-End sono nate figure pata-informatiche come “il sedicente PM” , il “sistemista ma hi-level”, il “facilitatore di processi”, eccetera. Si tratta di tentativi coi quali questa schiuma si sforza di sopravvivere, non avendo abbastanza competenze per stare tra i tecnici e non avendo abbastanza capacita’ per stare tra i manager.

Anche nel mondo del management di servizi IT si e’ verificato un tempo nel quale c’era una “forbice”: i grandi manager non si occupavano di piccoli progetti, i tecnici facevano i tecnici, e il middle management era costituito da gente che aveva il solo merito di usare Outlook, indossare la cravatta, farfugliare pseudotecnicismi in inglese, dare ordini con aria arrogante.

Oggi che si stanno consolidando le scuole di prject management, e iniziano a circolare le prime certificazioni, anche per questi signori si sta chiudendo la forbice.

Di fatto non avviene nulla di speciale: l’informatico diventera’ come l’ingegnere, come il chirurgo, come l’idraulico, come il panettiere, come qualsiasi altro mestiere.

BISOGNERA’ PROPRIO SAPERLO FARE

Nel tempo, l’informatico verra’ a guadagnare quanto un qualsiasi professionista e l’effetto di queste inflazioni di “tecnici” , di “sistemisti” e di “programmatori”, cosi’ come di “project manager” , di “gestori di processo”, si affievolira’.

L’unica incognita e’ quella di capire in che modo  persone che sono abituate a pensare di poter vivere solo perche’ hanno passato le notti a smanettare sul PC di casa possano sopravvivere, e in che modo accetteranno l’idea di venire progressivamente tagliate fuori dalla professione.

Ma sia chiaro che l’ “informatica lavoro aperto a tutti” sta finendo. Il webmaster che e’ tale perche’ sa usare FrontPage ha sempre meno spazio  perche’ i siti web diventano oggetti sempre piu’ complessi. Il programmatore che scrive codice “che funziona” ha sempre meno spazio, perche’ sempre piu’ codice funziona.Il sistemista che fa installazioni di default e’ sempre meno richiesto, perche’ dove serve un sistemista ci sono sistemi che richiedono background, e non solo anni di “trial and errors”.

Nel mondo del middle management, le certificazioni sono sempre piu’ richieste, e sempre piu’ costose. Quelle che costano poco valgono sempre meno, e le aziende chiedono ai grandi fornitori certificazioni sempre piu’ credibili. Anche le certificazioni per fare il PM sono sempre piu’ esclusive, e sempre piu’ richieste.

Lo spazio di questa gente si sta richiudendo.

Strilleranno ancora per qualche anno, poi se ne faranno una ragione.

L’informatica “lavoro per tutti” e’ un sogno finito qui, ed e’ normale che sia cosi’, com’e’ per QUALSIASI professione:  non basta essere utenti esperti, bisogna sapere di cosa si sta parlando.

L’informatica si sta rasformando in un lavoro normale,  come tutti gli altri. Lentramente , ma inesorabilmente, l’utente stupido ha a disposizione sistemi sempre meno esigenti di competenze, e l’utente sofisticato si appoggia a strutture grandi che danno risposte competenti, come il proprio CED aziendale o grandi partner.

E questo e’ il “disagio del mondo dell’informatica”: milioni di persone che hanno creduto ad un’informatica senza background di studi, senza fatica se non la passione di smanettare sul PC di casa, di installazioni per trial-and-error, stanno lentamente perdendo il mercato.

Milioni di persone che hanno creduto di poter rivendere la competenza di “utente esperto” come “professionista” oggi non hanno piu’ un lavoro. E non perche’ il mercato dell’informatica sia iniquo: perche’ “utente esperto” non E’ un lavoro, e semmai e’ stato anomalo il fatto che sia stato tale negli scorsi anni.

Quindi, signori, se siete informatici e disoccupati, passatevi una mano sulla coscienza: siete professionisti (come un chirurgo o un falegname) oppure siete solo degli utenti piu’ esperti del solito, e specialmente poco piu’ esperti del vostro cliente?

Perche’ su questa domanda si gioca il vostro futuro: rischiate di perdere anni a galleggiare in una fascia che si stringe sempre di piu’, e trovarvi a 40-50 anni, dopo anni di “professionismo lo-end” senza competenze, senza un mestiere, e senza un mercato.

Uriel

(1) I processori 486 arrivavano con schede madri monostrato e due voltaggi di riferimento: 3.3 e 5v. Diverse schede madri arrivavano a 25 MHZ se si usavano i 5 volt, e a 66 se si usavano i 3.3. Vicino alla CPU c’era un piccolo componente elettronico (credo fosse un triac, ma la mia memoria vacilla) che poteva essere dissaldato e sostituito, regolando cosi’ la tensione diversamente. E a quel punto, miracolo, “upgrade” della scheda madre. Per non parlare dei ponticelli da togliere manualmente , permettendo cosi’ di overclockare i processori, che allora non avevano ancora il problema del sincronia con le varie cache, non trattavano istruzioni speculative, non avevano pipelines complesse.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.