Prism?

La cosa divertente di tutte queste notizie che appaiono in questi giorni su Prism e sul fatto che gli USA intercettino le telefonate dei cittadini – e che leggano regolarmente i dati dentro i datacenter delle grandi aziende (1) , cosa per la quale ho ricevuto molte email per via del lavoro che faccio, e’ che questo fiorire di notizie fa sembrare quasi che Prism sia un’idea recente.

Forse dovreste farvi un’idea di come si siano evolute le reti telefoniche negli USA, allora. Dovreste sapere che gli USA , essendo un paese enorme ove la manutenzione delle reti telefoniche era difficoltosa, e peraltro un paese che doveva essere raggiunto dall’estero SENZA che apparissero differenze tra una zona americana e l’altra, svilupparono ne 1962 una organizzazione della rete telefonica, allora posseduta praticamente da At&T e pochi altri operatori.

La rete venne riorganizzata in un progetto finanziato anche dal governo, e venne ristrutturata su 5 livelli.
  • Switch di classe 1.
  • Switch di classe 2.
  • Switch di classe 3.
  • Switch di classe 4.
  • Switch di classe 5.
questa riorganizzazione era gerarchica, e oltre ad aggiungere tre livelli normalmente non usati (in altre nazioni fisicamente piu’ piccole) , aveva introdotto un concetto interessante, ovvero lo Switch di Classe 1, ovvero lo switch nazionale per le chiamate internazionali.
Se prima erano gli operatori ad avere cura di farsi le tratte internazionali, dal 1962 diventarono operativi dodici centri nei quali passavano TUTTE le telefonate per e dagli USA all’estero.

There were twelve Regional Centers in North America, ten in the United States, nine of which were operated by AT&T (White Plains, NY, Wayne, PA, Pittsburgh, PA, Norway, IL [a rural crossroads west of Chicago at the intersection of US highway 52 and IL highway 71 – an underground office built with hardened construction to withstand nuclear attack], Conyers, GA in Rockdale County, St Louis, MO, Dallas, TX, Denver, CO, and Sacramento, CA), one by GTE (San Bernardino, CA). Two centres in Canada were operated on behalf of the Trans-Canada Telephone System, one by Bell Canada (Montréal, PQ), and one by Saskatchewan Telephone, (Regina, SK).

For control and oversight of the entire network hierarchy, AT&T established a Network Control Center in New York City in 1962, renamed the Network Operations Center and relocated to Bedminster, NJ in 1977. Engineering supervision was also centralized in eight regional Network Management Centers. The realignment and dispersion of functions were done, in part, to ensure maximum network integrity in the event of a national emergency, a major concern in that era.

 Sembra una storia normale, tranquilla. E invece no. Perche’ non solo era stato il governo a volere la riorganizzazione (e qui ci sta) ma fu il governo a voler decidere il dislocamento dei centri , (e qui ci starebbe pure) per ragioni militari. Ma quello che si dice poco e’ che questi switch non usavano gli stessi standard di trasmissione di tutti gli altri.

Fu il governo – uno dei maggiori finanziatori del progetto – a volere questa differenza. Il risultato era che, sebbene si scelse uno standard supportato da CCITT/ITU, se ne scelse uno che usavano solo gli USA.

Da quel momento, ogni telefonata da e per l’estero veniva passata ad un apposito “traduttore”, i cui costi , col crescere del traffico, crebbero a loro volta. Ma non c’era problema, perche’ pagava il governo USA.
Se esaminate pero’ quegli schemi, osservate che chi possedeva gli switch di classe 1 non solo ascoltava le telefonate da e per l’estero, ma ascoltava anche le telefonate tra centri regionali distinti.
Il governo americano, cioe’, ascolta le telefonate dei propri cittadini sin dal 1962, da quando cioe’ ha imposto una infrastruttura che poi ha finanziato, al solo scopo ed obiettivo di tenere sotto controllo i centri regionali di smistamento, i cui trasduttori venivano poi pagati dallo stato stesso.
La prima mistificazione dell’ “affaire” Prism e’ che si tenta quasi di dire che l’abitudine di ascoltare tutto, o quasi, sia iniziato col Big Data o con l’arrivo di Google & co. Non e’ assolutamente vero: la topologia voluta dal governo americano fu disegnata in quel modo (sebbene rischiosissimo) al preciso scopo di poter controllare tutto controllando pochi centri.
Deve essere chiara una cosa: questa organizzazione non era la migliore e nemmeno la MENO costosa. Dal momento che le telefonate locali sono mediamente piu’ frequenti, la rete francese si sviluppo’ secondo le PURE questioni di convenienza economica, col risultato che nel 1930, quando il governo nazionalizzo’ le infrastrutture, la situazione di “naturale” efficienza era di ben 25.000 eschangers! Non 12 come in USA, non 8 come in UK, ma 25.000.
Questo per far capire quanto INNATURALE fosse l’architettura americana, e quanto la sua ratio non fu quella di mercato – come avvenne in Francia – ma quella di spionaggio.
Non per nulla, dopo la guerra, anche la rete francese fu ricostruita secondo l’inefficientissimo schema americano/inglese, anziche’ continuare col piu’ naturale sistema dello sviluppo locale: dal momento che la quantita’ massima di telefonate corrisponde a rapporti sociali piu’ frequenti, esse si concentrano specialmente a livello locale. Se lasciassimo fare al mercato, avremmo in ogni nazione qualcosa come 400 telco provinciali ed una serie di carrier per le chiamate tra piccole telco.
Con Internet la cosa non era molto diversa.
Partiamo pure da oggi: se consideriamo che la maggior parte della comunicazione si addensa ove ci sono molti rapporti sociali, di fatto un sistema come Facebook passa la stragrande maggioranza del proprio tempo a girare informazioni tra persone che vivono a pochi KM una dall’altra.
Se Facebook dovesse seguire il bisogno del mercato, per ridurre i costi di trasmissione si limiterebbe a frammentare il proprio cloud in tanti piccoli stabilimenti locali. Del resto, se osserviamo la “facebook” degli italiani, essa e’ in Italiano, ovvero una lingua davvero poco parlata nel mondo. E’ facile capire che, a parte gli emigrati, con un centro solo in Italia si potrebbe girare gran parte del traffico  e destinare molte meno risorse al traffico fra centri, dal momento che molto raramente un inglese legge roba in italiano, o in tedesco, o in francese, o in spagnolo.
Certo, questo aumenterebbe la complessita’ della rete, ma per quanto si voglia dire, e’ assai difficile credere che il trasporto di immense quantita’ di dati da tutta europa sino ad un data center irlandese sia conveniente rispetto al decentramento, che lascierebbe in loco gran parte del traffico e richiederebbe carrier internazionali solo per i rapporti tra utenti di nazioni diverse.
Ovviamente occorrerebbe conoscere le cifre per leggerci meglio, ma Fecebook deve avere dei prezzi DAVVERO convenienti per il traffico, se porta ogni dato dall’altra parte del mondo anziche’ dislocare un datacenter locale il 90% del traffico stesso.
Se passiamo a google, e osserviamo che hanno inventato una architettura per i database al fine di gestire la mole immensa di dati, e osserviamo che questa architettura MapReduce – l’unica nota capace di farlo – consiste proprio nel dividere i dati in blocchi locali (http://en.wikipedia.org/wiki/MapReduce ) il che significa che, se escludiamo il blocco di dati scritto in inglese, per tutti gli altri blocchi (contenuti in italiano, etc etc) l’architettura consenta (e persino consigli) di usare delle installazioni locali. Ma tutto e’ negli USA, qualcosa in UK e Irlanda, paesi che consentono agli USA di leggere i dati.
In verita’ la questione e’ molto piu’ vecchia. I primi nodi e le prime aziende a offrire collegamenti ad internet erano piccole aziende locali. Nei primi anni ’90 era tutto un fiorire di provider locali, solo a Bologna ce n’erano una dozzina , e se anche questi provider si coalizzavano in grandi reti , come successe con Galactica che faceva aprire i punti in franchising, ognuno teneva in loco i dati, perche’ un utente di Ferrara leggesse la posta su un server pop3 di ferrara, anziche’ muoverla da Roma.
Poi arrivo’ il “tutto gratis”. Qualcuno inizio’ a finanziare gli ISP perche’ offrissero tutto gratis, facendo chiudere le piccole aziende. Si disse che vivevano con la pubblicita’, ma io di pubblicita’ via modem non ne ho mai vista. Chi abbia pagato le grandi telco per offrire gratis (=senza costo di abbonamento ma solo quello della chiamata)  il servizio che prima era e rimarra’ un mistero. Alcuni diranno che hanno offerto gratis il servizio per spazzare via la concorrenza, altri diranno che lo hanno fatto per avere le revenues delle chiamate, ma il modello economico di questa fase era sostenuto da una bolla speculativa, la new economy, sul cui finanziamenti non si e’ mai capito nulla.
Coi social networks e coi motori di ricerca le cose non vanno meglio. Poiche’ ogni nazione cerca maggiormente cose nella propria lingua, ci si aspetterebbe una frammentazione dei motori di ricerca. In Italia quasi tutte le query rivolte a google sono in italiano, in germania in tedesco, in spagna in spagnolo: in che modo si arrivi ad una unificazione e’ , sul piano del mercato, assolutamente inspiegabile.
Inizialmente esistevano motori di ricerca locali, alcuni ricorderanno Virgilio, che si appoggiava ad Altavista , ma ad un certo punto qualcuno butta sul piatto americano  e sgancia un sacco di soldi ad aziende che lavorano in perdita.
A quel punto vi sono diverse domande:
  1. Perche’ i finanziatori di idee finanziano un solo motore di ricerca e nessuno cerca di finanziare i motori locali? Perche’ ci si accolla un rischio di aumento dei prezzi dei carrier, di interferenze statali, di non ridondanza geografica, anziche’ andare a zonzo per il mondo e finanziare motori locali?
  2. Perche’ i finanziatori si limitano a finanziare progetti americani? Perche’ si accollano il rischio che qualcuno dall’estero abbia una idea migliore, ben sapendo che FUORI dalla Silicon Valley ci sia 1000 volte piu’ gente, e quindi 1000 volte piu’ idee?
  3. Perche’ i finanziatori accettano serenamente che i primi data center siano tutti concentrati in una sola zona, o in una sola citta’, quando nel mondo telco chiedono georidondanza degli apparati?
Qualcuno dira’ “economia di scala”, ma quando parliamo di servizi di rete, e c’e’ un costo di trasporto dei dati, le cose non scalano esattamente in questo modo, ovvero non vanno sempre nella direzione della centralizzazione.
Sarebbe ora di dire la verita’, e cioe’ che dietro “i finanziatori di idee” ci sono finanzieri, e che dietro ai finanzieri c’e’ la FED, che che dietro alla FED c’e’ comunque il governo USA.
Se twitter ha avuto soldi dai finanziatori per i primi anni , con introiti perlomeno misteriosi e spese evidentemente enormi, e’ per decisione dei finanziatori di idee, ovvero dei finanzieri americani, ovvero di chi stampa i soldi.
Ho gia’ scritto qui del caso di Kim Dot Com.  Forse non lo sapete, ma di recente un tribunale neozelandese ha considerato illegale il comportamento di FBI, e ha sancito che i dati contenuti nel cloud andranno restituiti ai proprietari perche’ non sono dell’ FBI, e cosi’ via.  Insomma, tutta l’inchiesta e’ stata una montatura, e tra le altre cose il tribunale ha ordinato all’ FBI di consegnare alla difesa le prove che dimostrerebbero le accuse portate a Kim Schmitz, visto che sinora non se ne e’ vista traccia: allo stato attuale si sa che fosse impossibile per Schmitz monitorare tutto il contenuto che passava per Megaupload, ed in ogni caso una volta raccolte le prove FBI poteva si spegnere il data center, ma non poteva sequestrarne tutto il contenuto.Come ha fatto.
In definitiva, cioe’, quello che penso e’ molto semplicemente questo:
  1. Il governo USA spia gli americani sin dalle prime reti telefoniche.
  2. Le scelte architettoniche delle reti non trovano spiegazione nel fatto che gran parte del traffico sia locale.
  3. I social network sono cresciuti in maniera innaturalmente concentrata, considerando le divisioni legate alla lingua e al fatto che il traffico e’ in gran parte locale.
  4. Le grandi .com sono state finanziate in maniera innaturalmente concentrata in USA, se consideriamo che per un finanziere non fa differenza tra un’azienda francese ed una americana: pecunia non olet.
  5. Il governo USA ha fatto pressioni contro Russia e Cina contro le versioni locali di facebook , google e twitter.
  6. L’unica concentrazione di dati delle stesse dimensioni di google o facebook mai nata era Megaupload. Che viene spenta dall’ FBI.
Sto scrivendo un software che facilita la crittografia della posta sui server, e dalla versione 3.0 (codename “Milena Velba”) TRA i server, (2) , perche’ a furia di mettere insieme numeri e prezzi sulle reti carrier ancora non riesco a spiegarmi il fattore che spinge google , facebook &co ad accentrarsi, quando ci sono nazioni ove si parla solo una lingua, e in quelle nazioni lo scambio di dati e’ locale. E per il resto, sarebbe sufficiente il concetto di link, per collegare data center diversi in maniera invisibile.
Cioe’, all’inizio non conoscevo i prezzi di un intero data center. Adesso li conosco perche’ ci ho a che fare. Ma non conoscevo i prezzi della rete di accesso e dei carrier. Ma adesso li conosco.
E continuo a chiedermi che senso abbiano queste strutture accentrate, con tutti i rischi di traffico internazionale (e di costi) che ci sono, quando sarebbero probabilmente convenienti per tutti i social network dei data center locali.
A meno che qualcuno, diciamo chi stampa i soldi che poi vanno in finanziamenti che poi fannno il CDA, non voglia che i dati siano laddove puo’ metterci le mani.
Uriel
(1) Lo fanno anche per aziende europee, perche’ il governo irlandese e’ molto debole alle richieste americane, e perche’ il governo inglese e’ praticamente trasparente. Chi ha un abbonamento con aziende inglesi o irlandesi sappia che gli americani sono in ascolto. Da sempre, sempre.
(2) Il trasferimento di posta tra relay ed MX avviene ancora in chiaro al 90% dei casi. Quando tutti i server SMTP ormai supportano SSL. Buffo.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *