Una rivoluzione nella gestione dei dati online: arriva il datacenter subaqueo di Microsoft

La rivoluzione del web 2.0. ha obbligato tutti i grandi operatore di internet ad adattarsi alle nuove esigenze infrastrutturali. Le connessioni veloci insieme a dispositivi sempre più connessi e performanti hanno fatto incrementare esponezialmente  il volume dei dati in rete. E’ nata così la necessità di trovare le migliori soluzioni per archiviare i dati che in ogni momento gli utenti della rete caricano e consultano. Da soluzioni più tradizionali come il datacenter di Milano zona Caldera a quello avveniristico presentato da Microsoft.

Internet è considerata una delle maggiori risorse immateriali al mondo. Un immenso agglomerato di bit che continuano ad insinuarsi nella rete sottoforma di immagini, video, documenti, parole.

Si stima che ad oggi nel mondo vi siano circa 2 miliardi di siti internet e che ogni minuto nascono 572 nuovi siti. Ogni minuto vengono pubblicate circa 72 ore di video, 278 mila nuovi tweet, 1,8 milioni di nuovi “mi piace” su Facebook. Quello che ci può sembrare aleatorio e privo di una dimensione fisica in realtà risiede in server collocati nei posti più sperduti del pianeta oppure a pochi chilometri da casa vostra.

I cosiddetti datacenter infatti si possono trovare nella supercivilizzata Milano così come nei mari del nord Europa. Non esiste una soluzione omogenea poiché ogni operatore del settore seleziona le location migliori in base alle proprie esigenze.

Dopo la megastruttura installata da Facebook al Polo Nord, dopo le chiatte di Google a San Francisco arriva il megacilindro di Microsoft!

Non è una corsa a chi lo fa “più strano” bensì l’evoluzione tecnologica dei datacenter che negli ultimi anni, anche a causa di un esponenziale aumento del traffico in rete, ha portato le aziende più importanti nel settore Hi-Tech a studiare soluzioni il più possibili efficienti per immagazzinare un numero di dati che secondo le stime attuali risulta aumentare di 1,7 megabyte al secondo per ogni utente della rete (6,46 miliardi di megabyte al secondo totali).

L’ingente quantità di dati che vengono creati e consultati risiedono in enormi capannoni sparsi in diverse zone del mondo.

In particolare vengono privilegiate le location più fredde, come i paesi nordici, oppure località con basso rischio sismico, come ad esempio Cagliari in Sardegna utilizzata da Tiscali proprio per la sua posizione considerata a bassissimo rischio terremoti.

La ricerca poi si muove verso 2 direzioni: da un lato il tentativo di ridurre le dimensioni dei file che viaggiano nella rete, favorendo quindi algoritmi di compressione sempre più potenti in grado di ridurre in pochi byte quello che un tempo richiedeva quantità di dati enormi (un esempio è la musica che da quasi trent’anni ha potuto “convertirsi” al formato .mp3 ben 10 volte più “leggero” rispetto al precedente formato .wav).

Dall’altro lato si cerca di ridurre lo “spazio fisico” che un file può occupare nei grandissimi datacenter. Anche qui il confronto con il passato è sotto certi versi sconvolgente infatti negli anni 60 per poter gestire pochi megabyte di memoria erano necessari enormi armadi, ma anche in tempi più “recenti” molti di noi ricordano i famigerati Floppy Disk, grandi 3,5 pollici e in grado di memorizzare solamente 1,44 megabyte (una foto attualmente può superare tranquillamente queste dimensioni).

Una terza via è quella di ottimizzare i sistemi attuali affinchè essi possano essere efficienti e poco onerosi per le grandi e grandissime aziende che li gestiscono. Proprio seguendo questa filosofia Microsoft ha iniziato a testare il suo datacenter “subaqueo”.

Un cilindro lungo 12 metri contenete oltre 800 server e in grado di lavorare in un ambiente ideale raffreddato dal gelido mare del nord, nei pressi della Scozia, e al contempo privo di ossigeno e CO2, due elementi che intaccano in maniera fatale i computer presenti in questi ambienti.

Non solo paesi lontani e con ambienti estremi ma anche le grandi città ospitano questi capannoni il cui “unico” scopo è immagazzinare un numero elevatissimo di dati. Infatti, come già accennato precedentemente, a Milano è presente uno dei più importanti datacenter italiani, nella zona della Caldera, a ovest della città, dove molte aziende italiane si appoggiano per offrire ai propri clienti i servizi necessari alla navigazione online. In questi casi ovviamente le necessità di elaborazione seppur notevoli non rispecchiano le esigenze dei grandissimi operatori del settore come Facebook o Microsoft che invece fanno dei datacenter il fulcro delle loro attività che mai come ora risultano essere dipendenti da sistemi di tipo cloud, un tempo impensabili anche a causa delle limitazioni della rete.

Ed il futuro cosa ci riserverà? La miniaturizzazione dei sistemi elettronici ci porterà ad avere dispositivi molto piccoli con capacità di memorizzazione sempre più elevate. Ad oggi sono disponibili penne USB dal volume non superiore a pochi centimetri in grado di memorizzare oltre 2000 gigabyte.

Questo ovviamente impatterà anche sui datacenter che potranno godere, oltrechè di una maggiore densità di memoria, anche del vantaggio che questo sistema di memorizzazione comporta ovvero l’eliminazione di componenti meccaniche di cui gli hard disk attuali sono ancora schiavi.

Data Center più piccoli, meno dispendiosi economicamente e meno assetati di energia saranno il futuro e forse soluzioni come quelle adottate da Microsoft, quando saranno pronte per l’utilizzo diffuso, potrebbero essere già vecchie.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *