La mancanza di scalabilità di un protocollo vetusto come HTTP in situazioni di pieno carico è uno dei motivi, a detta dei propri ingegneri, per i quali all'interno di Google hanno iniziato un paio di anni fa a lavorare a un protocollo alternativo, eloquentemente chiamato SPDY (da pronunciare come speedy).
Tale protocollo ha attirato parecchie attenzioni su di se, tanto che colossi del calibro di Amazon non hanno fatto mistero di utilizzarlo al proprio interno.
Negli ultimi mesi in paricolar modo ,si sono venute a sommare varie novità degne di nota: in primo luogo e più recentemente, Mark Nottingham, presidente dell'organismo che si occupa del protocollo HTTP, ha chiesto l'integrazione di SPDY nella versione 2.0 di tale standard, cosa che sarebbe un notevole passo avanti per una sua futura adozione generalizzata.
Secondariamente, Mozilla ha incorporato il supporto a SPDY all'interno di Firefox, browser che a Dicembre deteneva il 37% del panorama dei browser web.
Anche per nginx è in programma l'inclusione del nuovo protocollo; per quanto riguarda Apache, invece, sono i dipendenti di Google a stare lavorando sul modulo mod-spdy.
Lo sviluppo di SPDY è andato accelerando di pari passo con la rapidità con cui esso è stato apprezzato e SPDY draft-3 è annunciato come in prossima uscita, in parallelo con il prossimo meeting dell'Internet Engineering Task Force che si terrà a Parigi nel prossimo mese di Marzo.
Il successo fino a questo punto di SPDY è dovuto all'ottima efficienza garantita da questo protocollo di rete, sintetizzata da Roberto Peon e Will Chan, dipendenti Google:
"Grazie a SPDY, una percentuale significativa di utenti Chrome ha notato una diminuzione del tempo di latenza durante la ricerca nel momento in cui abbiamo lanciato SSL-search. Dato che le pagine di ricerca di Google sono tra le più ottimizzate sul web, questo è stato un risultato soprendente."
I risultati di SPDY sono dovuti alle pratiche progettuali che ne stanno alla base: per ridurre il tempo di caricamento delle pagine internet SPDY effettua una compressione di ogni trasmissione, inclusi gli header, in formato gzip, gestisce il traffico dei pacchetti attraverso l'uso di una gerarchia di priorità e multiplexa le request delle pagine, redirezionando richieste multiple su singole connessioni, a differenza di quanto avviene normalmente, ovvero con una connessione aperta per ogni richiesta inviata; inoltre ogni trasmissione è cifrata in SSL.
Da notare, inoltre, il seguente grafico sul packet loss ovvero la quantità di pacchetti di informazione che vengono "persi per strada" durante il traffico internet:
(Fonte: hothardware.com) |
Via | Google Code
Nessun commento:
Posta un commento