Para poner esta cifra en perspectiva, es 12 veces los datos web archivados por la biblioteca del congreso estadounidense. Para el almacenamiento se utilizaron 48.000 discos duros y para asegurar la integridad de los datos se escribieron tres copias de cada archivo en tres discos diferentes.
El responsable de todo el sistema es la arquitectura de software MapReduce, un framework desarrollado por Google para soportar computación paralela en la inmensa cantidad de datos que mueven los distintos servicios de la compañía, desde el procesado de las imágenes por satélites o el análisis de páginas.
MapReduce procesaba en enero de 2008, un promedio de 20 petabytes de datos diarios.
vINQulos
Google Blog, vía Slashdot
Las transacciones de pago instantáneo crecerán un 161% en el próximo lustro, superando los 58…
POWERBIM ha logrado destacarse a nivel mundial gracias a su enfoque tecnológico y su visión…
Este nuevo Software Hub de Renault nace con el objetivo de liderar la revolución del…
La compañía en la que se enmarca Google ha publicado los resultados financieros de su…
Alcanzó los 61.900 millones de dólares, de los que 35.100 millones corresponden a Microsoft Cloud.
La tecnológica española registró durante el año una mejoría del 23 % respecto al ejercicio…