Google puede clasificar un PB de información en seis horas

Para poner esta cifra en perspectiva, es 12 veces los datos web archivados por la biblioteca del congreso estadounidense. Para el almacenamiento se utilizaron 48.000 discos duros y para asegurar la integridad de los datos se escribieron tres copias de cada archivo en tres discos diferentes.

El responsable de todo el sistema es la arquitectura de software MapReduce, un framework desarrollado por Google para soportar computación paralela en la inmensa cantidad de datos que mueven los distintos servicios de la compañía, desde el procesado de las imágenes por satélites o el análisis de páginas.

MapReduce procesaba en enero de 2008, un promedio de 20 petabytes de datos diarios.

vINQulos

Google Blog, vía Slashdot

jranchal TI

Recent Posts

El pago instantáneo plantará cara a las tarjetas

Las transacciones de pago instantáneo crecerán un 161% en el próximo lustro, superando los 58…

2 días ago

POWERBIM, galardonada como la mejor startup a nivel mundial por el OVHcloud Startup Program

POWERBIM ha logrado destacarse a nivel mundial gracias a su enfoque tecnológico y su visión…

2 días ago

Renault inaugura su software hub de innovación en Madrid

Este nuevo Software Hub de Renault nace con el objetivo de liderar la revolución del…

2 días ago

Alphabet rebasa los 80.000 millones de dólares en ingresos trimestrales

La compañía en la que se enmarca Google ha publicado los resultados financieros de su…

2 días ago

Microsoft incrementa en un 17 % sus ingresos trimestrales

Alcanzó los 61.900 millones de dólares, de los que 35.100 millones corresponden a Microsoft Cloud.

2 días ago

Seresco facturó 42 millones de euros en 2023

La tecnológica española registró durante el año una mejoría del 23 % respecto al ejercicio…

2 días ago