Google puede clasificar un PB de información en seis horas

Para poner esta cifra en perspectiva, es 12 veces los datos web archivados por la biblioteca del congreso estadounidense. Para el almacenamiento se utilizaron 48.000 discos duros y para asegurar la integridad de los datos se escribieron tres copias de cada archivo en tres discos diferentes.

El responsable de todo el sistema es la arquitectura de software MapReduce, un framework desarrollado por Google para soportar computación paralela en la inmensa cantidad de datos que mueven los distintos servicios de la compañía, desde el procesado de las imágenes por satélites o el análisis de páginas.

MapReduce procesaba en enero de 2008, un promedio de 20 petabytes de datos diarios.

vINQulos

Google Blog, vía Slashdot

jranchal TI

Recent Posts

Un ejemplo de cómo puede evitar la MFA una ciberestafa con Gen AI

Panda comparte un caso real en el que la autenticación multifactor (MFA) ayuda a prevenir…

2 días ago

Las iSIM instaladas en 2026 sobrepasarán los 10 millones

Juniper Research prevé un crecimiento de más del 1200 % en los próximos dos años.…

3 días ago

Llega Workplace Móvil, el nuevo servicio de Telefónica para empresas

Engloba desde la conectividad y la seguridad a la renovación de dispositivos, impulsando la economía…

3 días ago

1 de cada 2 españoles cambia sus contraseñas de forma periódica

Pero todavía hay que mejorar: más de un 42 % de los encuestados por Finetwork…

3 días ago

7 de cada 10 empleados volverían gustosos a la oficina si se fomentase la colaboración

De acuerdo con un estudio de Cisco, reclaman espacios que permitan la interacción social y…

3 días ago

OVHcloud renueva sus servidores Bare Metal High Grade con procesadores Intel Xeon Gold

Estos servidores afrontan "desde la resolución de los desafíos de las infraestructuras hiperconvergentes hasta los…

3 días ago