La base de datos NoSQL de código abierto mejora sus capacidades para gestionar grandes volúmenes de datos sin comprometer el rendimiento de los sistemas. Su popularidad arrasa entre los grandes del sector.

La base de datos NoSQL de código abierto mejora sus capacidades para gestionar grandes volúmenes de datos sin comprometer el rendimiento de los sistemas. Su popularidad arrasa entre los grandes del sector.
La nueva herramienta basada en código abierto y Hadoop con licencia Apache 2.0 permite desvelar estructuras ocultas en los grandes volúmenes de datos para su posterior análisis.
Se llama Zinc, funciona con procesadores EnergyCore de Calxeda y ya está siendo puesto a prueba por la comunidad de desarrollo de Hadoop.
Hay muchas aplicaciones que facilitan la gestión de Big Data; el rol de un data scientist es prescindible, según Gartner.
La compañía ha confirmado que, a partir de ahora, su High-Performance Analytics Server utilizará Hadoop Distributed File Systems (HDFS).
La red social ha desvelado parte de sus estadísticas en Big Data. ¿Por ejemplo? Que sus usuarios producen 2.700 millones de "Me gusta" y suben a unos 300 millones de fotos diariamente.
Este proyecto intentará crear una versión de código abierto de Dremel, unas herramientas que Google ya utiliza para realizar análisis internos de datos.
Tras el batacazo en bolsa y la salida de GM como uno de sus principales clientes publicitarios, la red social no parece ser un buen modelo de negocio. Sin embargo, posee un potencial que tarde o temprano revolucionará el mercado: la ...
Junto a Cloudera Distribution (que incluye Apache Hadoop), AMD anuncia servidores Colfax basados en procesadores Opteron serie 6200 que competirán frontalmente con soluciones de Intel.
VMware ha puesto a disposición de los usuarios un kit de herramientas gratuitas bajo licencia Apache 2.0 que ayudará a automatizar las cargas de trabajo del famoso framework open source en la nube.
Creada a partir de tecnologías como MapReduce y Google File System, esta plataforma capaz de trabajar con miles de nodos y petabytes de datos a la vez se ha convertido en el aliado perfecto para la acuciante necesidad de Big Data. T ...
Un estudio de IDC asegura que los ingresos derivados del software relacionado con este framework de la Fundación Apache y MapReduce crecerán a un ritmo del 60% en sólo tres años.
El procesamiento y análisis de grandes volúmenes de datos ya forma parte de la oferta de software de Fujitsu. El siguiente paso será un hardware optimizado para estas tareas.
Responsables del gigante del software abren la puerta a nuevos desarrollos basados en estándares abiertos y open source en otro movimiento sin precedentes.
Las soluciones para la analítica de negocio de SAS Institute contarán a partir de ahora con acceso a grandes volúmenes de datos no estructurados mediante la plataforma patrocinada por Apache.
Desarrollada en Apache Incubator, Sqoop se especializa en permitir la transferencia de información entre Hadoop y los grandes almacenes de datos estructurados.
El gigante de las soluciones de almacenamiento ha anunciado la adquisición de Pivotal Labs justo el mismo día en que convierte Greenplum Chorus en un “Facebook para científicos de datos”.
El mayor fabricante de soluciones de almacenamiento hace balance del año pasado y nos acerca su estrategia para 2012, con ‘Big Data’ y Cloud computing como protagonistas.
El framework open source de Apache se une así a otras fuentes de datos como Oracle, DB2, SQL Server, Teradata y MySQL.
Un estudio asegura que en cinco años el negocio generado en torno a los grandes volúmenes de datos no estructurados alcanzará los 17.000 millones de dólares en 2015.
La base de datos de Microsoft en su versión prácticamente final añade mejoras para “obtener la información más útil del creciente volumen de datos que generan diariamente”.
Los sistemas de almacenamiento NAS de EMC cuentan a partir de ahora con nuevas funcionalidades de análisis de grandes volúmenes de datos gracias a Apache Hadoop.
EMC sigue impulsando su apuesta por los grandes volúmenes de datos y fusiona en un mismo producto base de datos estructurados, no estructurados, motor de productividad y red social.
Con un precio mucho más bajo de lo esperado, el gigante de las bases de datos lanza al mercado Cloudera para competir en el terreno de grandes volúmenes de información no estructurada.
OpenLogic ha publicado su ranking anual sobre adopción empresarial de soluciones de software de código abierto.
Sin lugar a dudas, una de las tendencias clave para este 2012 será la administración de grandes volúmenes de datos pero, ¿cómo de grandes? Intentamos resolver la pregunta.
La nueva versión de Microsoft Azure no sólo añade soporte para Hadoop, sino también para la librería Node.js y otras librerías de código abierto.
La Plataforma como Servicio de los de Redmond incorpora más capacidades para utilizar código abierto y mejora la gestión de las bases de datos Azure, entre otras novedades.
La compañía pretende reducir los niveles de spam de sus redes un 65% utilizando herramientas de análisis en tiempo real basadas en la plataforma Hadoop.