El análisis de ‘Big Data’ es de vital importancia para las empresas

El concepto de ‘Big Data’ sigue extendiéndose a pasos agigantados debido a su importancia dentro de las organizaciones. Básicamente, se trata de procesar y almacenar ingentes cantidades de información no estructurada, algo que hasta hace relativamente poco tiempo era realmente complicado aplicando los sistemas de bases de datos tradicionales.

Sin embargo, el crecimiento de la información que se genera por las compañías y por los propios usuarios obliga a desarrollar nuevas arquitecturas y sistemas que permitan mejorar su procesamiento y almacenamiento, pero a la vez a generar nuevos modelos analíticos para sacar el máximo partido a esa información no estructurada.

Las compañías de desarrollo de software han puesto el foco en la gestión de grandes volumenes de datos no estructurados

Un nuevo informe de la firma Ovum pone de manifiesto que un tercio de las compañías tiene previsto invertir en tecnología para análisis de ‘Big Data’ durante el próximo año. El estudio se ha realizado a 150 firmas de Estados Unidos, Europa y Asia que almacenan más de 1 TByte de información en sus sistemas. Mientras tanto, el 44% de estas organizaciones lo hará en los próximos dos años.

No obstante, tal y como señala el informe, mantener grandes cantidades de datos no implica que las compañías sean de gran tamaño, es algo que no está directamente relacionado. De hecho, el 38% de las encuestadas tienen una facturación por debajo de los 50 millones de dólares.

Los desarrolladores y grandes compañías de software saben de estas necesidades. Es por ello por lo que se ha detectado durante los últimos 18 meses un importante avance en materia de creación de soluciones que puedan dar cabida a estas grandes cantidades de datos para su procesamiento y análisis.

Es el caso del mercado de SQL avanzado, donde firmas como IBM, Oracle y HP están apostando fuertemente. No obstante, la tecnología NoSQL, con Apache Hadoop a la cabeza, parece ser una opción preferente para las compañías. El motivo principal es que se trata de una iniciativa basada en código abierto, aunque también hay que tener en cuenta que mejora notablemente la toma de decisiones al permitir análisis profundos de estos datos no estructurados.

Pablo Fernández

Informático reconvertido a periodista, Pablo Fernández Torres comenzó su andadura profesional como redactor técnico y coordinador web en la revista PC Actual. Tras 7 años en esta publicación decidió dar el salto al segmento IT profesional para liderar el lanzamiento a finales de 2008 de la cabecera Silicon en España y posteriormente en la región LATAM. En la actualidad ejerce como director editorial Internacional de NetMedia Group, que edita otras publicaciones online como ITespresso, Channelbiz, SiliconWeek, B!T y ZDnet Germany.

Recent Posts

Quejas por la dificultad para obtener los datos que pide Hacienda a los contribuyentes con criptomonedas en el extranjero

El Ministerio de Hacienda ha publicado su propuesta de modelo 721 que servirá para que…

10 horas ago

Histórica emisión de deuda de Telefónica en Latinoamérica

Telefónica reduce su exposición en Brasil y además se reposiciona en otros países de Latinoamérica…

10 horas ago

Mercado de microchips: de la escasez a la abundancia

La finalización de los confinamientos decretados en distintas áreas de China podrían suponer, al cabo…

12 horas ago

Stackscale se integra en el Grupo Aire

La compañía se abre al mercado FLAP (Frankfurt, Londres, Ámsterdam y París) para continuar con…

15 horas ago

Camerfirma introduce el certificado digital EPREL

Las empresas que operan en Europa y requieran una etiqueta energética para sus productos necesitan…

16 horas ago

Samsung saca la libreta: Por cada empleado que contrata se crean 47 empleos en España

En su último informe anual, la compañía contabiliza 15.894 empleos generados a tiempo completo.

16 horas ago