El análisis de ‘Big Data’ es de vital importancia para las empresas

El concepto de ‘Big Data’ sigue extendiéndose a pasos agigantados debido a su importancia dentro de las organizaciones. Básicamente, se trata de procesar y almacenar ingentes cantidades de información no estructurada, algo que hasta hace relativamente poco tiempo era realmente complicado aplicando los sistemas de bases de datos tradicionales.

Sin embargo, el crecimiento de la información que se genera por las compañías y por los propios usuarios obliga a desarrollar nuevas arquitecturas y sistemas que permitan mejorar su procesamiento y almacenamiento, pero a la vez a generar nuevos modelos analíticos para sacar el máximo partido a esa información no estructurada.

Las compañías de desarrollo de software han puesto el foco en la gestión de grandes volumenes de datos no estructurados

Un nuevo informe de la firma Ovum pone de manifiesto que un tercio de las compañías tiene previsto invertir en tecnología para análisis de ‘Big Data’ durante el próximo año. El estudio se ha realizado a 150 firmas de Estados Unidos, Europa y Asia que almacenan más de 1 TByte de información en sus sistemas. Mientras tanto, el 44% de estas organizaciones lo hará en los próximos dos años.

No obstante, tal y como señala el informe, mantener grandes cantidades de datos no implica que las compañías sean de gran tamaño, es algo que no está directamente relacionado. De hecho, el 38% de las encuestadas tienen una facturación por debajo de los 50 millones de dólares.

Los desarrolladores y grandes compañías de software saben de estas necesidades. Es por ello por lo que se ha detectado durante los últimos 18 meses un importante avance en materia de creación de soluciones que puedan dar cabida a estas grandes cantidades de datos para su procesamiento y análisis.

Es el caso del mercado de SQL avanzado, donde firmas como IBM, Oracle y HP están apostando fuertemente. No obstante, la tecnología NoSQL, con Apache Hadoop a la cabeza, parece ser una opción preferente para las compañías. El motivo principal es que se trata de una iniciativa basada en código abierto, aunque también hay que tener en cuenta que mejora notablemente la toma de decisiones al permitir análisis profundos de estos datos no estructurados.

Pablo Fernández

Informático reconvertido a periodista, Pablo Fernández Torres comenzó su andadura profesional como redactor técnico y coordinador web en la revista PC Actual. Tras 7 años en esta publicación decidió dar el salto al segmento IT profesional para liderar el lanzamiento a finales de 2008 de la cabecera Silicon en España y posteriormente en la región LATAM. En la actualidad ejerce como director editorial Internacional de NetMedia Group, que edita otras publicaciones online como ITespresso, Channelbiz, SiliconWeek, B!T y ZDnet Germany.

Recent Posts

Así están aprovechando los ciberdelincuentes la campaña de la Renta en España

Páginas web similares a las de la Agencia Tributaria, emails y SMS de phishing y…

14 horas ago

Las 6 transformaciones de la IA en la Gestión Contable

Desde ARBENTIA explican cómo la Inteligencia artificial está transformando la Gestión Contable.

14 horas ago

Joppy se hace con el negocio de su competidor Rviewer

La compañía española especializada en reclutamiento tecnológico anuncia también la captación de más de medio…

15 horas ago

Telefónica Tech completa la comercialización de la gama de soluciones Webex by Cisco

Lanza el servicio Webex Calling, que reemplaza los sistemas de telefonía empresarial convencionales y las…

16 horas ago

Check Point Software consigue mejores ingresos y ganancias de lo esperado

Sus ingresos del primer trimestre rozaron los 600 millones de dólares, mientras que los beneficios…

16 horas ago

IBM refuerza sus operaciones de seminconductores en Canadá

Ha llegado a acuerdos con las Administraciones para invertir alrededor de 187 millones de dólares…

17 horas ago