¿Qué esperar de la analítica de datos en 2017?

En 2016 las herramientas de preparación de datos de autoservicio experimentaron un rápido crecimiento, ya que más usuarios se han dado cuenta de que la tecnología les puede ahorrar tiempo, presupuesto y recursos al encontrar y acceder rápidamente a datos de prácticamente cualquier fuente y luego prepararlos para su análisis.

Esta tendencia continuará expandiéndose en 2017, un año en el que también veremos cómo los científicos de datos, los analistas de datos y las empresas seguirán transformándose para aprovechar la información y ofrecer valor corporativo para mejorar los procesos operativos, tal y como recoge eWeek.

Dado que los datos están distribuidos por toda la organización y los usuarios a menudo trabajan aislados, la información en las empresas se ha vuelto incontrolable e impredecible. Su mala gestión aumenta los riesgos de seguridad y cumplimiento y da como resultado una calidad de datos inferior. En consecuencia, los analistas de datos y los usuarios empresariales a menudo desconfían de sus fuentes y no creen que los datos sean precisos, oportunos y válidos.

La calidad de los datos y la preparación de los datos son dos funciones separadas y distintas pero en 2017 convergerán y las organizaciones entenderán mejor cómo implementar las capacidades de ambos para obtener los mejores resultados analíticos.

Por otro lado, de cara al año que viene los datos de los dispositivos del Internet de las Cosas (IoT) impulsarán la demanda de bases de datos con la funcionalidad de preparar los datos en tiempo real. Cada vez más empresas están comenzando a utilizar los datos de los dispositivos del IoT para la analítica, pero están descubriendo que ya no es efectivo poner esta información en un repositorio que no tiene la capacidad de analizar de forma eficiente los datos en el momento que se generan.

Además, la virtualización de datos será más popular para los procesos de analítica. Es una técnica con muchas promesas, ya que permite reducir los costes porque las organizaciones no necesitan crear almacenes; ayuda con el análisis en tiempo real porque los datos no necesitan moverse de unas instancias a otras; y aumenta la agilidad, permitiendo a los usuarios analizar más fuentes más rápidamente.

Rosalía Rozalén

Periodista especializada en Tecnología desde hace más de una década. Primero informando sobre el canal de distribución, después sobre las grandes corporaciones y ahora hacia un enfoque más IT Pro. Apasionada de la comunicación con la revolución social media que estamos viviendo.

Recent Posts

Trend Micro protege el acceso a servicios de IA generativa

Mejora su plataforma para ayudar a gestionar los riesgos asociados a una adopción masiva de…

2 días ago

Los ciberincidentes de alta gravedad disminuyeron en 2023

Sin embargo, aumentaron los incidentes con gravedad media o baja. Los expertos advierten sobre la…

2 días ago

Intel reduce sus pérdidas

La pérdida por acción GAAP de la compañía menguó hasta los 0,09 dólares durante el…

2 días ago

Kaspersky abre su duodécimo Centro de Transparencia

Ubicado en Estambul, permite revisar el código fuente de los productos, actualizaciones de software y…

2 días ago

Cloudflare comienza su nuevo ejercicio con una mejoría del 30 % en ingresos

Durante el primer trimestre de su año fiscal 2024 alcanzó los 378,6 millones de dólares.

2 días ago

Los ingresos trimestrales de Apple caen un 4 %

La compañía californiana ha sufrido descensos en el segmento de productos, como los iPhone, pero…

2 días ago