En 2016 las herramientas de preparación de datos de autoservicio experimentaron un rápido crecimiento, ya que más usuarios se han dado cuenta de que la tecnología les puede ahorrar tiempo, presupuesto y recursos al encontrar y acceder rápidamente a datos de prácticamente cualquier fuente y luego prepararlos para su análisis.
Esta tendencia continuará expandiéndose en 2017, un año en el que también veremos cómo los científicos de datos, los analistas de datos y las empresas seguirán transformándose para aprovechar la información y ofrecer valor corporativo para mejorar los procesos operativos, tal y como recoge eWeek.
Dado que los datos están distribuidos por toda la organización y los usuarios a menudo trabajan aislados, la información en las empresas se ha vuelto incontrolable e impredecible. Su mala gestión aumenta los riesgos de seguridad y cumplimiento y da como resultado una calidad de datos inferior. En consecuencia, los analistas de datos y los usuarios empresariales a menudo desconfían de sus fuentes y no creen que los datos sean precisos, oportunos y válidos.
La calidad de los datos y la preparación de los datos son dos funciones separadas y distintas pero en 2017 convergerán y las organizaciones entenderán mejor cómo implementar las capacidades de ambos para obtener los mejores resultados analíticos.
Por otro lado, de cara al año que viene los datos de los dispositivos del Internet de las Cosas (IoT) impulsarán la demanda de bases de datos con la funcionalidad de preparar los datos en tiempo real. Cada vez más empresas están comenzando a utilizar los datos de los dispositivos del IoT para la analítica, pero están descubriendo que ya no es efectivo poner esta información en un repositorio que no tiene la capacidad de analizar de forma eficiente los datos en el momento que se generan.
Además, la virtualización de datos será más popular para los procesos de analítica. Es una técnica con muchas promesas, ya que permite reducir los costes porque las organizaciones no necesitan crear almacenes; ayuda con el análisis en tiempo real porque los datos no necesitan moverse de unas instancias a otras; y aumenta la agilidad, permitiendo a los usuarios analizar más fuentes más rápidamente.
El ex-CEO de El Corte Inglés se une a la joint venture surgida de la…
La firma de investigación Gartner observa que este tipo de inteligencia artificial "tiene un enorme…
La consultora IDC calcula que aumentarán un 4,7 % para alcanzar la cifra de 1,28…
Samsung recuperó el liderato durante el primer trimestre tras alcanzar los 60 millones de unidades…
Sus ingresos netos se elevan hasta los 7.700 millones de dólares, mientras que su beneficio…
Este negocio mejoró un 80 % durante el primer trimestre gracias a las GPU AMD…