Apache Sqoop se convierte en proyecto prioritario para ‘Big Data’

Desarrollada en Apache Incubator, Sqoop se especializa en permitir la transferencia de información entre Hadoop y los grandes almacenes de datos estructurados.

La Apache Software Foundation (ASF) acaba de anunciar que la herramienta Apache Sqoop pasa a ser ‘mayor de edad’ y se convierte en proyecto de primer nivel dentro de las prioridades de la fundación.

Sqoop es una herramienta que ha estado desarrollándose en Apache Incubator, una sección dedicada en exclusiva a la puesta en escena de nuevas ideas. Básicamente, su cometido es permitir la transferencia eficiente de grandes volúmenes de información entre Apache Hadoop y otras plataformas de datos estructuradas, como es el caso de las bases de datos relacionales.

Sqoop facilita la transferencia de datos entre Hadoop y bases de datos estructuradas

Se trata de un producto de especial relevancia para el mercado actual, toda vez que las empresas se enfrentan a grandes cantidades de información variopinta que deben procesar para responder a los retos y necesidades y, como consecuencia, asegurar la continuidad de los negocios.

Todo el mundo habla de ‘Big Data’ y lo que facilita Apache Sqoop es precisamente que las empresas puedan ser capaces de gestionar esos volúmenes de datos.

“El proyecto Sqoop ha demostrado su madurez graduándose desde Apache Incubator”, declaraba Arvind Prabhakar, vicepresidente de Apache Sqoop, en el comunicado.

Sqoop está construido sobre la infraesturctura de Hadoop y es capaz de transferir los datos de forma paralela para mejorar el rendimiento y el uso del sistema y los recursos de red. Además, permite copiar rápidamente los datos desde plataformas externas a Hadoop para que se puedan analizar más eficientemente.

Ciertamente, la conectividad entre Hadoop y otras bases de datos y entornos de almacenamiento es un componente crítico para que Hadoop pueda evolucionar como una solución empresarial.

Sqoop comenzó a formar parte de Apache Incubator hace menos de un año (junio de 2011) y ofrece conectores para la integración entre Hadoop y otros sistemas tan populares como MySQL, PostgreSQL, Oracle, SQL Server e incluso DB2.