Tres tendencias a observar en Machine Learning e Inteligencia Artificial

Business IntelligenceDatos y Almacenamiento

François Cadillon, vicepresidente de Ventas para Reino Unido e Irlanda y Sur de Europa de MicroStrategy, nos aporta interesantes detalles sobre la adopción de la IA en las empresas.

La ciencia de los datos ha evolucionado rápidamente, con un número interminable de nuevas aplicaciones cada año. Los casos de uso recientes se centran en racionalizar el eliminando las barreras que ralentizan la construcción de modelos, como los datos que faltan o los llamados Dirty Data, que lo componen aquellos datos erróneos, introducidos voluntaria o involuntariamente. En este artículo vamos a poner de manifiesto tres tendencias de machine learning que pueden revolucionar 2019.

1. Mejora de la calidad de los datos mediante la detección de valores atípicos

Las innovaciones como el Internet de las Cosas (IO) y los datos no estructurados están produciendo exponencialmente más datos, lo que permite a las organizaciones descubrir conocimiento inesperado a partir de nuevas fuentes más granulares. Sin embargo, estas fuentes crecientes de datos introducen un mayor riesgo de producir modelos machine learning que utilizan datos sucios y por lo tanto producen pronósticos inexactos. Los riesgos del Dirty Data van más allá de las malas previsiones: IBM estima que costarán aproximadamente 3,1 billones de dólares cada año a la economía de EE.UU.

Afortunadamente, el machine learning está aquí para ayudar a través de la detección de valores atípicos, utilizando un algoritmo para identificar observaciones que son extremadamente diferentes del resto de los datos, lo que permite a los científicos de datos determinar si estas observaciones extremas son verdaderos valores o si se incluyeron erróneamente. La implementación de la detección de valores atípicos en un conjunto de datos antes de hacer predicciones puede ahorrar tiempo y dinero y ayudar a asegurar que los datos del modelo estén libres de incorrecciones. A medida que más objetos se vuelvan “inteligentes” y las fuentes de datos continúen expandiéndose, es de esperar que la detección de valores atípicos se implemente con mayor frecuencia.

2. Crecimiento continuo del procesamiento del lenguaje natural

El procesamiento del lenguaje natural (PNL), un subcampo de la inteligencia artificial que permite que los ordenadores procesen y actúen sobre el lenguaje humano y las consultas sobre este, ha crecido de forma explosiva durante el último año, principalmente a través de los chatbots y los asistentes de IA como Alexa. Pero el PNL está apareciendo en lugares nuevos e inesperados. Por ejemplo, Google interpreta ahora las búsquedas en lugar de simplemente buscar las palabras en sí mismas, y los fabricantes de automóviles están instalando asistentes de IA en sus vehículos para el reconocimiento facial e incluso para ofrecer recomendaciones musicales. Estas características permiten a las personas obtener rápidamente más información y controlar su entorno con comandos simples y menos clics.

La integración del procesamiento del lenguaje natural en las plataformas de software analítico es también una realidad y permite que los usuarios puedan realizar preguntas a Alexa, por citar un ejemplo, sobre sus KPIs o utilizar consultas en lenguaje natural para hacer consultas sobre los datos que están visualizando en sus dosieres y encontrar respuestas con nuevas visualizaciones. En España, algunas compañías innovadoras como Estrella de Galicia ya están aplicando este modelo facilitando su operativa de negocio y reinventando su forma de trabajar.

3. Machine learning automatizado con IA

Los perfiles y habilidades de científicos de datos escasean y la creación de modelos es un proceso que requiere mucho tiempo, al incluir la limpieza de datos, la selección de modelos y muchas rondas de capacitación y pruebas, las cuales disminuyen la velocidad a la que se pueden implementar los modelos machine learning. Para combatir este problema, la IA se está utilizando tanto para crear como para afinar modelos, acelerando significativamente su construcción y permitiendo a los analistas que carecen de habilidades de codificación construir sus propios modelos.

En 2017, Google lanzó AutoML, una colección de productos machine learning basada en la nube que automatiza la construcción de modelos con módulos adicionales para el procesamiento de lenguaje natural y la detección de imágenes. Se espera que las empresas comiencen a integrar estos productos en sus conjuntos de modelos, así como el lanzamiento de paquetes similares de otros proveedores a lo largo de 2019.

Debemos estar atentos, pues, a todas estas tendencias que vienen, al fin y al cabo, a ayudar a las organizaciones a continuar su transformación a través del uso de los datos, uno de los motores fundamentales de una empresa verdaderamente digital.

Autor