La democratización de la Inteligencia Artificial

Big DataCloudDatos y AlmacenamientoEmpresasInnovación

Portavoces de Dynatrace y NetApp nos cuentan qué es la inteligencia artificial y cómo puede ayudar a las empresas.

La inteligencia artificial es una de las grandes promesas de la industria tecnológica. Y, aunque ya existen soluciones que las empresas pueden implementar para mejorar sus negocios, todavía es una desconocida para muchos. Para hablar de este fenómeno y sus ventajas en áreas como la monitorización, NetMediaEurope ha reunido a dos expertos de la industria tecnológica: Manel Picalló, Consulting Solutions Engineer de NetApp, y José Matias, Spain Regional Director de Dynatrace.

Estos profesionales han sido los protagonistas del encuentro onlineLa democratización de la Inteligencia Artificial. En una conversación moderada por Mónica Valle, periodista especializada en TI, los dos han analizado cuál ha sido la evolución de la inteligencia artificial en los últimos años y han entrado a valorar qué futuro nos espera. Y es que la ingente cantidad de datos que se genera a cada segundo obliga a adoptar técnicas de procesamiento más precisas y a sacarles valor.

Definiendo la inteligencia artificial

¿Qué es la inteligencia artificial? ¿Y qué no lo es? “Lo que nos viene a todos a la cabeza cuando hablamos de inteligencia artificial es un poco la ciencia ficción”, dice Manel Picalló, Consulting Solutions Engineer de NetApp, pero “la ciencia ficción trata otras cosas diferentes” pensando en “que lo que algún día tendremos es una mente humana artificial” y no en “la toma de decisiones que hacemos los seres humanos”.

José Matias, Spain Regional Director de Dynatrace, también opina que la inteligencia artificial no es ciencia ficción, “no es un robot que va por la calle matando a gente”. Es una tecnología para “automatizar” y “autodescubrir”, para “ofrecer a nuestros clientes una forma de poder gestionar toda esta complejidad que estamos viviendo” y resulta “imposible para un ser humano”.

La inteligencia artificial no es algo nuevo, Picalló explica que “lleva muchos, muchos, años en el mercado”. Últimamente ha habido variaciones en “el paradigma con todo el tema del machine learning y el deep learning. Así, “el programa se va a construir solo: vamos a tener una serie de datos de entrada” y se le van “a introducir los resultados que tiene que dar y lo vamos a entrenar”, en el caso del aprendizaje automático. Si no se indica “ni siquiera qué tiene que buscar”, ya sería aprendizaje profundo.

“Básicamente, en nuestra industria, ha habido tres cambios importantes”, detalla este ingeniero de soluciones de consultoría de NetApp. “Uno ha sido la cantidad de información que tenemos en lo que denominamos el edge, en el extremo final”, cuenta. “Luego, ha habido un cambio importante en el hardware” a través de “sistemas de computación de propósito específicos muy avanzados” y basados en “las unidades gráficas de proceso” con “cálculos matriciales en su interior”. A esto Picalló añade “el tema del movimiento del dato” hacia “el core”.

En la actualidad, “tenemos los datos, tenemos la capacidad de hacer los cálculos en un tiempo y a un coste razonable y, además, tenemos la tecnología para mover esos datos”, resume este experto, que dice que a nivel de algoritmos “lo que ha cambiado básicamente es todo el proceso” del “pipeline de datos”.

“Los algoritmos de inteligencia artificial de nuestros inicios, lo que llamábamos los sistemas expertos, hoy en día ya no están tan en uso a pesar de que siguen siendo válidos, porque el machine learning y el deep learning”, profundiza Manel Picalló, “han evolucionado mucho más y son mucho más eficientes”. Ahora hay un “proceso de transformación”, otro de “exploración del dato” en el que “entran en juego los científicos de datos” y un “training del algoritmo”, previo al “proceso de inferencia”, que sería ponerlo “en producción”.

José Matias comenta que “las arquitecturas antiguas ya no aplican al mundo que tenemos hoy”.  Esto ocurre, por ejemplo, en los sistemas de monitorización, con modelos “antiguos, donde yo manualmente configuro cosas” y “tengo mis métricas, mis dashboards” y “equipos mirando” la “información e intentando reaccionar a un problema”. El reto del modelo actual consiste en dar “respuestas” en un entorno que, además, es de “cloud híbrido”, contiene “microservicios, contenedores, metodologías de desarrollo basadas en DevOps” y demás. Todo ello “en tiempo real de forma dinámica”, como apunta Matias.

“Antiguamente”, compara el director general de Dynatrace en España, había “que configurar manualmente”, mientras que ahora “tengo que cambiar a un modelo donde lo pueda hacer o seguir de forma automática. ¿Para qué? Para poder tener” los “datos que me van a permitir alimentar mi motor de inteligencia artificial” y “decir en un determinado momento que hemos tenido un problema”. Y así, optimizar la experiencia. Como resume Manel Picalló, la inteligencia artificial, “en definitiva, lo que hace es ver cosas que a lo mejor hasta la fecha no podíamos ver”.

Casos de uso

La inteligencia artificial se está aplicando. Y “los casos de éxito más importantes”, según Picalló, se encuentran “en temas de salud” al poder evitar “procesos que son de diagnosis invasiva” mediante “un diagnóstico adecuado previo” para que “muchos pacientes no” pasen “penurias”. Es el caso de “algunos medicamentos intravenosos”. El portavoz de NetApp desvela que “se ha reducido en un 80 % este tipo de pruebas en muchos hospitales”, especialmente en los “Estados Unidos”, gracias a algoritmos entrenados para “diagnosticar con toda aquella parte que no es intrusiva con los pacientes”.

Picalló lo equipara con “un pequeño cerebro”: “una red neuronal no es más que una parte de cómo funciona, entre comillas y salvando las enormes distancias, un cerebro humano”. Y esto “lo podemos instalar en cualquier sitio y puede incluso ayudar a mucha gente a que no sufra”, siendo “ejemplo clarísimo de lo mucho que nos va a ayudar la inteligencia artificial en el futuro. Además, “la industria médica”, tenía ya “una cantidad ingente de datos”, por lo que sería “relativamente fácil” para ella.

Tanto Picalló como José Matias señalan que esto es posible tanto para las grandes empresas como para las de menor tamaño. La cuestión es que, hasta este momento, “calcular este pequeño cerebro” suponía “un coste inasumible. En algunas ocasiones no teníamos los datos”, relata Picalló. Y “cuando teníamos los datos, no teníamos la capacidad de proceso”. Pero “ahora ya existe la tecnología”, con posibilidades incluso “en el cloud”, y lo que “antes era impensable en muchas industrias”, ya “está al alcance de todo el mundo”.

La calidad del dato es básica en todo esto. “Para poder efectivamente dar respuestas, tenemos que ver 100 % de lo que se está pasando entre el usuario, su aplicación, todos los dispositivos que están por el medio… llegando incluso al mainframe”, analiza Matias. Y “el secreto de tener una buena inteligencia artificial o de obtener buenas respuestas es el hecho de poder verlo todo”.

Un futuro que no se puede evitar

¿Habrá un futuro en el que las empresas no tengan soluciones basadas en inteligencia artificial? “Yo diría que no”, responde José Marias, que cree que en “esto no hay marcha atrás. No hay cómo quitar la inteligencia artificial”, observa, “de cualquier área dentro de una empresa”. “Aparte”, hila Manel Picalló, “los seres humanos nos acostumbramos rápidamente a todas las cosas buenas”.

“Dicen que los datos en el siglo XXI son el oro negro para las empresas. Lo que diferenciará a las empresas durante este siglo”, continúa Picalló, “es el uso que hagan de los datos”, incluyendo “lo que puedan ver en esos datos. Y está claro que los seres humanos tenemos una limitación a la hora de ver cosas dentro de los datos”, al contrario que “un algoritmo de inteligencia artificial basado sobre todo en una solución de deep learning”.

Llegados a este punto, “aquellos que no introduzcan todas estas cosas en sus modelos de negocio, teniendo los datos a disposición”, aventura el directivo de NetApp, “y la tecnología, probablemente quedarán fuera del mercado”. Mientras, el representante de Dynatrace recuerda que los analistas dan de margen “hasta 2020 para hacerlo o, tal y como dice Forrester, tendremos que decidir si somos” los “depredadores o presas digitales”.

“Sin duda”, cree José Matias, estamos ante una democratización de la inteligencia artificial. “Está al alcance de todo el mundo. Cuando vemos lo que hacemos con un móvil hoy en día, pues ya lo decimos todo”, apunta”, en un momento en el que podemos hacer gran “cantidad de cosas”, “muchas de ellas incluyendo también inteligencia artificial con algo tan pequeñito que llevamos todos los días”. Por tanto, “está 100 % democratizado”.

¿Y las compañías que todavía no se han sumado a esta tendencia? ¿Qué consejos deberían seguir los responsables de TI que no confían de todo en la inteligencia artificial para mejorar sus procesos empresariales? “Ellos poseen ese oro negro, ahora necesitan” ver “cómo refinarlo”, declara Manel Picalló. “Yo diría a los clientes que la tecnología está disponible y que hay muchísimos modelos de consumo” para así “cambiar el mundo con datos” o “ser más competitivos”.

“La tecnología existe”, concuerda José Matias. Aunque hay clientes que creen que “es magia”, la realidad es que “sí es posible tener una solución” que funcione “de manera automatizada, que autodescubre, que autorrelaciona” y permita “aportar información a negocio” y “tomar determinadas decisiones para así conseguir los resultados que queremos”, tanto “para los que ya están en la nube” como a modo de “apoyo a las compañías que están todavía en este movimiento”.

Puede reproducir este webinar bajo demanda a través del siguiente enlace.

Lea también :
Leer la biografía del autor  Ocultar la biografía del autor