Google muestra sus armas de “machine learning para todos”

Business IntelligenceCloudDatos y Almacenamiento

TensorFlow y DialogFlow aportan una primera capa gratuita basada en lenguaje natural, reconocimiento de voz, imagen y texto, traductor, videointeligencia, gráficos de conocimiento y búsquedas, etc. a innovadoras apps.

Google cumple 20 años, y aunque en todo este tiempo la gente dé por hecho que es un gigante tecnológico, sus “garbanzos” proceden en una inmensa parte de sus actividades publicitarias y de marketing en Internet. Así que sorprende un poco, pero no mucho, que en el deseo de diversificar las fuentes de ingresos sea precisamente el área de tecnologías cloud la gran salvadora, intentado extender el conjunto de sus herramientas tradicionalmente gratuitas (es lo que le ha permitido posicionarse con tanta contundencia en la Web) al mundo empresarial.

Vamos, pelearse por los mismos clientes con Microsoft en la pare de aplicaciones ofimáticas (G-Suite), de business intelligence (DataStudio y BigQuery) y de machine learning (TensorFlow y DialogFlow), o con Amazon Web Services y de nuevo Microsft Azure en la parte de IaaS/PaaS (Google Cloud Platform). “Lo que nadie nos negará es que hemos democratizado el acceso a la tecnología, da igual que seas el banco BBVA o Jardinería Martínez, que puedes usar las mismas infraestructuras de hardware y aplicaciones de software en la nube, beneficiándose de la escala y que no se caen nunca. Ya no supone una barrera de entrada”, señala Isaac Hernández, country manager de Google Cloud Iberia. “Lo tengo clarísimo, en diez años todo será cloud y nada on-premise. La nube es contagiosa”.

googlecloud

Google cuenta con un despliegue de centros de datos repartidos por los cinco continentes, y abriendo a un ritmo de uno al mes para soportar el ritmo de crecimiento de Internet. El último abierto en Holanda ha costado 750 millones de euros, y en esa escala se mueven sus inversiones (30.000 millones en los últimos tres años entre datacenters y networking). “Todavía no tenemos ninguno en España, pero se van acercando”, comenta Hernández. “Una característica fundamental de nuestros centros de datos más modernos es que consumen hasta un 50% menos de energía en power y cooling que uno normal de hace unos años. En realidad, hemos multiplicado por tres el nivel de computación con el mismo gasto de energía, aplicando para ello algoritmos de inteligencia artificial. El mismo consumo que hace un coche en un kilómetro es el que empleamos en dar correo en la nube a un usuario durante un mes; el correo on-premise gasta 20 veces más”. El compromiso de Google con el Green IT es total, siendo el mayor comprador de energías renovables del mundo con 2,6 GW.

La seguridad es otro de los pilares en que basa su estrategia, con más de un millar de ingenieros trabajando en monitorizar la red y desplegar medidas preventivas. Además de cumplir un sinfín de reglamentaciones y certificaciones de ámbito mundial y local, tiene dos específicas de interés para el mercado español, como son el nivel más elevado en el ENS (Esquema Nacional de Seguridad) y su compliance con el nuevo RGPD, “que nos hacen ser relevantes para al administración pública e interesantes para el resto del tejido empresarial. Hace tres años no estábamos en ningún cuadrante mágico, y hoy lideramos todos sobre seguridad, plataformas cloud y SaaS”.

Después de un repaso al ecosistema de alianzas, Hernández destaca dos nuevos partners incorporados últimamente en España, Atos y KPMG, integradores y consultores de valor añadido con proyectos punteros en Big Data, Inteligencia Artificial y Machine Learning. Se citaron varios ejemplos: el caso de Airbus, que gracias a la IA ha logrado reducir un 70% los errores de interpretación en las fotos de satélite, como discernir si se trata de nieve o de nubes; o el de Repsol, que en su refinería de Tarragona ha podido pasar de estudiar 30 variables a 400, lo que permitirá una vuelta de tueca más y optimizar procesos para ahorrar hasta 30 céntimos de euro por barril de petróleo; o el de EVO Banco, que organiza las finanzas particulares e incluso realiza transferencias con un asistente de voz.

En esta línea, también se contó con un representante de la empresa Talgo, que habló del último proyecto de tren de alta velocidad Medina-La Meca, cuyos sistemas de señalización y sensorización se encuentran gestionados desde la nube de Google. Cada tren lleva 6.000 sensores y generan como 2.000 señales por segundo en streaming, más los eventos que se comprueban cada diez minutos, en total 2 GB al día, y la flota saudí tiene 36 convoyes. “Los trenes son activos muy costosos, se trata de que estén funcionando el máximo de tiempo y reducir su estancia en revisiones. El control es diario, se pasa por un pórtico medidor que da unos predictivos importantes y en base a machime learning aprende, con lo que se pretende alargar su paso por talleres de los 5.000-8.000 km a los más de 30.000 km, y ahorrar un 15%”, cuenta Luis Alfonso Henar, director de mantenimiento mundial de Talgo. “Luego las intervenciones funcionan como los pit-stop de la Fórmula-1, se tiene todo preparado, se sabe donde actuar y vuelta a circular”. Se espera además que estos ahorros se trasladen al precio final del billete con el fin de que la alta velocidad llegue a más viajeros, sin compromiso de la seguridad. “Estamos circulando a más de 300 km/h con 500 pasajeros, debemos estar igual de seguros que un avión, aunque nosotros vayamos por tierra, para no descarrilar ni tener ningún percance”.

googlecloud

Made in Google

A los últimos productos marca Google anunciados recientemente (como el altavoz inteligente Google Home), se han sumado en el ámbito empresarial la pantalla Jamboard (que suma en el mismo dispositivo pizarra táctil y videoconferencia, lo que permite compartir e interactuar sobre los mismos documentos) y el Transfer Appliance (un dispositivo que te presta Google para que lo cargues directamente de datos con capacidad entre 100 y 480 TB, y en vez de subirlos a la nube -lo que se tardaría años en hacerlo vía online- se lo lleva y lo enchufa directamente en uno de sus CPD). Un servicio como Twitter, necesitaría mil de estos appliances para cargar sus 300 PB de datos que tiene alojados en Google.

En la parte de soluciones, Google destacó su framework de inteligencia disponible a golpe de clic en pago por uso, listo para desarrollar nuevas herramientas adaptables a las necesidades del negocio de cualquier tamaño, desde hoteles y carnicerías hasta bancos, aseguradoras y fabricantes de automóviles. Basado en código abierto con un interfaz orientado a usuario y APIs listas para consumir, permite que casi “cualquiera” pueda desde construirse un chatbot con la intención de atender automáticamente las consultas, pedidos o reclamaciones de sus clientes vía on-line, hasta montar un aplicativo basado en reconocimiento de imágenes para desechar piezas defectuosas, sugerencias relacionadas para patrones de moda o encuestas de satisfacción multidiomas en el recobro amistoso.

“Los proyectos pueden ir de horas a semanas o meses, según la envergadura, mientras que el presupuesto es igual de variable. En vez de tener que comprar los servidores y luego hacer el entrenamiento del machine learning una vez al mes o cada dos meses, lo alquilas el tiempo que lo vas a estar usando. El coste va a depender del número de llamadas, si vas a tener un centenar al mes en tu zona de actividad, el coste por clic es irrelevante, de 0,00 céntimos de euro; sin embargo, si es un proyecto nacional o internacional que va a recibir miles o millones de interacciones al mes, entonces igual hay que estudiar otras fórmulas”, contaba Javier Martínez, ingeniero de preventas en Google Cloud Iberia. “Este tipo de proyectos requieren un largo proceso en los túneles de adquisición de datos para entrenar el reconocimiento de objetos y etiquetar, al contrario que los de IA que dependen más del contexto, y un desarrollo en la definición de los flujos de información y conversación para los journeys en el caso de los asistentes de voz, pero hemos intentado simplificar al máximo la complejidad en el uso de algoritmos y redes neuronales para que esté al alcance de los usuarios sin necesidad de ser un data scientific”.

googlecloud

Nada impide que llegue un particular y se construya una aplicación basada en TensorFlow para ordenar sus fotos o su música o un chatbot con DialogFlow; pero en todo caso, el modelo de acercamiento a la empresa de Google es 100% indirecto, por lo que deja las iniciativas de negocio en manos de grandes integradores para los proyectos más ambiciosos, pero también permite a pequeños partners certificados atacar nichos específicos de su mercado regional con una aplicación hecha ad-hoc.

Lea también :