Apple mejora Siri contratando personal propio

Los algoritmos neuronales llevan un lustro proporcionando herramientas con las que mejorar los sistemas tradicionales de reconocimiento del habla, como saben bien quienes hayan empleado los programas pioneros de IBM y hayan comprobado las virtudes de Skype Translate, la última apuesta de Microsoft.

Pero quien intentó popularizarlo y convertirlo en un hábito cotidiano fue Apple cuando incluyó el asistente vocal inteligente Siri en su iPhone. Ahora no quieren dormirse en los laureles y se han propuesto una profunda actualización para lo que van a ir más allá de lo que hasta ahora habían conseguido gracias a la base de Nuance, la empresa líder en tecnología de reconocimiento de voz, de quien tenían licencia para el desarrollo de Siri. Ahora de lo que se trata en Cupertino es de contar con un equipo propio en este campo, y la base sería precisamente la emulación del funcionamiento del sistema neuronal humano.

Parte de ese equipo interno lo forman profesionales con una dilatada trayectoria en este sector, con décadas de trabajo tanto en Microsoft como en la Universidad de la Columbia Británica donde tuvieron lugar las primeras investigaciones al respecto. El equipo estaría formado tanto por las personas responsables de la dirección de equipos que cuentan con experiencia en el reconocimiento del habla como con investigadores especializados en esa área.

Los expertos en el sector vaticinan que en apenas seis meses Apple podría estar al nivel de Microsoft y Google, que cuentan en estos momentos con un nivel superior de experiencia y resultados en reconocimiento vocal mediante redes neuronales, lo que sin duda impulsaría el funcionamiento de Siri en sus próximas versiones.

vINQulo

Wired