A fondo: Chatbots, la próxima revolución tecnológica

Los robots y la inteligencia artificial se están haciendo con un hueco en nuestras vidas. Los chatbots representan un primer paso en la interacción entre humanos y máquinas.

El pasado mes de abril, Mark Zuckerberg, fundador y CEO de Facebook, presentó en la conferencia F8 su servicio chat Messenger Platform, que permitirá que las empresas y aplicaciones chateen de forma directa con sus usuarios las 24 horas y los 365 días del año.

Messenger Platform contará con aplicaciones de empresas que dispondrán de chatbots mediante los que los clientes podrán adquirir productos, realizar el seguimiento de un envío, contratar servicios, preguntar dudas, etc.

Unos días antes, en la conferencia Build de Microsoft, Satya Nadella, CEO de la compañía, afirmaba que “los bots son las nuevas aplicaciones”, como recogía USA Today, haciendo referencia al protagonismo creciente de estos programas conversacionales.

La inteligencia artificial (AI, por sus siglas en inglés) también tenía un hueco importante en el último encuentro Google I/O, en el que se anunció el asistente de voz Google Assistant, que tendrá un papel destacado en el desarrollo de la app de mensajería Allo y del dispositivo Google Home. Y no podemos olvidarnos de Siri, el asistente virtual de Apple.

Estos pasos muestran el interés que pone la industria en el desarrollo de los chatbots. “Estamos en un punto de inflexión. Los chatbots existen desde hace muchos años. En los ochenta me mostraron una demo de Eliza y me quedé bastante impresionado. Visto desde ahora, era algo muy simple. Con los años, fueron evolucionando; y las tareas que permiten hacer se están volviendo cada vez más complejas. Hoy, los grandes jugadores de tecnología están corriendo una carrera vinculada con el desarrollo de la AI. Claramente, el foco principal está puesto ahí. Por ejemplo, Google Photos, que usa la identificación de rostros en Facebook, así como el auto que se maneja solo son aplicaciones que se basan en ‘machine learning’. En ese sentido, las herramientas para construir chatbots más inteligentes se vuelven cada vez más accesibles”, indica Andrés Snitcofsky, cofundador Leadaki, desarrolladora del chatbot Cliengo.

Una realidad tangible

Los chatbots ya están aquí y casi todos hemos interactuado en alguna ocasión con alguno de estos programas. “A día de hoy, los usuarios ven, interactúan y adoptan los chatbots con gran nivel de aceptación. No sólo los emplean como entretenimiento casual, sino que confían en ellos para llevar a cabo ciertas tareas sencillas como poner citas en el calendario, hacer llamadas, enviar mensajes, etc. Y también en sistema de autoayuda, para resolver dudas y problemas frecuentes como saber el estado de un pedido, gestionar devoluciones, respuestas tipo ‘trivial’ sobre personajes famosos o eventos deportivos, entre otros”, declara Julio Prada, director general de Inbenta en España. Esta compañía está detrás del chatbot para Facebook Messenger recientemente presentado.

Snitcofsky destaca algunos ejemplos, como los asistentes virtuales similares a Siri, bots para hacer pedidos o compras online, para atención al cliente o también para la generación de clientes potenciales.

Y todavía es sólo el principio, ya que su uso se irá extendiendo poco a poco a múltiples tareas, reestructurando el mercado laboral en una nueva ‘era de los robots’.“La profesión de agente de call center desaparecerá antes de 2020. Estos agentes serán sustituidos por máquinas. Esto creará también una industria nueva y enorme que se basará en AI y chatbots, que probablemente dará los mismos o más puestos de trabajo de mayor valor por parte del ser humano. Las tareas de los contact center son susceptibles de ser automatizadas un 100% a día de hoy. En su lugar, las empresas que prestan este tipo de servicios con empleados más cualificados -ingeniería, software, hardware, lingüística- ocuparán su lugar”, apunta Prada.

Asimismo, señala que “otra aplicación será la traducción automática e instantánea, pues los chatbots podrán permitir interactuar con personas en cualquier lugar del mundo, sin conocer su idioma. Es decir, el traductor universal que vemos en algunas películas de ‘Sci-Fi’”. En su opinión, “las aplicaciones serán tan diversas como alcanza la imaginación humana. Recordemos películas como ‘2001: Una odisea del espacio’ y HAL, ‘Star Trek’, ‘Terminator’, ‘Her’, ‘Yo, robot’, ‘Robocop’… mayordomos, policías, domótica del hogar, tripulación de vehículos, incluso sistemas de defensa”.

El responsable de Inbenta remarca que “Siri tiene buen rendimiento y va mejorando con el paso el tiempo. Además, Apple abrirá Siri a que terceros y desarrolladores puedan integrarse, esto supondrá el fin y la desaparición de chatbots menos conocidos o competidores y aspirantes a Siri. En esa misma línea también se encuentran Cortana, que tiene mucho que aprender, y el esperado VIV, de los creadores del Siri original, que saldrá a finales de año y está generando expectativa. En el caso de Estados Unidos, Amazon ha lanzado Echo con relativo éxito”.

Ventajas y desventajas

La pujanza de estos programas se debe a los beneficios que ofrecen. “Las ventajas evolutivas más competitivas de un chatbot se fundamentan en las limitaciones de los humanos. Los chatbots no necesitan dormir ni comer, ni hacen vacaciones, pueden trabajar las 24 horas, hablan decenas de idiomas y pueden interactuar con cientos de miles de humanos simultáneamente. Su velocidad de respuesta es más rápida, ya que no necesitan escribir en un teclado sus respuestas; y son inmunes a los sentimientos, con lo que jamás se enfadarán o se pondrán tristes si les insultamos. Esto condiciona favorablemente la interacción humana, hace que el usuario se centre en describir y sintetizar su problema, al margen de la respuesta emocional, ya que preconcibe que la máquina es un ser artificial”, apunta el director general de Inbenta España.

Por su parte, Snitcofsky comenta que “la principal ventaja que tienen los chatbots es que no requieren una curva de aprendizaje compleja para ser usados. Los puede usar mi madre, que usa el WhatsApp pero no entiende nada de aplicaciones. Además, son más amigables, en el sentido tradicional de la palabra. En general, suelen ser hasta simpáticos. Hoy, las aplicaciones web normalmente tienen un proceso de ‘onboarding’ en el que educan al usuario y hay que descargarlas o registrarse. Los chatbots, al ser conversaciones, pueden ser usados por cualquiera de manera instantánea. No hay que bajarse ningún archivo pesado y no es necesario un gran compromiso de parte del usuario”, anota.

Sin embargo, también presentan inconvenientes. Prada señala que “la AI, a día de hoy, es limitada. Y hay mucho recorrido. La máquina es muy artificial y es muy poco inteligente. Realmente hace lo que hemos programado que haga. Los algoritmos de autoaprendizaje y redes neuronales están por explorar y por obtener buenos resultados. Hay que tener en cuenta que ni siquiera el ser humano conoce con profundidad el funcionamiento de su cerebro. Por tanto, difícilmente podremos replicar éste en un modelo artificial. La limitación de los chatbots consistirá en la gestión del conocimiento, cómo aprender y extraer conclusiones por sí mismos, sin la intervención del ser humano, y con un modelo evolutivo similar al nuestro”.

Afinar el aprendizaje

Así pues, el aprendizaje de estos sistemas todavía es un escollo importante. Snitcofsky señala que no existe una sola fuente de aprendizaje. “En general, son las propias conversaciones las que le enseñan al robot. Hoy, la información disponible en internet es muchísima y entrenar a un sistema es más rápido y simple”, apunta. Al hilo de ello, el responsable de Inbenta especifica que “las fuentes de aprendizaje son cualquier repositorio de información en modo texto que seamos capaces de estructurar. El inconveniente es que hay demasiada información y necesitamos filtrar o depurar qué unidades de conocimiento son las que deseamos enseñar al chatbot. Esto suele ser una tarea ardua para los humanos”.

No obstante, ya hay algunos ejemplos de chatbots que aprenden solos, aunque las experiencias no han sido demasiado satisfactorias. “Microsoft lanzó uno hace unos meses y fue un desastre. Su chatbot se convirtió en antisemita y nazi, a raíz del autoaprendizaje y de conversaciones mantenidas con los usuarios. Por tanto, el ‘machine learning’ y aprendizaje debiera estar tutelado por humanos para obtener buenos resultados. El reto principal en materia de chatbots consiste en superar el test de Turing, una prueba sencilla en la que el usuario chatea con un sistema. Tras una serie de preguntas y un tiempo, el usuario es incapaz de distinguir si al otro lado hay una persona o una máquina. Ningún sistema ha superado con éxito dicho test”, precisa el director general de Inbenta España.

El fiasco de Tay, el chatbot de Microsoft, fue tan grande que la compañía se vio obligada a desactivarlo. Respecto a este tipo de manipulaciones malintencionadas, el cofundador de Leadaki explica que “como cualquier proceso en donde intervienen muchos (crowdsourced), tiene posibilidad de errores. Sin embargo, estos errores se corrigen con cierta moderación, generando una comunidad detrás, como hacen Reddit o Wikipedia, por ejemplo”. Por su parte, Prada asegura que “hoy sólo es posible evitar la manipulación mediante ‘machine learning’ asistido, en el que siempre existe un humanos que valida qué es lo que aprende un chatbot y qué no”.