El poder de los algoritmos para dirigir conversaciones online

Cada vez más observaciones inteligentes estarán en manos de bots.

Algunos sitios online cuentan con una sección de comentarios para artículos, pero otros muchos están optando por eliminar por completo esta opción ante la escalada de los comentarios tóxicos.

Grandes grupos de comunicación, como es el caso de The New York Times, han atajado la situación contratando a un equipo de moderadores humanos que comprueba a cada momento los comentarios emitidos antes de que sean susceptibles de ser publicados, promoviendo una corriente de ideas respetuosas entre gran parte de los lectores reflexivos.

Para aquellos sitios que no pueden contratar una tropa de asesores a tiempo completo para barrer las opiniones dañinas a través de los aproximadamente 11.000 comentarios de media que se vuelcan online en un día, hay otro camino.

Jigsaw, la incubadora tecnológica propiedad de Google, acaba de presentar una herramienta que utiliza algoritmos de aprendizaje automático para discernir y eliminar los comentarios tóxicos que las personas dejan online.

La nueva herramienta Perspective ha aprendido de los mejores, analizó las decisiones de los moderadores de The New York Times, para entrenarse en identificar el discurso dañino. Los materiales de capacitación incluyen también cientos de miles de comentarios en Wikipedia, evaluados por miles de moderadores.

El enfoque de Perspective está en medir el nivel de toxicidad y eliminar los comentarios en una conversación dado su grado de grosería o irrespetuosidad.

Los desarrolladores que adopten la plataforma pueden usarla como quieran. Se pueden suprimir automáticamente los comentarios tóxicos o ayudar a moderadores humanos a  decidir qué hacer con ellos. Incluso se puede mostrar al usuario la calificación de la toxicidad del comentario que está escribiendo con el fin de incitarle a bajar el tono del lenguaje. Esto funcionaría un poco como las indicaciones de Nextdoor’s prompts para suprimir los comentarios racistas.

El sistema de Perspective registra una escala de 100 puntos en la clasificación de toxicidad y ya está sirviendo de inspiración a otros desarrollos. Cada vez más observaciones inteligentes estarán en manos de bots.