Los medios sociales implementan software automático para evitar contenido extremista

MarketingProyectosSocial Media

Hasta ahora, los editores humanos han revisado, marcado y eliminado el contenido pero el proceso automatizado puede reaccionar mucho más rápido.

Los medios sociales son una de las herramientas que los grupos terroristas más utilizan para radicalizar a los jóvenes y difundir mensajes de violencia, racismo y odio.

YouTube y Facebook acaban de confirmar el uso del software bajo el denominado ‘Counter Extremism Project’ para eliminar contenido que incite al terror. Ambas compañías han comenzado a utilizar procesos automatizados para bloquear y eliminar vídeos de propaganda terroristas rápidamente, como adelantó Reuters.

Hasta ahora, los editores humanos han revisado, marcado y eliminado el contenido cuando se ha considerado necesario, pero el proceso automatizado puede reaccionar mucho más rápido y eficazmente.

“Se trabaja de forma totalmente automática, es eficiente, preciso y permite a las empresas tecnológicas la aplicación efectiva de sus términos de servicio, detectando y bloquenado el contenido que no está permitido”, ha manifestado Hany Farid, asesor del ‘Counter Extremism Project’.

Twitter también está evaluando el uso de este software.

En mayo, Twitter, YouTube, Facebook y Microsoft se unieron a un grupo de empresas TIC que ha firmado un código de conducta publicado por la Comisión Europea y los estados miembros de la UE, en un esfuerzo por frenar la incitación al odio online y el extremismo violento.

Leer la biografía del autor  Ocultar la biografía del autor