Facebook pidió este martes a las fuerzas del orden en Estados Unidos y Reino Unido que incorporen tecnología capaz de detener transmisiones en vivo de ataques extremistas, como sucedió en marzo con el tiroteo de Christchurch.
La iniciativa es parte de un amplio paquete de medidas tomadas por la red social para acabar con los contenidos de "odio y extremismo" y para agregar a su lista de "organizaciones terroristas" a movimientos o individuos que prediquen la superioridad de la raza blanca.
Facebook fue muy criticado por demorar 17 minutos en detener la transmisión de un supremacista blanco que el 15 de marzo mató a 51 fieles musulmanes en Christchurch, Nueva Zelanda.
Desde entonces, la compañía ha multiplicado sus iniciativas como las restricciones en el acceso a Facebook Live, reuniones con políticos y una alianza con otras redes para frenar el "desvío de tecnologías para transmitir contenido terrorista".
La policía de Londres permitirá desde octubre que Facebook entrene sus herramientas de inteligencia artificial para detectar rápidamente estos contenidos y eliminarlos.
La dificultad es que esa tecnología debe ser capaz de distinguir entre un ataque en la vida real y una escena de película o videojuego.
Las herramientas de inteligencia artificial necesitan grandes cantidades de datos -en este caso, imágenes de tiroteos- para aprender a reconocerlos, ordenarlos y en este caso eliminarlos.
Después de poner a disposición múltiples recursos para combatir el uso de su red por parte de organizaciones como Al Qaida o el grupo yihadista Estado Islámico, Facebook se ha centrado en el supremacismo blanco, cuyos partidarios están detrás de muchos asesinatos perpetrados en los últimos años en Estados Unidos.