Reportaje de la Voz de América – Redacción
Facebook anunció el miércoles que, durante el último trimestre, moderadores de la compañía eliminaron 8,7 millones de imágenes de desnudos infantiles con la ayuda de un software previamente no revelado que marca automáticamente esas fotos.
La herramienta de aprendizaje automático identifica imágenes que contienen desnudos, y niños, lo que permitiría aplicar de una mejor manera la normativa de Facebook de prohibir fotos que muestren a menores de edad en un contexto sexualizado.
Un sistema similar también captura a los usuarios que tratan de hacerse amigos de menores de edad con fines de explotación sexual.
La jefa de seguridad global de Facebook, Antigone Davis, dijo a Reuters en una entrevista que la «máquina nos ayuda a priorizar» el contenido problemático para el equipo capacitado de revisores de la compañía.
La compañía está explorando aplicar esta tecnología a su app de Instagram.
Bajo la presión de reguladores y legisladores, Facebook prometió acelerar la eliminación de material ilícito.
Los programas de aprendizaje automático que analizan los miles de millones de piezas de contenido que los usuarios publican cada día son esenciales para su plan.
Antes del nuevo software, Facebook confiaba en los usuarios o en sus filtros de desnudos adultos para capturar imágenes de niños. Un sistema separado bloquea la pornografía infantil que previamente se ha informado a las autoridades.
Facebook no ha revelado previamente datos sobre la eliminación de desnudos infantiles, aunque algunos se habrían incluido entre los 21 millones de publicaciones y los comentarios que eliminó en el primer trimestre por actividad sexual y desnudos.