Lunes, 21 May, 2018


Facebook eliminó 583 millones de cuentas falsas en tres meses

Facebook publica su primer reporte sobre remoción de contenido Facebook da informe de transparencia y revela que vetó 583 millones de cuentas
Eloisa Felix | May 16, 2018, 13:11

La mayor parte del trabajo que hacen para eliminar contenido inapropiado involucra cuentas falsas y el spam que estas generan.

Los controles se realizan a través de procesos de aprendizaje automático y con supervisión de moderadores que revisan los contenidos que circulan por la red social.

Allí, la red social reveló por primera vez datos numéricos sobre contenido removido por violar sus normas comunitarias en seis áreas: violencia gráfica, desnudez de adultos y pornografía, propaganda extremista, discurso de odio, spam y cuentas falsas.

El directivo brindó estas declaraciones desde la sede de la red social ubicada en California, donde también estaba Guy Rosen, vicepresidente de Producto de Facebook, durante una videoconferencia en la que Télam fue el único medio representante de Argentina.

El número de publicaciones en Facebook que muestran violencia gráfica creció en los primeros tres meses del año respecto al trimestre previo, posiblemente conducidas por la guerra en Siria, informó el martes la red social, su primer reporte público sobre ese tipo de datos.

Entre las cifras más significantes está la de cuentas falsas, porque es una "acción clave para combatir el spam", explicó Schultz.

De igual manera, subrayó que casi todos los contenidos con mensajes no deseados fueron detectados sin necesidad de reportes de los usuarios. Y desactivaron alrededor de 583 millones de cuentas falsas, la mayoría apenas unos minutos después de que fueran registradas, según remarcan en el documento.

"Luego, señaló que eliminaron 21 millones de piezas de desnudos adultos o pornografía" en ese mismo período.

Sus estudios indican que de cada 10.000 publicaciones visualizadas en Facebook, entre siete y nueve incluían material que violaba nuestros estándares.

No obstante, aún con estos resultados y esfuerzos, el equipo admitió que su tecnología todavía no funciona del todo bien cuando se trata de incitación al odio.

Según este informe inédito, que se inscribe dentro de los esfuerzos de transparencia del grupo confrontado al escándalo de Cambrige Analytica, 3,4 millones de imágenes violentas fueron suprimidas o acompañadas de una advertencia durante el primer trimestre de 2018, casi el triple que en el trimestre anterior.

"Tenemos mucho más trabajo por hacer". En este apartado, la red social detalló que eliminó 2.5 millones de discursos de odio en el primer trimestre, solo el 38 por ciento fue detectado por las herramientas de inteligencia artificial.