Facebook dice haber eliminado 2.2 billones de cuentas falsas en el primer trimestre
Facebook Inc. dijo que eliminó 2.200 millones de cuentas falsas en el primer trimestre, un número que muestra cómo la compañía está luchando contra una avalancha de transgresores que intentan socavar la autenticidad de la red social más grande del mundo.
El número de cuentas falsas eliminadas fue casi cuatro veces mayor que el primer trimestre del año anterior y más del doble de las aproximadamente 1.000 millones de cuentas falsas desactivadas en el último trimestre de 2018. La gran mayoría se eliminan a los pocos minutos de haberse creado, dijo la compañía, por lo que no se cuentan en las métricas de usuarios activos mensuales y diarios de Facebook.
Facebook también compartió una nueva métrica en el informe del pasado jueves: la cantidad de publicaciones eliminadas que promocionaban o participaban en la venta de drogas y armas de fuego. Facebook sacó más de 1.5 millones de publicaciones de estas categorías en los primeros tres meses de este año.
El informe es un recordatorio sorprendente de la escala en la que opera Facebook, y del tamaño de sus problemas. La compañía ha sido objeto de críticas constantes sobre sus políticas de contenido y sus esfuerzos para detectar cuentas falsas desde las elecciones presidenciales de 2016 en Estados Unidos, cuando Rusia utilizó la red social para intentar influir en los votantes.
Facebook ha afirmado en repetidas ocasiones ser más eficiente en la detección y eliminación de publicaciones que violen sus políticas, y ha prometido que los programas de inteligencia artificial serán el centro de esos esfuerzos. Facebook dice que sus operaciones son demasiado grandes para monitorear todo sólo con humanos.
El pasado jueves, la compañía publicó su tercer informe de transparencia, un documento bianual que describe los esfuerzos de Facebook para eliminar publicaciones y cuentas que violan sus políticas. La compañía dijo que está mejorando en la búsqueda y eliminación de otro contenido problemático como el discurso de odio.
Los algoritmos de inteligencia artificial de Facebook funcionan bien para algunos problemas, como contenido gráfico y violento. Facebook detecta casi el 97% de todas las publicaciones de ese tipo que elimina antes de que un usuario las reporte a la compañía. Pero está lejos de ser perfecto. Facebook aún no puede detectar contenido gráfico o violento en videos en vivo, por ejemplo, un punto ciego que le permitió a un tirador transmitir su ataque en vivo en una mezquita de Nueva Zelanda a principios de este año.
El software tampoco ha funcionado muy bien para categorías más matizadas, como discursos de odio, donde el contexto en torno a las relaciones y el lenguaje del usuario puede ser un factor importante.
Aún así, Facebook dice que está mejorando. En los últimos seis meses, el 65% de las publicaciones que Facebook eliminó por impulsar el discurso del odio se detectaron automáticamente, dijo. Hace un año, esa cifra era sólo del 38%.
Si quiere leer este artículo en iongles, haga clic aquí
Suscríbase al Kiosco Digital
Encuentre noticias sobre su comunidad, entretenimiento, eventos locales y todo lo que desea saber del mundo del deporte y de sus equipos preferidos.
Ocasionalmente, puede recibir contenido promocional del Los Angeles Times en Español.