EE.UU recurre a las fuerzas militares para combatir la desinformación y las noticias falsas
Las noticias y publicaciones falsas en las redes sociales son una amenaza tal para la seguridad de EE.UU que el Departamento de Defensa lanzó un proyecto para repeler los “ataques de desinformación automatizados a gran escala”, al tiempo que el principal republicano en el Congreso bloqueó los intentos para proteger la integridad de las elecciones.
La Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA, por sus siglas en inglés) quiere trabajar con un software personalizado que pueda descubrir falsificaciones ocultas entre más de 500.000 noticias, fotos, videos y clips de audio. Si tiene éxito, el sistema después de cuatro años de pruebas podría expandirse para detectar intenciones maliciosas y evitar que las falsas noticias se vuelvan virales y polaricen a la sociedad.
“Hace una década, lo que hoy es de última generación se habría considerado como ciencia ficción, así de rápido han llegado las mejoras”, señaló Andrew Grotto, del Centro de Seguridad Internacional de la Universidad de Stanford. “No hay razón para pensar que el ritmo de la innovación disminuirá en corto plazo”.
Las remesas, inmigrantes, y la cuarta transformación de Andrés Manuel López Obrador
Los funcionarios estadounidenses trabajan en planes para evitar que los piratas informáticos externos inunden los canales sociales con información falsa antes de las elecciones de 2020. Pero el impulso se topó con la negativa del líder de la mayoría del Senado, Mitch McConnell, al considerar la legislación de seguridad electoral. Los críticos lo han etiquetado como #MoscowMitch (#MoscúMitch), alegando que dejó a Estados Unidos vulnerable a la intromisión de Rusia, lo cual a su vez provocó su réplica del “macartismo moderno”.
El presidente Trump rechazó repetidamente las acusaciones de que el contenido dudoso en plataformas como Facebook, Twitter y Google contribuyó a su victoria electoral. Los partidarios de Hillary Clinton afirman que una avalancha de artículos falsos podría haber influido en los resultados de 2016.
“El factor de riesgo es el abuso y el uso de las redes sociales para influir en las elecciones”, aseveró la profesora asistente de comunicación de la Universidad de Siracusa, Jennifer Grygiel, en una entrevista telefónica. “Es realmente interesante que DARPA intente crear estos sistemas de detección, pero buena suerte. No será perfecto hasta que haya una supervisión legislativa. Hay una gran brecha y eso es una preocupación”.
Las noticias falsas y los llamados deepfakes (ultrafalso) son cada vez más sofisticados y hacen que sea más difícil detectar el software basado en datos. Las imágenes de inteligencia artificial han avanzado en los últimos años y ahora son utilizadas por Hollywood, la industria de la moda y los sistemas de reconocimiento facial. Los investigadores demostraron que estas redes de confrontación generativas (GAN, por sus siglas en inglés), pueden usarse para crear videos falsos.
Un famoso cineasta ganador del Oscar, Jordan Peele, creó un video falso del ex presidente Obama hablando de los Black Panthers y Ben Carson e insultando a Trump, para resaltar el riesgo de confiar en el material en línea.
Después de las elecciones de 2016, el presidente ejecutivo de Facebook, Mark Zuckerberg, restó importancia a las noticias falsas como desafío para la red social más grande del mundo. Más tarde señaló que se tomaba en serio el problema; permitiría a los usuarios marcar el contenido y a los verificadores de hechos etiquetar las historias en disputa. Posteriormente, estos juicios impidieron que las historias se convirtieran en anuncios pagados, que eran una vía clave hacia la promoción viral.
En junio, Zuckerberg señaló que Facebook cometió un “error de ejecución” al no actuar lo suficientemente rápido como para identificar un video manipulado de la presidenta de la Cámara de Representantes, Nancy Pelosi, en el que su discurso fue distorsionado.
Joseph Morrissey ha presentado una demanda por daños y perjuicios contra L.A “por violar sus derechos de debido proceso después de la confiscación y venta injusta de su vehículo”.
“Lo especialmente aterrador es la posibilidad de que actores maliciosos combinen diferentes formas de contenido falso en una plataforma perfecta”, señaló Grotto. “Los investigadores ya pueden producir videos falsos convincentes, generar texto persuasivamente realista e implementar chatbots para interactuar con la gente. Imaginemos el posible impacto persuasivo que podría tener en los individuos vulnerables la integración de estas tecnologías: un deepfake interactivo de algún personaje influyente involucrado en propaganda dirigida por inteligencia artificial de robot a persona”.
Al aumentar el número de verificaciones de algoritmos, la agencia de investigación militar espera poder detectar noticias falsas con intenciones maliciosas antes de que se viralicen. “Un conjunto completo de detectores de inconsistencia semántica aumentaría fuertemente la carga sobre los falsificadores de medios, y exigiría que sus creadores sean correctos en todos los detalles semánticos, mientras que los defensores sólo necesitarán encontrar una o muy pocas inconsistencias”, afirmó la agencia en su documento conceptual del 23 de agosto pasado para el Programa Semántico Forense (SemaFor). “Estas tecnologías SemaFor ayudarán a identificar, disuadir y comprender las campañas de desinformación de los adversarios”.
Los sistemas de vigilancia actuales son propensos a los “errores semánticos”. Un ejemplo, según la agencia, es que el software no se da cuenta de que los pendientes no combinan en un video o una foto falsa. Otros indicadores, que pueden notar los humanos pero no las máquinas incluyen dientes extraños, cabello desordenado y fondos inusuales.
El proceso de prueba de algoritmos incluirá la capacidad de escanear y evaluar 250.000 artículos noticiosos y 250.000 publicaciones en redes sociales, con 5.000 artículos falsos en la mezcla. El programa tiene tres fases durante 48 meses y cubre inicialmente noticias y redes sociales, antes de comenzar un análisis de propaganda técnica. El proyecto también incluirá “hackathons” de una semana de duración.
El gerente del programa Matt Turek lo discutió la semana pasada en Arlington, Virginia, con potenciales diseñadores de software. DARPA no proporcionó un comentario oficial al respecto. La agencia también tiene un programa de investigación en curso, llamado MediFor, que intenta cerrar una brecha tecnológica en la autenticación de imágenes, ya que ningún sistema de extremo a extremo puede verificar la manipulación de imágenes tomadas por cámaras digitales y teléfonos inteligentes.
“Reflejar este aumento en las imágenes digitales es la capacidad asociada, incluso para usuarios relativamente poco calificados, de manipular y distorsionar el mensaje de los medios visuales”, según el sitio web de la agencia. “Si bien muchas manipulaciones son inocentes y se realizan por diversión o por valor artístico, otras tienen fines adversos, como propaganda o campañas de desinformación”.
Con una escala de proyecto de cuatro años para SemaFor, las próximas elecciones habrán quedado atrás antes de que el sistema esté operativo. “Esta línea de tiempo es demasiado lenta y me pregunto si se debe un poco a las relaciones públicas”, expresó Grygiel. “Educar al público sobre la alfabetización mediática, junto con la legislación, es importante. Pero los funcionarios electos no tienen motivación para el cambio, y existe un conflicto de intereses ya que están utilizando estas mismas plataformas para ser elegidos”.
Para leer esta nota en inglés, haga clic aquí.
Suscríbase al Kiosco Digital
Encuentre noticias sobre su comunidad, entretenimiento, eventos locales y todo lo que desea saber del mundo del deporte y de sus equipos preferidos.
Ocasionalmente, puede recibir contenido promocional del Los Angeles Times en Español.