Selen Ozturk
Ethnic Media Services
En una sesión informativa del viernes 12 de julio de Ethnic Media Services, expertos en transparencia de los medios digitales y vigilancia política que monitorean el aumento de la desinformación generada por IA discutieron los posibles desafíos para los votantes étnicos en las elecciones nacionales y locales de este año, y sugirieron políticas e iniciativas para combatir el problema.
Desinformación de IA
A medida que se acercan las elecciones estadounidenses de noviembre, la desinformación en línea “es un problema muy real, impulsado por la inteligencia artificial, que está surgiendo en nuestra democracia, literalmente día a día”, dijo Jonathan Mehta Stein, director ejecutivo de California Common Cause, una agencia de vigilancia sin fines de lucro.
“Estas amenazas no son teóricas”, continuó. “Hemos visto elecciones afectadas por falsificaciones de IA y desinformación en Bangladesh, Eslovaquia, Argentina, Pakistán e India. Aquí, antes de las primarias, hubo una llamada automática falsa de Joe Biden en New Hampshire diciéndoles a los votantes demócratas que no votaran”.
La semana pasada, el Departamento de Justicia de Estados Unidos también interrumpió una campaña de desinformación rusa que involucraba a casi 1.000 perfiles de robots de redes sociales generados por inteligencia artificial que promovían los objetivos del gobierno ruso en X mientras se hacían pasar por estadounidenses en todo el país.
Además, están surgiendo sitios web de noticias locales completos generados por IA con el objetivo de desinformar liderada por Rusia, entre ellos D.C. Weekly, New York News Daily, Chicago Chronicle y Miami Chronicle.
“India es un buen ejemplo de lo que podría pasar en Estados Unidos si no nos educamos”, dijo Stein. “Mientras los votantes indios son bombardeados con millones de falsificaciones y los candidatos han comenzado a aceptarlas. Ha creado esta carrera armamentista en la que algunos candidatos utilizan imágenes muy falsas de sí mismos y de sus oponentes, y los candidatos que no quieren utilizarlas sienten que tienen que hacerlo para mantenerse al día”.
A medida que el problema empeora, muchas plataformas de redes sociales lo ignoran.
Meta ha hecho que algunas de sus funciones de verificación de datos sean opcionales, mientras que Twitter ha detenido el software que utilizaba para identificar campañas de desinformación organizadas. YouTube, Meta y X han dejado de etiquetar o eliminar publicaciones que promuevan afirmaciones falsas sobre una elección presidencial de 2020 robada. Todas estas plataformas han despedido a gran parte de sus equipos de desinformación e integridad cívica.
“Las noticias reales son la respuesta a las noticias falsas”, dijo Stein. “Estamos en una era en la que se verifican dos veces las noticias políticas. Si ves una imagen o un vídeo que ayuda demasiado a un partido político o candidato, sal de las redes sociales y comprueba si se está denunciando… Antes de compartir un vídeo de Joe Biden cayéndose por las escaleras del Air Force One, por ejemplo, compruebe si la AP, el New York Times, el Washington Post o sus medios locales de confianza lo han informado o desacreditado.
Desafíos para las comunidades de color
“En los últimos 12 meses, documentamos más de 600 piezas de desinformación en las principales redes sociales en idioma chino. Y los dos temas principales son apoyar o deificar a Trump y atacar a Biden y las políticas democráticas”, dijo Jinxia Niu, gerente de programa para la participación digital china en la organización sin fines de lucro Chinese for Affirmative Action. “Este año, la desinformación de la IA presenta este problema a un ritmo mucho más rápido”.
“El mayor desafío que enfrenta nuestra comunidad para abordarlo es que nuestros medios en otros idiomas a menudo carecen del dinero y del personal para verificar la información”, explicó. “En nuestras comunidades de inmigrantes y de habla limitada de inglés, en particular, la alfabetización en IA suele ser cercana a cero. Ya hemos visto estafas en las redes sociales chinas con influencers falsos de IA que consiguen que sus seguidores compren productos falsos. Imagínese lo peligroso que sería esto con personas influyentes falsas que engañan a sus seguidores sobre cómo votar”.
Si bien la mayor parte de la desinformación política en la comunidad de la diáspora china se traduce directamente de las redes sociales en inglés, Niu dijo que algunos contenidos originales compartidos por personas influyentes chinas de derecha incluyen fotografías generadas por inteligencia artificial del ex presidente Trump interactuando con partidarios negros y fotografías generadas por inteligencia artificial que atacan al presidente Biden al retratar a sus partidarios como “locos”.
“Un gran desafío sobre el terreno para la comunidad asiático-estadounidense es que esta desinformación tiende a circular no sólo en las redes sociales, sino que es compartida directamente por personas influyentes, amigos y familiares a través de aplicaciones de mensajería cifradas”, continuó, más popularmente WeChat para los estadounidenses de origen chino. , WhatsApp para estadounidenses de origen indio y Signal para estadounidenses de origen coreano y japonés.
“Estos chats privados se vuelven como transmisiones públicas no reguladas y sin censura que no se pueden monitorear ni documentar debido a protecciones de datos y privacidad bien intencionadas”, explicó Niu. “Crea un dilema perfecto en el que es difícil, si no imposible, intervenir con información falsa y peligrosa”.
Soluciones
“Sin embargo”, continuó Niu, “estamos tratando de hacer algo al respecto a través de Piyaoba.org”, el primer sitio web de verificación de datos para las comunidades chino-estadounidenses. Por ejemplo, este recurso en el idioma “ofrece un cuadro de chat inteligente para enviar nuestras últimas verificaciones de datos a los seguidores en un grupo de chat de Telegram… Pero estas soluciones no son suficientes para el problema mucho mayor que enfrentamos”.
“Creo que una de las mayores percepciones erróneas sobre la desinformación es que la gran mayoría de ella viola las reglas de las plataformas de redes sociales. Más bien, cae en un área gris de ‘engañoso, pero no técnicamente falso’”, dijo Brandon Silverman, ex director ejecutivo y cofundador de la plataforma de monitoreo de contenido CrowdTangle, ahora propiedad de Meta.
“Es la diferencia entre decir que la luna está hecha de queso y decir que algunas personas dicen que la luna está hecha de queso”, añadió. “En esa zona gris, es muy difícil para las plataformas hacer cumplir algo tan rápido como pueden con información directamente falsa”.
Además, la existencia de cuentas generadas por IA o controladas desde el extranjero “no significa que hayan tenido un impacto mensurable o significativo en un tema o elección”, explicó. “Uno de los objetivos de las campañas de desinformación es ‘inundar la zona’ con tanto contenido no confiable que la gente no sepa en qué confiar… Hay un equilibrio que debemos alcanzar entre ser receptivos, pero también no hacerles el juego al hacerlos parecer tan poderosos que nadie que lo sepa puede confiar”.
A nivel político, Silverman dijo que apoyaba impuestos sobre un porcentaje de los ingresos generados por la publicidad digital en grandes plataformas, para financiar el periodismo étnico y comunitario a nivel local.
Añadió que las grandes organizaciones que actualmente luchan contra la desinformación sobre IA incluyen la Fundación Knight con su Centro Electoral de servicios gratuitos y subsidiados para las redacciones de EE. UU. que cubren las elecciones federales, estatales y locales de 2024; y el Centro Brennan con el lanzamiento de Meedan, una organización sin fines de lucro para iniciativas y software de intercambio de noticias contra la desinformación.
“En lugar de responder al contenido individual, deberíamos pensar en las narrativas que se impulsan constantemente, no sólo por los robots sino también por personas influyentes reales – y cómo podemos rechazar las que sabemos que son falsas”, dijo Silverman.