La regularidad de las noticias con personas engañadas o incluso radicalizadas por las redes sociales llevó a dos investigadores de la Universidad Estatal de Colorado a comparar los algoritmos de las redes sociales con los villanos de tragedias clásicas como “Otelo” de Shakespeare.
En un artículo publicado el otoño pasado, los investigadores examinan cómo los algoritmos pueden transformar la visión de la realidad de una persona de manera que conduzcan a acciones perjudiciales. Platforms track user engagement with content and then feed users more of what they like.
Hamed Qahri-Saremi, profesor asistente de sistemas de información informática en la Universidad Estatal de Colorado y coautor del artículo, dijo que incluso si sigues un sitio web de noticias como CNN o Fox, no verás todas las publicaciones de los medios, solo lo que el algoritmo de alimentación cree que maximizará su participación.
“Ni siquiera se trata de la fuente”, explicó Qahri-Saremi. “Se trata de lo que estos algoritmos de alimentación te muestran. Entonces, si simplemente vas a las redes sociales para recibir noticias, lo más probable es que estés muy polarizado. Ves el mundo de manera diferente, porque una gran parte de la imagen, la verdadera imagen del mundo, será eliminada, te quedará enmascarada porque ese es el trabajo de los algoritmos de alimentación”.
Los autores comparan los algoritmos con el personaje de Shakespeare, Yago, que utiliza mentiras y manipulación para engañar a Otelo y obligarlo a asesinar a su esposa.
El documento ilustra cómo las plataformas aprenden sobre los usuarios directamente observando su comportamiento, incluidas las publicaciones con las que pasan tiempo y les gustan, y aprenden sobre los usuarios indirectamente identificando y verificando a los usuarios de la plataforma más similares. Los autores se refieren a él como un “mecanismo de coincidencia” y los usuarios pueden ver sus efectos con sugerencias de plataforma sobre a quién deben seguir o con quién conectarse.
Al ofrecer contenido a los usuarios, las plataformas utilizan la señalización social para impulsar la participación mostrándoles a qué amigos les gustó o comentaron una publicación. Qahri-Saremi señaló que cuando se presenta información errónea, las señales sociales aumentan la probabilidad de que los usuarios interactúen.
“La persona que ve esa información errónea en las redes sociales no es una persona cualquiera, es una persona que el algoritmo ha seleccionado y probablemente le ha añadido algunas señales sociales”, señaló Qahri-Saremi. “Esto aumenta significativamente el poder de este contenido de desinformación”.
Los algoritmos de la plataforma tienen la capacidad de seleccionar entre los muchos millones de contenidos que flotan en las redes sociales y elegir aquellos que impulsan más la participación de los usuarios individuales. Dado que las plataformas de redes sociales se dedican principalmente al negocio de vender publicidad, Qahri-Saremi enfatizó que el tipo de datos granulares que los algoritmos pueden aprender sobre los usuarios los convierte en algunas de las empresas más rentables que existen.
“Éstos son algunos de los mejores algoritmos”, destacó Qahri-Saremi. “Por eso las empresas de redes sociales son tan ricas. Pueden vender anuncios como nadie; pueden personalizar anuncios como nadie más. Por eso ahora se utiliza la misma máquina para difundir información errónea”.
El documento sugirió métodos para combatir la desinformación, entre ellos el uso de un mensaje de “respaldo de precisión” como “Creo que esta noticia es precisa” y conectarlo a la función de compartir.