Noticias falsas, algoritmos y ‘bots’ en tu pantalla

A finales de 2016, el diccionario Oxford seleccionó el neologismo ‘posverdad’ como palabra del año. Un sustantivo que hace relación o denota circunstancias en las cuales los hechos objetivos tienen menos influencia en la opinión pública que las apelaciones a las emociones y a las creencias personales. En este término, el prefijo ‘pos’ se refiere indirectamente a la irrelevancia de la verdad. Esta circunstancia se ha relacionado con el aumento de la desinformación en internet, hecho que ha sido identificado por el Foro Económico Mundial como una de las amenazas que enfrenta la sociedad a nivel global.

Sandra Álvaro

La desinformación en las redes se relaciona con la constatación de que en la web una falsedad tiene las mismas posibilidades de hacerse viral que un hecho real. Esto se ha atribuido a la creación de cámaras de resonancia y al uso de bots para promocionar campañas dentro de las redes sociales.
Las cámaras de resonancia se producen por una combinación de factores psicológicos y tecnológicos. Las personas tenemos tendencia a buscar y compartir información que refuerza nuestros prejuicios. Esta tendencia es mayor dentro de la web social debido la aplicación de algoritmos de filtrado. Internet se ha convertido en un medio masivo, la plataforma Facebook cuenta con más de 23 millones de usuarios en España.
Los contenidos y actividades de este gran número de usuarios dan lugar a una información masiva que solo puede ser administrada de modo automatizado, mediante el empleo de algoritmos inteligentes. Facebook, basándose en la premisa del atractivo —dar a sus usuarios lo que quieren—, registra las actividades de sus usuarios como likes, proximidad con sus contactos, contenido de sus posts y fotografías, y los analiza para filtrar los contenidos que aparecen en sus muros de notificaciones: mostrando aquellas informaciones que se ajustan más al perfil que el cálculo algorítmico ha realizado del usuario y dando prioridad a los posts de usuarios con los que interactuamos más menudo o aquellos que citan o hacen referencia a temas sobre los que hemos publicado anteriormente.
Además de los problemas ligados a la privacidad y explotación económica de datos personales que comporta esta monitorización, esta produce una clasificación homofílica en que los usuarios con intereses comunes son segregados en grupos, o comunidades de interés polarizadas. Burbujas en las que solo tenemos acceso a las informaciones que nos son más afines y que funcionan como cámaras de resonancia en que los prejuicios se refuerzan y en que las narraciones sesgadas y rumores se extienden rápidamente a expensas de la calidad de la información.
Simular ser humanos
Los bots son programas informáticos que se infiltran en las redes sociales, produciendo contenido e interactuando con los humanos de modo automatizado y simulando su conducta. Estos pueden controlar una cuenta de usuario a través del API o interfaz de programación de aplicaciones para llevar a cabo tareas simples, postear automáticamente la información generada en una web, por ejemplo el pronóstico del tiempo. Sin embargo, el uso de algoritmos inteligentes, capaces de analizar texto y elaborar patrones de conducta, ha dado lugar a bots más complejos y difíciles de detectar.
Los bots pueden buscar información en la web para rellenar sus perfiles con información verídica, y postear este material recolectado en esquemas de tiempo predeterminados que imitan las costumbres humanas. Así como usar patrones de reconocimiento de lenguaje natural para generar conversaciones con humanos, comentando sus posts y contestando sus cuestiones.
Algunos incluso están programados para incrementar su influencia buscando personalidades en la web a las que seguir e infiltrándose en discusiones, en las que identifican palabras clave para generar contenidos apropiados. Estos bots inteligentes pueden ser empleados para alterar, manipular y explotar el tráfico de información en las redes sociales.
Los ‘bots’ son programas informáticos que se infiltran en las redes sociales produciendo contenido y simulando la conducta humana
En nuestra sociedad conectada, en que muchas actividades humanas se llevan a cabo en línea, estos bots pueden infiltrar e influenciar el discurso político y difundir desinformación. Se ha calculado que en Twitter existe entre un 9% y un 15% de cuentas falsas.
Aunque este número sea significativamente inferior al número de humanos, la gran actividad de estos usuarios automatizados y el hecho de que muchas veces trabajan coordinados en redes los hace capaces de distribuir desinformación a un ritmo acelerado y con un amplio alcance, lo que además es facilitado por el hecho de que solemos considerar el tener un número de contactos elevado como un valor, por lo que tendemos a aceptar amigos y seguir a nuestros seguidores de modo acrítico.
Susceptible de empeorar
El Pew Research Centre, dedicado al estudio de los medios sociales, ha organizado recientemente un panel de expertos para determinar la posibilidad de mejorar esta situación en los próximos diez años. De los asistentes solo un 49% respondió que el entorno informativo iba a mejorar, en contra de los argumentos de los partidarios del no, que consideran que las noticias falsas se sustentan en los instintos de lucha por el poder, inherentes al ser humano, así como en la dificultad para adaptarnos al ritmo acelerado al que progresa la tecnología.
Los asistentes más optimistas confían en el desarrollo de soluciones tecnológicas y la capacidad del ser humano para colaborar y adaptarse a los cambios. La desinformación y los malos actores siempre han existido, pero han podido ser marginalizados por los buenos actores, que pueden trabajar conjuntamente para mejorar el entorno informacional. La educación puede incrementar la capacidad de las personas de juzgar la veracidad de los contenidos e intervenir positivamente en las discusiones.
Entre las soluciones tecnológicas encontramos una serie de herramientas dirigidas a ayudar a usuarios y profesionales para detectar actores y contenidos dañinos. Entre ellas el Botometer desarrollado por el Observatorio de Medios Sociales (OsoMe) de la Universidad de Indiana. Esta herramienta, disponible en la web, implementa aprendizaje automático (ML) para distinguir si un usuario de Twitter es un bot.
Trails of Propagation, un proyecto del laboratorio de informática social de Wellesley, permite rastrear la propagación de una información en Twitter para determinar su veracidad, empleando técnicas de análisis de redes, y Ushahid Swift River es una herramienta abierta y colaborativa en que varios usuarios pueden comprometerse en la verificación de hechos.
Web rota
La proliferación de noticias falsas es uno de los factores que han llevado a determinar que internet está rota, e incluso en peligro de extinción. La centralización en unas cuantas compañías y la creciente implementación de aplicaciones de inteligencia artificial para anticiparse a nuestras necesidades están limitando la diversidad de la web, no solo de acceso, sino de publicación.
Las tecnologías que subyacen al funcionamiento de la web cada vez son menos transparentes y comprensibles; no solo no tenemos control sobre nuestros datos, sino que nuestra participación en el mundo digital está mediada y condicionada por algoritmos de los que desconocemos su funcionamiento e incluso su existencia.
Sin embargo, todo y que su propagación es más intensa en este medio, las noticias falsas no solo se producen en internet, sino que se generan e interpretan en situaciones políticas y culturales concretas, por lo que un uso responsable de este medio requiere mirar más allá del mismo y valorar el contexto al que responde una información antes de compartirla.
Algunas recomendaciones para no caer en las redes de desinformación empezarían por comprobar la fiabilidad de la fuente, no dejarse impresionar por titulares emotivos y leer una noticia antes de compartirla. Comprobar que las fotografías no son montajes y realmente corresponden al hecho que ilustran. Seguir y comprometernos con las informaciones que compartimos y distinguir entre la sátira, la opinión y las noticias. Lo más importante: una información que no puede ser verificada, es decir, que no muestre sus fuentes, documentación y dé nombres y referencias comprobables que apoyen los hechos, no es verdadera.
Fuente: https://www.elsaltodiario.com/tecnologia/noticias-falsas-algoritmos-y-bots-en-tu-pantalla - Imagen: Emojis en acción. Arte El Salto - Imagenes: ‪Marketing4eCommerce‬ - ‪BBVA OpenMind‬

Entradas populares de este blog

Científicos declaran oficialmente el fluoruro (flúor) como una neurotoxina

Francia: ‘Mi orina contiene glifosato, ¿y la tuya?’ Denuncia contra el polémico herbicida

Japón decidió deshacerse de todos los hornos de microondas en el país antes de finales de este año