Desde Rusia con bots

La posibilidad de que medios y cuentas digitales a las órdenes de Rusia estén interfiriendo en la crisis de Cataluña debe ser descrita con un cuidado extremo. Hay que descubrir a la ciudadanía los nuevos modos de propaganda digital a los que está expuesta pero también evitar que la sombra de El Kremlin se utilice como excusa en aquellos procesos sociopolíticos que se compliquen.

Desde las elecciones ganadas por Donald Trump en noviembre de 2016 la preocupación por la desinformación digital se ha multiplicado. Los medios prestan más atención a bots y perfiles falsos, conceptos que a veces se utilizan de modo equivalente pero no son lo mismo. Los bots (robots) son cuentas automatizadas que se detectan con relativa facilidad pues se dedican a acciones repetitivas como el retuiteo de mensajes específicos; los perfiles falsos o ficticios son cuentas más difíciles de identificar tras las que existen personas reales que fingen ser alguien distinto de quien son. En materia de desinformación, son las más dañinas.

El objetivo oculto de los perfiles falsos suele ser generar discordia y confusión. Se les asocia con trols que insultan e impiden conversaciones pero tienden cada vez más a comportarse de modo contrario: participando en los debates con naturalidad, interactuando con tuiteros influyentes y en definitiva ganando una relevancia y credibilidad que les sirva para infoxicar cuando llegue el momento adecuado. Una misma cuenta puede funcionar a ratos como un bot (programada) y a ratos como perfil falso gestionado por un humano y pagada, en el contexto que nos ocupa, por un partido o gobierno (cuenta títere).

Campañas pseudoespontáneas (astroturfing es su nombre en inglés) y bulos de corte extremista y divisivo plagaron las elecciones ganadas por Trump y se han identificado después en otros comicios europeos (Francia, Alemania). En el caso de EEUU se tiene constancia de que parte de ellos procedieron de cuentas como las anteriormente descritas que se abrieron desde Rusia. Un informe de enero de 2017 de los servicios de inteligencia estadounidenses (ICA 2017 01) atribuía con claridad estos hechos a una campaña de influencia a gran escala ordenada directamente por el presidente Vladimir Putin, aunque no detallaba las pruebas que llevaban a dicha conclusión por motivos de seguridad.

Desde entonces, el debate de hasta qué punto Rusia interfirió en las elecciones espolea la polarización política en Washington. El problema de la propaganda encubierta en redes existe desde hace muchos años y en muchos países, pero lo que interesa ahora es sobre todo dilucidar si se dio una colusión Rusia-Trump para lograr la victoria de este candidato por cualquier tipo de vía, incluida la de la desinformación digital. Varias comisiones del Congreso de EEUU investigan la materia y el fiscal especial Robert Mueller avanza con imputaciones que afectan a miembros del equipo republicano.

Tras un año de acusaciones a Google, Twitter y Facebook por funcionar como autopistas para esas falsedades sin controlar su expansión, el pasado 31 de octubre las tres grandes compañías tecnológicas testificaron ante el Senado de EEUU. La escena se siguió con expectación en las redes ( #TechHearings) sobre todo después de que el día anterior se filtraran los jugosos testimonios preparados por las tecnológicas. Twitter había detectado cerca de 36.000  “cuentas rusas” vinculadas a las elecciones entre septiembre y noviembre de 2016, 2.700 de ellas procedentes de una sola entidad con sede en San Petersburgo conocida por dedicarse a la desinformación, Internet Research Agency (IRA). Google podía confirmar 18 canales de YouTube igualmente relacionados con IRA, mientras que Facebook reconoció que se habían llegado a publicar cerca de 80.000 entradas asociadas a esta entidad en su plataforma entre enero de 2015 y agosto de 2017. Una vez viralizados, se calcula que estos contenidos pudieron llegar hasta a 126 millones de usuarios de la red de Mark Zuckerberg.

Durante las comparecencias, los senadores Martin Heinrich y Angus S. King se interesaron por la posibilidad de que la crisis catalana se hubiese convertido en un nuevo campo de juego digital para Rusia. Heinrich habló de “informaciones sustanciales basadas en fuentes abiertas” que “sugieren que actividades similarmente divisivas pueden estar ocurriendo por ejemplo en la región catalana de España”. Los representantes de Google, Facebook y Twitter no acertaron a comunicar con concreción qué movimientos sospechosos habían detectado en este escenario y si estaban tomando medidas contra ellos. Pese a esa indeterminación la mención a Cataluña ha espoleado las acusaciones de injerencia rusa que ya venían realizando medios españoles y extranjeros (The Washington Post).

La presencia de bots en cualquier diálogo digital sobre el procés es innegable y está a la vista de todos. Puede consultarse la cuenta en Twitter del corresponsal español Javier Albisu (@javieralbisu), que frecuentemente se hace eco de la actividad de estos tuiteros huecos. La campañas rusas de desinformación digital son asimismo innegables y llevan años observándose en numerosos procesos de crisis o cambio político occidental, siendo especialmente persistentes en el este de Europa. Así lo demuestran los detallados boletines del servicio EUvsDisinfo (@EUvsDisinfo). Esta entidad está vinculada al Servicio de Acción Exterior de la Unión Europea y en particular al equipo que combate dentro de ella la propaganda rusa, aunque aclara en su página web que colabora con múltiples expertos externos y que por tanto su boletín no puede tomarse como posición oficial de la UE.

La importancia de la desinformación digital y la propaganda automatizada se analizó en un trabajo de la Asociación de Comunicación Política (ACOP) en 2015. Ya entonces era considerada por algunos centros de estudio internacionales un verdadero reto. Subrayando por tanto la relevancia innegable del fenómeno y dentro de él la especial maestría del Kremlin por su tradicional dominio de la propaganda (Mira Milosevich-Juaristi la ha descrito muy didácticamente para el Real Instituto Elcano), conviene tener en cuenta varios aspectos para evitar una niebla que se está espesando en torno a todo lo que tiene que ver con pseudocampañas digitales, con Rusia y, si no se evita, con el caso catalán:

– El lenguaje. Algunos textos que hacen referencia a la actividad digital rusa emplean expresiones ambiguas. Se dice que los indicios “sugieren”, que usuarios “pudieron quedar expuestos” o se recurre al comodín del ambiguo tiempo verbal “podría”. También se habla de “Rusia” llevando al lector a pensar inevitablemente en su Gobierno, cuando a veces no se ha demostrado que los actores protagonistas de la noticia tengan conexión con el mismo, sino que lo único probado es que comparten nacionalidad o ubicación, y a veces solo afinidad. Se sugiere al lector que haga un esfuerzo extra cada vez que lea sobre estos asuntos para que no se le pase por alto una redacción que en realidad está encubriendo falta de pruebas. Aunque no haya mala intención por parte del periodista que firma la noticia –los medios están haciéndolo lo mejor que pueden para informar sobre estos asuntos– el resultado puede ser confuso.

– Informaciones circulares. Unos medios citan a otros y cuando se sigue el hilo de ese circuito se observa que las fuentes y los datos originales son escasos. Por ejemplo, se mencionan continuamente las “fábricas” o “granjas” de trols rusas al estilo de IRA, oficinas donde la gente es contratada para emitir comentarios falsos en la Red. La expresión en plural es adecuada porque se ha detectado más de un foco ruso dedicado a la generación de pseudocampañas (por ejemplo, el experto en fuentes abiertas Henk van Ess ha desmenuzado con rigor a través de pesquisas digitales el funcionamiento de una fábrica rusa dedicada a apoyar a la extrema derecha alemana). No obstante, por la insistencia creciente a referirse a estas granjas en los últimos meses es conveniente recordar ahora al lector que los datos que aportan muchos medios en algunos artículos se refieren solo a IRA. Incluso el periodista Adrian Chen, que viajó a San Petersburgo en 2015 y describió la actividad de esta “empresa” en el artículo de referencia The Agency, ha aconsejado no magnificar la influencia de estas entidades.

  La mano del Kremlin. El documento de la inteligencia estadounidense que adjudicaba a Putin la iniciativa en la campaña masiva de desinformación electoral –el de mayor rango que se ha dado a conocer sobre este asunto- no puede servir como cobertura para asumir que toda pseudocampaña afín a Rusia o con similar origen geográfico haya sido planificada desde el Kremlin. Los informes de inteligencia no siempre aciertan (sigue muy presente el error de la guerra de Irak) o, incluso cuando aciertan en un escenario concreto, no tienen por qué ser aplicables a todos los casos. Los intereses que tiene el Gobierno ruso en EEUU son mucho más estratégicos que los que tiene en Cataluña.

– Orquestación. Se ha hablado de bots participando intensamente en el debate catalán pero también de la actuación asociada de medios de la órbita rusa como RT y Sputnik. De nuevo las pruebas de esa actividad son abundantes, la mayoría aportadas por la Alliance for Securing Democracy (German Marshall Fund), creada en 2017 a partir del convencimiento de que Rusia intentó “debilitar los pilares de la democracia americana” en los comicios de 2016. Digital Forensic Research Lab (@DFRLab), laboratorio dependiente del think tank estadounidense Atlantic Council y poco sospechoso de filiación rusa, ha investigado la presencia de esas marcas informativas en el debate catalán. Concluye que efectivamente están generando división sobre el procés al emitir información sesgada, pero rechaza que todo corresponda a una campaña orquestada en la que bots y tuiteros influyentes se han unido a esos medios. Es decir, no hay batuta única que vaya de Julian Assange a un medio pro-ruso pasando por una cuenta sospechosa sin foto de perfil: “Quizá la lección clave de esta serie de acontecimientos es la importancia de distinguir entre distintos actores en los flujos de la desinformación digital. Hay una diferencia entre RT y Sputnik en su cobertura de Cataluña. Hay una diferencia entre publicaciones conducidas por el Kremlin, publicaciones alineadas con el Kremlin o pro-Kremlin y publicaciones e individuos cuyos comentarios son de utilidad para el Kremlin. Cualquier acercamiento que no reconozca estas diferencias conducirá probablemente a seguir enlodando un flujo de información que ya es turbio”. La mejor forma de utilizar el anterior párrafo de DFRLab es desvincularlo del ejemplo concreto de Cataluña (aunque se refiere a él) para alejarlo lo máximo posible de la percepción ideológica propia que se tenga sobre este conflicto tan candente. Lo que se sugiere es que el lector lo tenga presente como consejo general cuando reciba información sobre Rusia y la desinformación.

– Los árboles y el bosque. Es necesario alejarse visual y temporalmente de los espectaculares datos que se facilitan. A veces cuando se habla de la enorme cantidad de bots que plagan las redes sociales se olvida precisar que no todos esos bots son malignos (pueden responder a automatizaciones legítimas para anunciar productos o servicios). De forma parecida, las cifras aportadas por Google, Facebook y Twitter sobre usuarios falsos rusos impresionan pero hay que ponerlas en contexto. Los 37.000 usuarios rusos detectados en Twitter con relación a mensajes sesgados en la campaña suponían solo un 0,012% de todas las cuentas abiertas en la plataforma en aquel momento.

– Países e impulsores diversos. Las pseudocampañas digitales no son exclusivas de Rusia o de países autoritarios. En 2015 había 40 estados afectados y desde el año 2010 se han conocido ejemplos en lugares tan distintos como China o Turquía, pero también en México, Colombia o EEUU. Hay actualmente perfiles falsos puestos en marcha por el FBI para detectar partidarios de ISIS en las redes y se decidió el establecimiento de cuentas falsas estadounidenses para difundir propaganda en Oriente Medio en 2011; ha habido bots en la campaña británica sobre el Brexit y los hay desde hace años en procesos electorales españoles. Son de todo signo político, como muestran los trabajos de la iniciativa @Botspoliticosno, y a veces uno empieza una investigación sobre una pseudocampaña pensando que tiene origen en el equipo rojo para acabar descubriendo que la lanzó el equipo azul, o viceversa.

– Los efectos. El potencial de Facebook para influir de modo real en procesos electorales se conoce desde hace media década pero hacen falta muchos más estudios para comprender el impacto real de la propaganda digital encubierta en las creencias y decisiones de cada persona. Es decir, que detectar una actividad foránea de desinformación en una crisis no permite adjudicarla el origen de las protestas, culparla de la polarización existente o endosarla el resultado de unas elecciones. Muchos ciudadanos todavía no están en redes sociales y la psicología de los que están, el modo en que reciben y procesan esos mensajes trucados, no se ha demostrado con exactitud. Algunos internautas se sorprendían estos días al conocer el aspecto extraño o la poca calidad de algunos de los anuncios de factura rusa insertados en Facebook durante las elecciones estadounidenses. En algunos casos ni siquiera queda completamente claro a primera vista a qué partido o iniciativa quieren apoyar. Al verlos, el pensamiento inmediato es que sin duda lograron confundir, pero orientar el voto es otro nivel aún indeterminado.

– Información y seguridad. La profesora Gema Sánchez Medero define la ciberguerra como “una agresión promovida por un Estado y dirigida a dañar gravemente las capacidades de otro para imponerle la aceptación de un objetivo propio o, simplemente, para sustraer información, cortar o destruir sistemas de comunicación, alterar sus bases de datos, es decir, lo que habitualmente hemos entendido como guerra, pero con la diferencia de que el medio empleado no sería la violencia física sino un ataque informático”. Bajo ese prisma, lo que está ocurriendo en estos momentos con Rusia puede inscribirse en el marco de una “guerra de la información” pero encaja más difícilmente en el de una ciberguerra. Ha habido acciones relacionadas con la ciberguerra en las elecciones estadounidenses (penetración en sistemas informáticos, robo de emails de Hillary Clinton) pero una cosa y otra no se deberían confundir y, sobre todo, el lector debería conocer que esta segunda dimensión vinculada al hackeo no se ha probado o al menos difundido públicamente en el caso catalán. Replicar en otros servidores sitios web que hayan prohibido las autoridades (como sucedió con las páginas para votar el 1 de octubre, día del referéndum) no implica la realización de un ataque informático.

Se sospecha que Rusia (el Gobierno ruso) ha recurrido inteligentemente y de manera combinada a todas las opciones –se habla de guerra híbrida- y no es el único Estado que lo hace. Por eso los servicios de inteligencia y los gobiernos de cada país harán bien en observar estos fenómenos poliédricos y prepararse contra ellos entendiéndolos como un todo que incluye la comunicación. Sin embargo, no es aconsejable securitizar -inscribir en el marco de una amenaza para la seguridad o para la ciberseguridad- toda pseudocampaña digital, aunque intervengan en ella actores extranjeros.

La comisión de Medios, Cultura y Asuntos Digitales del Parlamento británico ha solicitado formalmente a Twitter y Facebook explicaciones sobre posibles interferencias de bots en el referéndum sobre el Brexit. Nada impide a parlamentarios españoles pedir el mismo tipo de información sobre el proceso catalán. Por otra parte, sería interesante disponer de más detalles que expliciten hasta qué punto los servicios de inteligencia y el Gobierno de España se han preparado para estas nuevas anomalías digitales haciendo suyas metodologías como el análisis de redes y la inteligencia basada en fuentes abiertas (OSINT). Hace más de una década que EEUU reconoció que la OSINT podía mejorar los informes de sus servicios de espionaje, dedicándole recursos  y un departamento específico. Se han organizado jornadas sobre esta materia con apoyo oficial y en una reciente oferta de prácticas el Instituto Nacional de Ciberseguridad (INCIBE) valoraba a los candidatos con conocimientos de OSINT, pero es borroso hasta qué punto esta disciplina se tiene ya en cuenta y cómo en los distintos servicios vinculados al CNI y en los servicios de seguimiento informativo de La Moncloa.

Estos datos, proporcionados aunque fuese a través de informes cercenados como ICA 2017 01, permitirían evaluar menos emocionalmente si de verdad existe una amenaza rusa en relación con Cataluña y si se han establecido los mecanismos para identificarla y gestionarla, teniendo en cuenta que ya había precedentes de esa supuesta injerencia en Europa. Dando por hecho que las pseudocampañas internacionales continuarán en las redes, el ciudadano se vería menos sobresaltado por sospechas de bots y perfiles falsos y aprendería a identificarlos más fácilmente. Los periodistas informaríamos con un mejor conocimiento de la causa.

Autoría

Dejar un comentario

X

Uso de cookies

Esta página utiliza cookies propias y de terceros para mejorar nuestros servicios y mostrarle información relacionada con sus preferencias mediante el análisis de sus hábitos de navegación. Si continua navegando, consideramos que acepta su uso.. Puede cambiar la configuración u obtener más información aquí.