Ha reconocido su incapacidad técnica, institucional y legal para identificar, prevenir y exponer la guerra sucia en las campañas políticas, hecha mediante desinformación, troles y bots.
✍🏽RDM
Tal vez sea producto de la brecha digital, que padecen la mayoría de los adultos mayores, pero ante la nueva arena política, el árbitro, es decir, el Instituto Nacional Electoral (INE) ha reconocido su incapacidad técnica, institucional y legal para identificar, prevenir y exponer la guerra sucia en las campañas políticas, hecha mediante desinformación, troles y bots.
Aunque el uso de bots para fines políticos fue detectado en México desde 2016, este tipo de guerra sucia se desarrolló impunemente en los últimos procesos electorales, pero llegó a niveles peligrosos este año con las campañas #NarcoPresidentAmlo y #Narcocandidata, por lo que Morena pidió la intervención del INE.
Sin embargo, el consejo general del INE rechazó, el jueves 14 de marzo, crear el protocolo planteado por Morena, al reconocer que carece de “una estructura adicional que investigue, verifique y constate la existencia de este tipo de campañas, en su caso calumniosas”.
Además de que “no existe una base legal para que el INE identifique, analice o estudie el fenómeno de granjas bots. Es un mecanismo que no tenemos regulado”, dijo la consejera Diana Paola Ravel Cuevas.
Uno de los más conocidos cazadores de bots es el sociólogo Philip Howard, director del Proyecto de Investigación de la Propaganda Computacional de la Universidad de Oxford, que estudió el despliegue de estos robots informáticos para producir propaganda durante la votación del brexit en Gran Bretaña y en las elecciones presidenciales de 2016 en Francia y Estados Unidos.
Al analizar el debate entre Donald Trump e Hilary Clinton, el 26 de septiembre de 2016, el equipo de Howard encontró que el 33% del tráfico en las redes a favor de Trump fue generado por robots y cuentas automatizadas, en hashtags como #AmericanFirst, #MakeAmericaGreatAgain y #NeverHillary, mientras que el porcentaje de Hilary fue de 22%, en etiquetas como #ImWithHer y #Never Trump.
Aunque en un principio se centraron en Twitter, el equipo de Oxford descubrió propaganda computacional – algoritmos al servicio de una agenda política – en Facebook, Instagram, Telegram, YouTube e, incluso en Tinder. “Durante el proyecto, no esperábamos que el problema fuera tan grande”, destacó Howard. “Podemos ver cómo algunos gobiernos, grupos de presión, la extrema derecha y los supremacistas blancos los utilizan para manipular democracias”.
Howard afirma que se necesitan más acciones para contener esas redes de propaganda. “Hemos superado la etapa de autorregulación por parte de la industria. Si las empresas tecnológicas dieran un paso adelante y los gobiernos impusieran multas a los políticos que encargan dichos programas, ese conjunto de iniciativas supondría un gran avance”. Sin embargo, incluso identificar qué cuentas en las redes sociales está automatizadas ha resultado difícil.
En un artículo del New York Times (20 de julio de 2017), Tim Wu, profesor de la Facultad de Derecho de la Universidad de Columbia, señaló que la campaña ideal en contra de los robots debería tener una estrategia donde se combine la tecnología con las leyes.
Un remedio legal sencillo sería una ley “Blade Runner” que vuelva ilegal el despliegue de cualquier programa que oculte su verdadera identidad para hacerse pasar por humano. Los procesos automatizados deberían estar obligados a declrar “Soy un robot”. Si vamos a tener contacto con un humano falso, sería bueno saberlo. RDM