El caso de Facebook confirmó que cuando se trata de abordar el problema de las noticias falsas, no hay una solución fácil. Pero con las ideas correctas y un compromiso con el cambio, se puede lograr que el impacto social y político de las plataformas digitales sea seguro para la democracia.
Desde que las elecciones presidenciales de noviembre de 2016 en Estados Unidos resaltaran la vulnerabilidad que tienen los canales digitales con respecto a los proveedores de “noticias falsas”, el debate sobre cómo contrarrestar la desinformación no ha desaparecido.
Hemos recorrido un largo camino durante los ocho meses que han trascurrido desde que los ejecutivos de Facebook, Google y Twitter comparecieran ante el Congreso para responder preguntas sobre cómo las fuentes rusas explotaron sus plataformas para influir en las elecciones. Pero, si hay algo que la búsqueda de soluciones ha dejado en claro, esto es que no existe una solución mágica.
Primero, ¿quién está compartiendo la desinformación? La desinformación difundida por extranjeros puede ser tratada de manera muy distinta, tanto en el ámbito legal como normativo, a la desinformación difundida por los ciudadanos, en especial en Estados Unidos, país que tiene protecciones para la libertad de expresión sin precedentes, así como normas relativamente estrictas con respecto a injerencia extranjera.
Una solución debe considerar al menos cuatro dimensiones
En lugar de una solución integral, lo que se necesita son pasos que aborden el problema desde varios ángulos. El ecosistema moderno de la información requiere un movimiento diferente para “resolver” cada cuadrado individual. Cuando se trata de desinformación digital, se deben considerar al menos cuatro dimensiones.
En Estados Unidos, casos menos sofisticados de intervención extranjera podrían tratarse con una mezcla de procesamiento de lenguajes naturales (PLN) y técnicas de geolocalización para identificar a los actores que trabajan desde fuera del país. Cuando los cambios a nivel de plataforma fallan, se podrían emplear intervenciones gubernamentales más amplias, como por ejemplo, sanciones generales.
En segundo lugar, ¿por qué se comparte la desinformación? La “información errónea” – información inexacta que se difunde involuntariamente – es bastante diferente de la desinformación o propaganda, mismas que se difunden deliberadamente. Evitar que los actores bien intencionados compartan información falsa sin darse cuenta es un tema que podría abordarse, al menos parcialmente, a través de campañas de alfabetización informativa o iniciativas de verificación de hechos. Evitar que los malos actores compartan deliberadamente dicha información es más complicado y depende de los objetivos específicos de dichos malos actores.
Por ejemplo, para el caso de aquellos que están motivados por las ganancias, como los ahora desacreditados adolescentes de Macedonia que ganaron miles de dólares con sitios de “noticias falsas”, las nuevas políticas publicitarias que impiden el avance de modelos de ingresos pueden ser de ayuda. Pero, tales políticas no detendrían a quienes comparten desinformación por razones políticas o sociales. Si esos actores están operando como parte de redes organizadas, puede que sea necesario impedir la operación de toda la red para lograr que las intervenciones sean efectivas.
Tercero, ¿cómo se comparte la desinformación? Si los actores comparten contenido a través de las redes sociales, realizar cambios en las políticas de las plataformas y/o la regulación gubernamental podría ser suficiente. Pero, tales cambios deben ser específicos.
Por ejemplo, para evitar que se usen ‘bots’ - programas informáticos robots que efectúan automáticamente tareas repetitivas a través de Internet- para amplificar el contenido artificialmente, las plataformas pueden requerir que los usuarios revelen sus identidades reales (aunque esto sería problemático en regímenes autoritarios donde el anonimato protege a los defensores de la democracia).
Cambios a las políticas de privacidad de Google y Facebook
Para limitar el proceso de ‘microtargeting’, que es el uso de datos demográficos y de consumidores para predecir sus intereses y conductas con el fin de influir en sus pensamientos o acciones, puede ser necesario que las plataforma tengan que cambiar sus políticas de privacidad y sobre las formas en la que se comparten datos. Los malos actores evitarán rápidamente cualquier cambio que implementen las plataformas digitales.
Existen pocas dudas sobre que las plataformas digitales están mejor equipadas que los reguladores gubernamentales en cuanto a adaptar sus políticas de manera periódica. Sin embargo, las plataformas digitales no pueden gestionar la desinformación por sí solas, sobre todo debido a que, según algunas estimaciones, las redes sociales representan sólo alrededor del 40% del tráfico hacia los sitios de ‘noticias falsas’ más atroces, mientras que el otro 60% llega “orgánicamente” o a través de “redes sociales oscuras” (tales como mensajería o correos electrónicos entre amigos).
¿Cómo identificar “Fake News”?
La dimensión final y la más importante del rompecabezas de la desinformación es: ¿qué es lo que se está compartiendo? Los expertos tienden a centrarse en contenidos completamente falsos, que son los más fáciles de identificar. Pero, las plataformas digitales, naturalmente, tienen incentivos para frenar ese contenido, simplemente porque las personas en general no quieren parecer tontas al compartir historias totalmente falsas.
Sin embargo, a las personas les gusta leer y compartir información que se alinee con sus perspectivas; les gusta aún más si desencadena emociones fuertes , especialmente indignación. Debido a que los usuarios se involucran mucho con este tipo de contenido, las plataformas digitales tienen un incentivo para poner en vitrina este tipo de información.
Dicho contenido no sólo polariza; a menudo, suele ser engañoso e incendiario, y hay indicios de que puede socavar el discurso democrático constructivo. Pero, ¿dónde está la línea entre un desacuerdo peligroso basado en la distorsión y un debate político vigoroso impulsado por visiones del mundo contradictorias? Y, ¿quién, si alguien está en la capacidad de hacerlo, debería ser el encargado de trazar esta línea?
Incluso si se respondieran estas preguntas éticas, identificar el contenido problemático a escala enfrenta serios desafíos prácticos. Muchos de los ejemplos más preocupantes de desinformación se han centrado no en ninguna elección o candidato en particular, sino en explotar las divisiones sociales a lo largo de, digamos como ejemplo, las líneas raciales. Y, a menudo, la difusión de esa desinformación no se compra como publicidad. Como resultado de esto, esta situación no se abordaría mediante las nuevas reglas para regular las campañas publicitarias, que han sido respaldadas tanto por Facebook como por Twitter.
Hay razones para ser optimista
Si las soluciones a la desinformación no están claras en Estados Unidos, la situación es aún más espinosa en el contexto internacional, donde el problema es aún más descentralizado y opaco, otra razón por la cual no es posible llegar a ninguna solución amplia y global.
Pero, si bien cada medida aborda solo un problema estrecho – las políticas publicitarias mejoradas pueden resolver el 5% del problema, mientras que las diferentes políticas sobre micro-focalización pueden resolver el 20% – si se las considera en conjunto, se puede avanzar.
El resultado final será un entorno de información que, si bien va a ser imperfecto, incluirá sólo una cantidad relativamente pequeña de contenido problemático, algo que es inevitable en las sociedades democráticas que valoran la libertad de expresión.
La buena noticia es que los expertos ahora tendrán acceso a datos de Facebook cuya privacidad está protegida con el propósito de que dichos datos les ayuden a comprender (y mejorar) el impacto que tiene la plataforma en las elecciones y en las democracias alrededor del mundo.
Se espera que otras plataformas digitales, tales como Google, Twitter, Reddit y Tumblr, sigan el ejemplo. Con las ideas correctas y un compromiso con el cambio, se puede lograr que el impacto social y político de las plataformas digitales sea seguro para las democracia.
Traducción del inglés: Rocío L. Barrientos
Kelly Born es oficial de programas en la Madison Initiative en la William and Flora Hewlett Foundation.
© Project Syndicate 1995–2018 | Foto: Reuters