Las discusiones sobre la desinformación en las redes sociales no avanzan. Hay una manera de cambiar eso. | Letras Libres
artículo no publicado

Las discusiones sobre la desinformación en las redes sociales no avanzan. Hay una manera de cambiar eso.

El debate sobre la lucha contra la desinformación puede ser en sí mismo una zona libre de hechos, con muchas teorías y pocas pruebas. Para superar esto, la ciencia debe tener un lugar.

El 25 de marzo, los directores ejecutivos de Facebook, Google y Twitter testificaron ante el Congreso de Estados Unidos sobre la desinformación en línea. Antes de que la comparecencia iniciara, ya podíamos predecir lo que sucedería. Algunos miembros del Congreso exigirían que las plataformas de redes sociales hicieran más para evitar que las falsedades virales dañen la democracia y provoquen violencia. Otros advertirían que la restricción innecesaria del discurso podría enfadar a ciertos elementos marginales y llevarlos a espacios menos gobernados.

Esta discusión se repite después de cada crisis, desde Christchurch hasta QAnon e incluso la pandemia de covid-19. ¿Por qué no podemos salir de este punto muerto? Porque el debate sobre la lucha contra la desinformación puede ser en sí mismo una zona libre de hechos, con muchas teorías y pocas pruebas. Necesitamos tener un mayor dominio de la materia, y eso significa darle un lugar a los expertos.

Los académicos han pasado décadas estudiando la propaganda y otras artes oscuras de la persuasión, pero la desinformación en línea es un nuevo giro a este viejo problema. Después de la interferencia de Rusia en las elecciones estadounidenses de 2016, este campo recibió una gran inyección de dinero, talento e interés. Ahora hay más de 460 think tanks, grupos de trabajo y otras iniciativas enfocadas en el problema. Desde 2016, esta comunidad global ha expuesto decenas de operaciones de influencia y ha publicado más de 80 informes sobre cómo la sociedad puede combatirlas mejor.

Hemos aprendido mucho en los últimos cuatro años, sin embargo, los expertos son los primeros en admitir cuánto desconocen. Por ejemplo, las verificaciones de información han proliferado y las investigaciones muestran que pueden marcar la diferencia cuando se presentan de la manera correcta. Pero la reciente proscripión del ex presidente de Estados Unidos, Donald Trump, de distintas redes sociales, es una muestra de dónde siguen existiendo brechas. Los efectos a largo plazo de estas expulsiones siguen sin estar claros. Quizá las mentiras de Trump se desvanezcan en el vacío digital, o quizás su papel de mártir en las redes sociales cree una mitología aún más duradera. El tiempo dirá.

¿Cómo es que no podemos saber algo tan básico como si prohibir una cuenta realmente funciona? ¿Por qué las empresas de tecnología más grandes del mundo y los mejores académicos no tienen respuestas más claras después de años de esfuerzo concentrado? Hay dos problemas subyacentes.

El primer desafío son los datos. Para desenredar los complejos factores psicológicos, sociales y tecnológicos que impulsan la desinformación, necesitamos observar a un gran número de usuarios reaccionar ante el contenido malicioso y luego ver qué sucede cuando se introducen contramedidas. Las plataformas tienen estos datos, pero sus estudios internos pueden estar viciados por intereses comerciales y rara vez se revelan al público. La investigación creíble debe realizarse de forma independiente y publicarse de forma abierta. Aunque las plataformas comparten algunos datos con investigadores externos, expertos destacados dicen que el acceso a los datos sigue siendo su principal desafío.

El segundo es el dinero. Se necesita tiempo y talento para producir mapas detallados de las redes sociales o para realizar un seguimiento del impacto que tienen los numerosos ajustes de software de las plataformas. Pero las universidades no suelen premiar este tipo de investigaciones. Eso hace que los investigadores dependan de ayuda económica de corto plazo por parte de un puñado de fundaciones y filántropos. Sin estabilidad financiera, los investigadores luchan por contratar y evitan la investigación a largo plazo y a gran escala. Las plataformas ayudan a financiar parte del trabajo externo, pero esto puede generar la percepción de que se ha comprometido la independencia de las investigaciones.

El resultado neto es un frustrante punto muerto. Mientras la desinformación y la influencia maligna corren desenfrenadas, las democracias carecen de hechos reales para guiar su respuesta. Los expertos han ofrecido una serie de buenas ideas (mejorar la alfabetización mediática, regular las plataformas), pero luchan por validar o perfeccionar sus propuestas.

Afortunadamente, hay una solución, ya que problemas muy similares se han abordado con éxito antes.

En los inicios de la Guerra Fría, el gobierno de Estados Unidos vio la necesidad de un análisis objetivo y de alta calidad de los problemas de seguridad nacional. Comenzó a patrocinar un nuevo tipo de organización de investigación externa, dirigida por organizaciones sin fines de lucro como RAND Corp., MITRE y el Center for Naval Analyses. Estos centros de investigación y desarrollo financiados con fondos federales recibieron dinero e información clasificada del gobierno, pero operaron de forma independiente. Por lo tanto, pudieron contratar personal de primer nivel y publicar investigaciones creíbles, muchas de las cuales no fueron favorecedoras para sus patrocinadores gubernamentales.

Las empresas de redes sociales deberían tomar nota de este manual y ayudar a establecer una organización similar para estudiar las operaciones de influencia. Varias plataformas podrían reunir datos y dinero, en asociación con universidades y gobiernos. Con los recursos adecuados y la independencia garantizada, un nuevo centro de investigación podría abordar de manera creíble preguntas clave sobre cómo funcionan las operaciones de influencia y qué es efectivo contra ellas. La investigación sería pública, omitiendo partes solo como respuesta a preocupaciones legítimas como la privacidad del usuario, no para evitar la mala publicidad.

¿Por qué las plataformas deberían estar de acuerdo con este arreglo? Porque, en última instancia, el que haya reguladores, anunciantes y usuarios enojados es malo para sus negocios. Es por eso que Facebook recientemente gastó 130 millones de dólares para establecer una Junta de Supervisión externa para la eliminación de contenido y se comprometió a seguir sus fallos.

Es cierto que los críticos todavía ven a esa Junta de Supervisión como un ente demasiado dependiente de Facebook. La amarga ruptura de Google con dos investigadores de inteligencia artificial ha amplificado aún más las preocupaciones sobre el control corporativo de proyectos de investigación. Entonces, ¿cómo podría la gente confiar en un nuevo centro de investigación vinculado a las plataformas? El primer paso sería garantizar que un nuevo centro de investigación cuente con el respaldo no solo de múltiples plataformas (en lugar de una sola), sino también de universidades y gobiernos.

De igual manera, se podrían legislar más protecciones. Hay un movimiento en ascenso para actualizar la Sección 230, la ley federal de Estados Unidos, que brinda a las plataformas sus limitaciones de responsabilidad más importantes. Hasta el director ejecutivo de Facebook, Mark Zuckerberg, ha respaldado condicionar estas limitaciones a una mayor "transparencia, responsabilidad y supervisión" de las empresas de tecnología. Un paso práctico en esta dirección sería exigir que las plataformas compartan datos con un centro de investigación independiente y mantengan una relación cooperativa y de plena competencia con sus investigadores.

La desinformación y otras operaciones de influencia se encuentran entre los mayores desafíos que enfrentan las democracias. No podemos quedarnos quietos hasta que comprendamos completamente esta amenaza, pero tampoco podemos seguir volando a ciegas para siempre. La batalla por la verdad requiere que nos armemos de conocimiento. El momento para comenzar es ahora.

 

Este artículo forma parte del Free Speech Project, una colaboración entre Future Tense y el Tech, Law, & Security Program del Washington College of Law de la American University, en el cual se revisan las formas en que la tecnología influye en nuestra manera de pensar acerca del lenguaje.

Este artículo es publicado gracias a una colaboración de Letras Libres con Future Tense, un proyecto de SlateNew America, y Arizona State University.