Por qué debe de preocuparnos que expulsen a Parler del internet | Letras Libres
artículo no publicado

Por qué debe de preocuparnos que expulsen a Parler del internet

Ni los gobiernos ni las grandes empresas tecnológicas deberían encargarse de establecer los límites de lo que se considera un discurso admisible en internet. La vía hacia la moderación de contenidos puede ser más democrática.

El verdadero comportamiento inauténtico y coordinado de las redes sociales se hizo muy claro después del ataque al Congreso de Estados Unidos, el pasado 6 de enero. El culpable no es una granja de trolls, ni la influencia del gobierno ruso. Esta vez, el comportamiento inauténtico coordinado proviene de California.

Días después de los hechos ocurridos en Washington, Google y Apple suspendieron a Parler, la plataforma de redes sociales preferida por la llamada alt-right en Estados Unidosa, y le exigieron un "plan para mejorar la moderación de contenido". Poco después Amazon también la suspendió de sus servicios de alojamiento web, debido a "prácticas inadecuadas de moderación de contenido". Okta, una empresa de software de gestión de identidad en San Francisco, California, fue notificada de que Parler tenía una prueba gratuita de su producto, y se apresuró a cancelar el acceso.

La suspensión de Parler debe concernirnos a todos. En lo personal, encuentro deplorable el contenido de los supremacistas blancos y su proliferación en línea, y los ejemplos que he visto en Twitter de comentarios publicados en Parler son alarmantes y perturbadores. Pero como dijo en un comunicado Kate Ruane, abogada de la American Civil Liberties Union (ACLU), “debería preocupar a todo el mundo el que empresas como Facebook y Twitter ejerzan un poder sin frenos para sacar a las personas de plataformas que se han vuelto indispensables para el discurso de miles de millones, especialmente cuando las realidades políticas facilitan esas decisiones". Debería haber maneras de exigir responsabilidad a las plataformas que albergan discursos que incitan al odio. Sin embargo, la justicia no se logra al respaldar los intereses propios de otras empresas.

Este momento constituye un cambio de paradigma en el modo en que se gobierna internet. Sí, ya hemos visto antes que servicios de alojamiento web retiren sus servicios. Cloudflare, por ejemplo, decidió negarle sus servicios a 8chan, el sitio de redes sociales vinculado a los horribles atentados en Christchurch, Nueva Zelanda, y al tiroteo de El Paso, Texas. Sin embargo, esta última jugada muestra cómo las plataformas más grandes que brindan "plazas públicas" e infraestructura digital adoptan medidas simultáneas para centralizar su poder en internet, no solo al establecer líneas claras para el discurso sino también, como dijo el abogado de ACLU Ben Wizner, para quitarle a otros  "las llaves del internet".

Dados los perturbadores desequilibrios de poder que existen respecto a quienes controlan nuestro discurso en línea, ¿quién puede exigir un plan para mejorar la  moderación desde Silicon Valley? ¿Quién le exigió a Facebook una hoja de ruta para mejorar la moderación, después de que la propia empresa admitiera que su aplicación móvil se utilizó para incitar a la violencia y a un genocidio en Myanmar? Google y Apple no eliminaron Facebook de sus tiendas de aplicaciones, a pesar de que en esa red se ha incitado a la violencia una y otra vez. Las plataformas tecnológicas no se apresuraron a bloquear el acceso a YouTube, aun después de que se descubriera que ayudó a radicalizar al perpetrador de los ataques de Christchurch. Ahora que lo pienso, ¿por qué no se bloqueó Twitter en el Google Play Store o en el App Store por permitir que Trump monopolizara sentimientos radicales durante años hasta que se llegó al límite?

Sí, los anunciantes han provocado cambios en la forma en que las grandes empresas tecnológicas entienden las reglas de contenido: YouTube, por ejemplo, cambió sus políticas respecto al extremismo luego de que aparecieran anuncios de grandes corporaciones en junto con material extremista desagradable, lo que provocó un éxodo de anunciantes. Pero, ¿realmente queremos que el ímpetu que lleve a las redes sociales a pensar qué es correcto y justo en la moderación de contenido (estándares que ya son casi imposibles), y su posterior impacto en nuestro discurso en línea, provenga del cálculo económico y de la influencia de los anunciantes?

Lo más aterrador de las exigencias de Google y Apple es que no sabemos qué sigue. Han dicho que Parler debe tener planes de moderación de contenido. ¿Qué pasa si la próxima vez Google y Apple reaccionan ante una plataforma que ya cuenta con un esquema de moderación y políticas de contenido, pero que no son de su agrado? ¿Pueden ejercer presión para que se realicen más cambios, o incluso llegar a exigir que las políticas de otras plataformas imiten las reglas de Google, Facebook y Twitter? Es solo cuestión de tiempo antes de que las grandes empresas tecnológicas simplemente fijen los límites de lo que consideran un discurso admisible para otras plataformas, y si alguna se resiste, sencillamente la saquen de sus tiendas de aplicaciones o le nieguen la infraestructura necesaria para existir en línea.

La izquierda también deberían estar profundamente preocupada por la alarmante decisión que acaba de tomarse. No olvidemos que luego del escándalo y el debate sobre WikiLeaks, Apple retiró una aplicación de WikiLeaks de su App Store y Amazon cortó sus Amazon Web Services para el sitio web de WikiLeaks. En otras palabras, un tema que también dividió a muchas personas según sus ideologías impulsó a las empresas a actuar rápidamente para proteger sus propios intereses, basados en la opinión pública dominante. De hecho, la eliminación de WikiLeaks de estas plataformas vino después de la presión política y la deslegitimación de la misma. En un punto álgido de la controversia,  el propio Joseph Biden, entonces vicepresidente de Estados Unidos, se refirió a Julian Assange, fundador de WikiLeaks, como un "terrorista de alta tecnología". Como escribió Yochai Benkler, profesor de Derecho en Harvard, "los propietarios de las infraestructuras críticas en el entorno de las redes pueden negar el servicio a oradores controvertidos, y algunos parecen estar dispuestos a hacerlo ante el menor tufilllo de controversia pública".

Algunos pueden pensar que todo esto es una prueba de que necesitamos una mayor participación de los gobiernos en la moderación del contenido. Pero esa podría tampoco ser necesariamente la mejor manera de proceder. En Estados Unidos, su modelo de libertad de expresión haría que cualquier intento gubernamental de regular el discurso en línea fuera no solo sumamente difícil, sino abiertamente ilegal. Otros países se han aventurado a distintos niveles en la regulación de la moderación de contenido, aunque estos intentos a menudo han generado críticas significativas por parte de las organizaciones de derechos humanos.

Lo que necesitamos es un verdadero plan para mejorar la moderación de contenido que se aplique a todas las plataformas de redes sociales, un plan que nosotros, como usuarios, podamos emplear para exigir responsabilidad a las plataformas e impedir que las redes sociales más grandes y poderosas establezcan los términos en que todos los demás podemos expresarnos. Esto puede parecer un objetivo elevado e imposible, pero la mayoría de nosotros probablemente usamos a diario una plataforma que es uno de los mayores experimentos de moderación democratizada: Wikipedia. Por supuesto, Wikipedia no es perfecta. Pero su comunidad global de editores tiene la oportunidad de debatir ferozmente y decidir qué información que llega a una página de Wikipedia es veraz, precisa y puede ser citada. Este enfoque descentralizado y democratizado funciona, y otros han pedido que enfoques similares se utilicen para algunas decisiones de moderación en las grandes empresas tecnológicas. Quizá entonces podríamos responsabilizar a Facebook, YouTube, Twitter e incluso a Parler por todas las formas en que se han utilizado sus productos para incitar a la violencia, en línea y en el mundo real.

 

Este artículo es publicado gracias a la colaboración de Letras Libres con Future Tense, un proyecto de Slate, New America, y Arizona State University.

ft logo