La explosión de las redes sociales y la torre de Babel | Letras Libres
artículo no publicado

La explosión de las redes sociales y la torre de Babel

La preocupación por lo que se dice en los medios de comunicación no es nueva, pero la explosión de las redes sociales y su lugar central como escenario de confrontación de ideas le ha dado importancia renovada. En todo el mundo se busca determinar si se debe regular el contenido que se transmite a través de ellas, y quién debe hacerlo.

La revolución tecnológica, la explosión de las redes sociales, el monopolio de la información, la búsqueda incesante de beneficios a través de la publicidad, la desregulación, entre otros elementos, son ingredientes del diálogo de sordos que transcurre en distintos países en estos momentos.

Un par de datos sirven para entender la forma en que actualmente se transmite la información y sugerir la magnitud de desinformación que se produce. Más del 40% de los adultos de ese país se enteran de las noticias a través de Facebook (es la plataforma digital más usada para este propósito) y, en el mundo, se emiten 500 millones de mensajes por Twitter al día. En ambos casos se trata de dos inmensos monopolios que dominan las comunicaciones.

Quizás lo hemos olvidado, pero, históricamente, en Estados Unidos ha habido una fuerte preocupación ante el posible manejo sesgado de la información, por lo menos desde principios del siglo pasado. En 1926, a propósito de las licencias para la operación de estaciones de radio, el congresista Luther Johnson de Texas manifestó: “El pensamiento y la política estadounidenses estarán en gran medida a merced de aquellos que operen estos canales [de radio]. [Si] se le permite tan solo a un grupo egoísta […] dominar estas estaciones de radiodifusión en el país, entonces ay de quienes se atrevan a diferir de ellos”.

En 1927, Luther dejó una huella importante en la formulación de la Ley de Radio de ese país, en la cual se estableció que la Comisión Federal de la Radio solo daría licencias de radiodifusión a las estaciones radiofónicas que sirvieran a “la conveniencia, los intereses y la necesidad pública”.

El espíritu neutral, ecuánime, que se esperaba de los medios de comunicación quedó plasmado en forma elocuente en la “Fairness doctrine” de 1949. La Comisión Federal de Comunicaciones (FCC) daría licencias a cambio de que las radiodifusoras cumplieran con ciertas obligaciones en pos del bien público. Como su nombre lo indica, esta doctrina tenía el propósito de asegurar que se transmitieran una diversidad de visiones, además de las del beneficiario de la licencia de radio. Para ese fin, la doctrina requería que las estaciones dedicaran una parte de su tiempo aire a la discusión de temas controvertidos de interés público y que presentaran posiciones contrastantes al hacerlo.

Pese al loable espíritu de la doctrina, convertida en ley en 1959, en la práctica diversos gobiernos forzaron la mano en uno u otro momento para promover más de la cuenta sus propias agendas; tal fue el caso de la guerra de Vietnam durante el gobierno de Richard Nixon.

La doctrina se vino abajo durante la presidencia de Reagan, cuando se barrió con las regulaciones en muchas esferas. Se alegó que la doctrina inhibía el derecho a la libre expresión y le daba al gobierno un cierto control sobre las estaciones y canales de comunicación, al tiempo que limitaba el debate. También se argumentaba que ya no era necesaria esta regulación porque había diversidad de medios gracias al creciente número de canales (de radio y TV), por lo que el público podía conocer muchos puntos de vista. En 1987, en efecto, había más de mil 300 estaciones de TV y más de 10 mil estaciones de radio en Estados Unidos. Se pasó entonces de considerar a los medios de difusión como responsables de asegurar la pluralidad en el discurso, a concebirlos dentro de un mercado donde la competencia define mayormente su comportamiento.

La Fairness doctrine fue revocada en 1987. Poco se anticipaba que, paradójicamente, la posibilidad de asimilar y reflexionar sobre distintos puntos de vista sería olímpicamente desaprovechada por millones y millones de ciudadanos estadounidenses. El profundo sesgo informativo de muchos medios y la incapacidad del público para nutrirse de diversos y variados canales de información y formarse una idea equilibrada de la realidad, impulsaron intentos fallidos de restituir la doctrina, aun si esta, como se ha visto, no era garantía absoluta de neutralidad.

Algunos aspectos de la doctrina que habían sobrevivido después de 1987, fueron eliminados en 2000. Primero, la regla sobre los ataques personales, que establecía que  si una persona, o grupo de personas, era atacado durante una transmisión, se le debía notificar en el  lapso de una semana, enviársele las transcripciones del programa y se le otorgaba una oportunidad de réplica. Segundo, la “política editorial”, que consistía en que, si un emisor respaldaba a un candidato específico en una campaña política, tenía que darle a los demás candidatos para el mismo cargo la oportunidad de responder a través del mismo medio. Y vaya que se extrañan estas reglas. Con su eliminación se abrió el camino a formas más tendenciosas de entregar la información. La violencia verbal y el sesgo en la cobertura de campañas políticas se han profundizado tremendamente en los últimos 20 años en Estados Unidos.

Luego vinieron el internet y la explosión de las redes sociales. Hoy,  todos los que participamos en ellas podemos convertirnos en creadores de contenido, voceros o promotores de noticias. En 2020 había 2.7 mil millones de usuarios de Facebook en el mundo y 340 millones de usuarios de Twitter. Donald Trump figuraba como una de las personas con mayor número de  seguidores a través de este último medio (88 millones de seguidores) antes de que su cuenta fuera suspendida.

Actualmente ningún medio de comunicación – TV o radio - ni las redes sociales están obligadas a mostrar más de un punto de vista acerca de cualquier tema y todos los ciudadanos tienen, naturalmente, el derecho de seguir las redes que les parezcan más convincentes e idóneas de acuerdo con sus creencias. Por esto, muchas personas no reconocen una realidad diferente a la que “siguen” en redes y medios. Derivado de lo anterior, las posturas del público en Estados Unidos se han ido radicalizando y el conjunto de medios –periódicos, TV, radios, redes sociales– operan como cajas de resonancia de estas visiones polarizadas. Un tuit flamígero puede ser retransmitido inmediatamente por todos los medios y tener una difusión a escala geométrica. Con ello se ha creado un tremendo obstáculo al diálogo en la sociedad.

El problema es aún más grave porque a través de las plataformas no solo se expresan opiniones y se divulga información, sino que además se pueden organizar reuniones virtuales y coordinar acciones conjuntas, como manifestaciones o, incluso, actos terroristas.

No puede ignorarse, por otra parte, que las plataformas, además de ser un vehículo de transmisión de todo lo mencionado, son empresas con intereses propios fuertes. Es fundamental para ellas atraer a la mayor audiencia posible pues, a su vez, eso acerca a los publicistas que las financian. ¿Será por esta razón que plataformas como Facebook siguieron alojando, durante varias horas, las diversas transmisiones que desde el Capitolio hacían tanto los medios de comunicación tradicionales como los propios manifestantes que efectuaban el asalto al Capitolio, pues estaban generando ganancias adicionales? Pasada la intensidad del momento, estas plataformas tomaron medidas para acallar los llamados a la violencia del presidente de Estados Unidos, una acción que ha sido aplaudida por unos y condenada por otros. Todo esto muestra que, a final de cuentas, la decisión sobre qué transmitir en las redes sociales y qué no queda en manos de gigantes tecnológicos particulares con fines de lucro. ¿Con qué criterio, pues, lo hacen y qué tan eficaces son para filtrar lo que transmiten?

No se puede negar que las principales plataformas digitales tratan de moderar los contenidos, a diferencia de plataformas alternativas más pequeñas que ejercen menor control sobre lo que quieren expresar sus usuarios, como Parler. Facebook emplea aproximadamente a 15 mil personas, mediante terceras empresas, para moderar contenido, además de entrenar robots para descartar los mensajes, publicidad, información inadecuada. La empresa cuenta con estándares para revisar la información que transmite, que se enfocan principalmente en discursos de odio, seguridad infantil y terrorismo. La intención de Facebook al evaluar los contenidos, según Mark Zuckerberg, es permitir que la gente se exprese en la medida en que no atente contra la seguridad de las personas, y afirma que la empresa es políticamente neutral. Esto último no es realmente cierto porque ha mostrado su predilección por el partido Demócrata, como evidencia el hecho de que en 2020 Facebook donó casi seis millones de dólares a los demócratas, en contraste a los 767 mil dólares que dio a los republicanos, entre varias otras acciones. Sin embargo, también se le ha señalado que el algoritmo de la plataforma favorece la difusión de contenido de orientación conservadora.

Independientemente del sesgo que puedan tener Facebook y demás plataformas, hay que reconocer que su capacidad para evaluar millones y millones de programas, noticias y otros mensajes es forzosamente limitada y sesgada porque, primero, los robots y los evaluadores contratados, quienes en general no cuentan con la capacidad ni el entrenamiento necesario, no pueden hacer todo ellos mismos. Segundo, no existe nada que sea realmente neutral y efectivo, pues todos los humanos tienen algún tipo de sesgo al evaluar directamente el contenido o al entrenar a los robots para filtrar la información indeseada.

La legislación actual en Estados Unidos tampoco ayuda a orientar la acción moderadora de los medios. La libertad de difundir casi cualquier contenido es muy amplia gracias a la controvertida sección 230 del Communications Decency Act (1996), que provee inmunidad a los operadores de sitios web frente a posibles demandas del público respecto a los contenidos que puedan transmitir que provengan de terceras partes, pues dicha difusión solo se considera un servicio. Sin embargo, se han ido estableciendo excepciones básicas a esta regla, por las que se prohíbe la violación de derechos de autor, la transmisión de cierto material pornográfico y de contenidos que violen la ley federal penal.

Al mismo tiempo, la misma sección 230 no impide que las compañías privadas de internet creen sus propias reglas para restringir el contenido de terceros. Por este motivo Facebook, Twitter y YouTube (entre otras) han prohibido los discursos de odio, o incluyen advertencias al transmitirlos en sus plataformas, a pesar de que la Primera Enmienda de la Constitución de Estados Unidos permite estos mensajes. Pero la forma en que lo hacen, como ya mencionamos, difícilmente puede ser neutral.

En este mar de opiniones, información, noticias verdaderas o falsas, hay una manifestación cada vez más apasionada de posturas absolutamente contrastantes respecto al internet: los que consideran que este es demasiado permisivo y los que consideran que es demasiado restrictivo. Estamos frente a un problema explosivo que promete serlo aún más a medida que la tecnología haga mayor eco de las opiniones a través de un creciente número de medios, sin que haya una arena de diálogo a la vista; peor aún, sin que avance la convicción de que se trata de un espacio público, cuyas reglas de manejo requieren de un consenso amplio que no puede dejarse al arbitrio de las empresas privadas que lo explotan comercialmente.

Si bien muchos respiramos con alivio cuando Facebook, Google, Twitter y otras grandes empresas monopólicas (posiblemente en forma coordinada) cerraron las cuentas de Donald Trump y varios de sus seguidores de las redes sociales, por la amenaza a la paz contenida en sus mensajes, no debemos perder de vista que estas grandes empresas tienen en los hechos el poder de acallar a las autoridades máximas de un país, y mañana podrían hacerlo con dirigentes con los que simpatizamos.

El posible control de contenidos en las redes sociales también se ha discutido recientemente en México. El 9 de febrero, el senador Ricardo Monreal hizo pública una propuesta que enviará al Congreso para modificar la Ley Federal de Telecomunicaciones y Radiodifusión con el propósito de que las plataformas digitales no tengan la última palabra sobre lo que se puede difundir o no en redes sociales. Su argumento es que las plataformas son empresas privadas que tienen demasiado poder y pueden coartar arbitrariamente la libertad de expresión de la población. Como estas empresas –Facebook, Twitter, YouTube, etc.– hacen uso de redes públicas de telecomunicaciones para esparcir la información, Monreal propone que el Instituto Federal de Telecomunicaciones (IFT) sea la última instancia de decisión sobre el cierre de cuentas o censura de contenidos.

En un artículo periodístico reciente, Monreal menciona que países como Francia y Alemania han elevado los niveles de exigencia a las plataformas digitales para que mejoren y agilicen el control que hacen de su contenido, y sugiere que México iría en la misma dirección con esta nueva iniciativa. Sin embargo, los países europeos no han trasladado dicha responsabilidad a las instituciones gubernamentales. La Digital Services Act propuesta por la Comisión Europea en diciembre de 2020 regularía mucho más que ahora a las plataformas para restar arbitrariedad a sus decisiones, pero continuarían siendo estas empresas las que decidirían sobre contenidos. La propuesta de Monreal para limitar el caos de las redes sociales en el caso de México no parece ser una solución al reto de cómo transmitir la información de manera neutral y equilibrada, pues al pasar a manos del Estado todo queda nuevamente sujeto a un filtro de dudosa independencia. Así pues, el complejo problema de la desinformación, la polarización y las formas adecuadas de moderar contenidos no parece tener una solución clara y de aceptación unánime. Es un desafío cuya respuesta está pendiente.

 

 

La autora agradece los muy útiles comentarios de Natalia Valdés Schatan, aunque es la única responsable del contenido de este artículo.