LA @

ESTHER PANIAGUA, periodista y autora especializada en tecnología

 

En muchos casos, el linchamiento público viene de grupos organizados de usuarios que actúan como trols

Contra el circo del odio

«Cómete un murciélago y muere, perra». Es uno de los mensajes de odio que la viróloga Danielle Anderson recibió tras escribir una crítica de un artículo que sugería que el SARS-CoV -2 podría haber salido de un laboratorio en China. No es, ni mucho menos, la única: alrededor de un 70% de investigadores que durante la pandemia han aparecido en medios de comunicación o en redes sociales ha experimentado consecuencias negativas: acoso online, amenazas de muerte e incluso ataques físicos. Es la conclusión de una encuesta de la revista Nature.

La historia no acaba ahí: muchas reacciones de odio tienen efectos psicológicos como angustia emocional o psicológica. El impacto llega hasta el punto de llevarles a rechazar nuevas intervenciones en medios o de abandonar las redes sociales. Autocensura o, directamente, abandono del debate público cuando más se les necesita. Es algo que no podemos permitirnos.

La exposición pública siempre conlleva, mal que nos pese, cierto riesgo de ataque, que ha aumentado en la era conectada. En un momento en el que la ciencia ha tomado más protagonismo en el debate público, sus representantes tienen más visibilidad en los medios y, por tanto, están más expuestos. También sienten la responsabilidad de comunicar y de colaborar con los periodistas en la verificación de hechos para refutar bulos y contrarrestar la otra pandemia: la de la desinformación.

Es una labor imprescindible y menospreciada. También se politiza, y se usa como arma de guerra entre bandos. En redes sociales, son víctimas del etiquetado rápido y el escarnio. En muchos casos, el linchamiento público viene de grupos organizados de usuarios que actúan como trols: antivacunas, conspiracionistas o partidarios de uno u otro líder o partido político. Les bombardean con amenazas e intentan desacreditarles, difamarles o amedrentarles.

La bilis sale en las redes y parece que no hay nada ni nadie que la pare. Ni siquiera quienes tienen el mando. Varios científicos consultados por Nature enviaron ejemplos a Twitter de los tuits abusivos que estaban recibiendo (incluidas imágenes de cadáveres ahorcados) y la plataforma respondió que estos no violaban sus términos de servicio. Si bien Twitter ha facilitado cierto control a cada persona sobre quién responde a sus mensajes, y cuenta con tecnologías para detectar el lenguaje abusivo, es claramente insuficiente. Además, sus sistemas automatizados son fáciles de evadir.

De Facebook (Meta) ya ni hablamos: la empresa reconoce que «solo puede actuar en menos del 5% de los casos de odio y menos de un 1% de los casos de violencia e incitación a la violencia» que se dan en la plataforma, según documentos internos filtrados por la confidente Francis Haugen. En ellos se advierte: «La desinformación, la toxicidad, y el contenido violento son extraordinariamente prevalentes entre los contenidos que se vuelven a compartir” (los ‘reshares’).

El impacto va mucho más allá del mundo académico. “Tenemos evidencia proveniente de múltiples fuentes de que el discurso de odio, el discurso político divisivo y la desinformación en todas las aplicaciones de Facebook están afectando a sociedades de todo el mundo», dice otro de los documentos filtrados. En efecto, el diseño de estas plataformas amplifica el discurso de odio. Están pensadas para enganchar y recompensan lo viral, pero además permiten el anonimato: el cóctel perfecto. Mucha gente se refugia en esa anonimidad online para decir y hacer cosas que normalmente no haría sin tener que rendir cuentas por ello. Ello se asocia a una proliferación online del comportamiento antisocial y de la violencia gratuita.

Como bien dijo Haugen, los gigantes de internet “están pagando sus ganancias con nuestra seguridad”, anteponiéndolas al bienestar de las personas. Ello es inadmisible, y requiere de una respuesta contundente. El «yo lo paro y no paso» es necesario pero no suficiente. La solución no puede ser, como hasta ahora, poner toda la carga en el lado de los usuarios: desde tratar de ignorar el acoso hasta filtrar y bloquear a los trols o denunciarlos. Es un trabajo inasumible si cada día recibes decenas de amenazas de muerte.

¿Qué hacer? En primer lugar, hay que cambiar los incentivos y forzar al cambio del modelo de negocio de las grandes tecnológicas. Una forma de hacerlo es prohibir la publicidad personalizada y el comercio de datos personales. Es algo que exigen voces como Shoshana Zuboff o Carissa Véliz, y yo misma en Error 404. Un modelo económico legítimo no puede sustentarse en la violación de derechos humanos. En el pasado, economías enteras se basaban en el tráfico de esclavos y eso no fue una razón para no abolir la esclavitud.

También es vital penalizar el diseño adictivo de las aplicaciones. Lo anterior ayudaría, pero no es suficiente, porque incluso si el modelo de negocio cambia pueden seguir teniendo interés en mantener en ellas a las personas la mayor cantidad de tiempo posible, a toda costa.

Hay otras acciones prioritarias, como permitir de forma efectiva y sencilla la portabilidad de datos, contenido y contactos de una plataforma a otra; o como obligar a las grandes empresas digitales a contar con un número suficiente de humanos para responder de forma efectiva a las denuncias de abuso y centralizar dichas denuncias.

Todo esto no será posible desde un solo país. Requiere de una institución supranacional que lo gobierne. Pero además necesitamos poner a la educación en su sitio, especialmente en civismo, ruptura de estereotipos y alfabetización digital. No podemos obviar que buena parte del problema reside en sus deficiencias. Abordarlas fortalecerá cualquier sociedad, no solo en lo digital. Como dijo Confucio: «La educación genera confianza. La confianza genera esperanza. La esperanza genera paz».