La información errónea sobre el COVID es un riesgo para la salud: las empresas tecnológicas deben eliminar el contenido dañino, no modificar sus algoritmos

Muchos en todo el mundo ahora han contraído COVID. Pero durante la pandemia es probable que muchos más se hayan encontrado con algo más que se ha estado propagando viralmente: información errónea. La información falsa ha plagado la respuesta de COVID, convenciendo erróneamente a las personas de que el virus no es dañino, de los méritos de varios tratamientos ineficaces o de los peligros falsos asociados con las vacunas.

A menudo, esta información errónea se propaga a través de las redes sociales. En el peor de los casos, puede matar personas. La Royal Society del Reino Unido, teniendo en cuenta la magnitud del problema, ha convertido la información en línea en el tema de su último informe. Esto presenta argumentos sobre cómo limitar los daños de la desinformación.

El informe es una declaración ambiciosa que cubre todo, desde videos falsos hasta teorías de conspiración sobre la fluoración del agua. Pero su cobertura clave es la pandemia de COVID y, con razón, la cuestión de cómo abordar la información errónea sobre COVID y las vacunas.

Aquí, hace algunas recomendaciones importantes. Estos incluyen la necesidad de brindar un mejor apoyo a los verificadores de datos, prestar mayor atención al intercambio de información errónea en plataformas de mensajería privada como WhatsApp y fomentar nuevos enfoques para la alfabetización mediática en línea.

Pero la recomendación principal, que no se debe exigir a las empresas de redes sociales que eliminen contenido que es legal pero dañino, sino que se les pida que modifiquen sus algoritmos para evitar la propagación viral de información errónea, es demasiado limitada. Tampoco es adecuado para la comunicación de salud pública sobre COVID. Hay buena evidencia de que la exposición a la información errónea sobre las vacunas socava la respuesta a la pandemia, lo que hace que las personas sean menos propensas a ser vacunadas y más propensas a disuadir a otros de vacunarse, lo que cuesta vidas.

El problema básico, algunos dirían insuperable, con esta recomendación es que hará que la comunicación de salud pública dependa de la buena voluntad y la cooperación de las empresas con fines de lucro. Estas empresas están poco motivadas para abrir sus datos y procesos, a pesar de ser infraestructuras de comunicación cruciales. La búsqueda de Google, YouTube y Meta (ahora el paraguas de Facebook, Facebook Messenger, Instagram y WhatsApp) tienen un dominio sustancial del mercado en el Reino Unido. Este es poder real, a pesar de las afirmaciones de estas empresas de que son meras «plataformas».

Una persona que le gusta algo en Facebook en su teléfono
Es poco probable que las empresas tecnológicas inviten voluntariamente a personas externas a examinar sus algoritmos.
Wachiwit/Shutterstock

Los modelos comerciales de estas empresas dependen en gran medida del control directo sobre el diseño y la implementación de sus propios algoritmos (los procesos que utilizan sus plataformas para determinar qué contenido ve cada usuario). Esto se debe a que estos algoritmos son esenciales para recopilar datos de comportamiento masivos de los usuarios y vender el acceso a esos datos a los anunciantes.

Este hecho crea problemas para cualquier regulador que quiera idear un régimen eficaz para hacer que estas empresas rindan cuentas. ¿Quién o qué será responsable de evaluar cómo, o incluso si, sus algoritmos están priorizando y restando prioridad al contenido de tal manera que mitigue la propagación de información errónea? ¿Se dejará esto en manos de las propias empresas de redes sociales? Si no, ¿cómo funcionará esto? Los algoritmos de las empresas son secretos comerciales celosamente guardados. Es poco probable que quieran abrirlos al escrutinio de los reguladores.

Las iniciativas recientes, como la contratación de verificadores de datos por parte de Facebook para identificar y moderar la información errónea en su plataforma, no han implicado la apertura de algoritmos. Eso ha estado fuera de los límites. Como ha dicho el principal verificador de datos independiente Full Fact: “La mayoría de las empresas de Internet intentan utilizar [artificial intelligence] para escalar la verificación de hechos y ninguno lo está haciendo de manera transparente con una evaluación independiente. Esta es una preocupación creciente”.

Además, los algoritmos de ajuste no tendrán un impacto directo en la información errónea que circula en aplicaciones de redes sociales privadas como WhatsApp. El cifrado de extremo a extremo en estos servicios tremendamente populares significa que las noticias e información compartidas están fuera del alcance de todos los métodos automatizados de clasificación de contenido.

Una mejor manera de avanzar

Exigir a las empresas de redes sociales que eliminen la información científica errónea dañina sería una mejor solución que los ajustes algorítmicos. Las principales ventajas son la claridad y la rendición de cuentas.

Los reguladores, los grupos de la sociedad civil y los verificadores de datos pueden identificar y medir la prevalencia de la información errónea, como lo han hecho hasta ahora durante la pandemia, a pesar de las restricciones de acceso. Luego, pueden pedir a las empresas de redes sociales que eliminen la información errónea dañina en la fuente, antes de que se extienda por la plataforma y desaparezca de la vista del público en WhatsApp. Pueden mostrarle al mundo cuál es el contenido dañino y argumentar por qué debería eliminarse.

Una persona usando WhatsApp
La eliminación de contenido de las plataformas sociales debería disminuir la cantidad de información errónea compartida en las plataformas de mensajería.
Rahul Ramachandram/Shutterstock

También hay implicaciones éticas de permitir a sabiendas que la información errónea dañina para la salud circule en las redes sociales, lo que nuevamente inclina la balanza a favor de eliminar el mal contenido.

El informe de la Royal Society argumenta que modificar los algoritmos es el mejor enfoque porque restringirá la circulación de información errónea dañina a pequeños grupos de personas y evitará una reacción violenta entre las personas que ya desconfían de la ciencia. Sin embargo, esto parece sugerir que la información errónea sobre la salud es aceptable siempre que no se extienda más allá de los grupos pequeños. Pero, ¿qué tan pequeños deben ser estos grupos para que la política se considere un éxito?

Muchas personas expuestas a información errónea sobre las vacunas no son antivacunas comprometidas políticamente, sino que buscan en línea información, apoyo y garantías de que las vacunas son seguras y efectivas. Es más probable que la eliminación de contenido dañino tenga éxito en la reducción del riesgo de que esas personas encuentren información errónea que podría dañar seriamente su salud. Este objetivo, sobre todo, es el que debemos priorizar.


Source link

Acerca coronadmin

Comprobar también

Covid, due vittime in Trentino (una donna non ancora 50enne) e boom di ricoveri – Cronaca

TRENTO. Purtroppo il Covid causa altre due vittime in Trentino: un uomo ultra novantenne e una …

Deja una respuesta

Tu dirección de correo electrónico no será publicada.