Inicio / Tecnologia / Redes sociales: ¿Cómo se podría regular?

Redes sociales: ¿Cómo se podría regular?

Logos de redes sociales

Varios países de todo el mundo están considerando la posibilidad de regular las redes sociales, pero ¿cómo sería eso?

Un nuevo informe ha presentado una serie de ideas que, según sus autores, podrían poner fin al «caos informativo que representa una amenaza vital para las democracias».

Una de sus sugerencias es que se debería exigir a las redes sociales que divulguen detalles de sus algoritmos y funciones básicas a investigadores de confianza, para que la tecnología sea examinada.

También sugiere agregar «fricción» al intercambio en línea, para evitar la propagación desenfrenada de desinformación.

El informe fue publicado por el Foro para la Información y la Democracia , que se estableció para hacer recomendaciones no vinculantes a 38 países. Incluyen Australia, Canadá, Francia, Alemania, India, Corea del Sur y el Reino Unido.

Entre los que contribuyeron al informe se encontraban el denunciante de Cambridge Analytica, Christopher Wylie, y el exinversor de Facebook Roger McNamee, un crítico de la red social desde hace mucho tiempo.

También se consultó al grupo de libre expresión Artículo 19 y a grupos de derechos digitales, incluida la Electronic Frontier Foundation.

¿Qué sugiere el informe?

Una de las recomendaciones principales es la creación de un «código de construcción legal», que describe los requisitos obligatorios de seguridad y calidad para las plataformas digitales.

«Si tuviera que producir un electrodoméstico de cocina, tendría que hacer más pruebas de seguridad y pasar por más procedimientos de cumplimiento para crear una tostadora que para crear Facebook», dijo Wylie a la BBC.

Dijo que se debería exigir a las redes sociales que sopesen todos los daños potenciales que podrían causar sus decisiones de diseño e ingeniería.

Christopher Wylie
captura de imagenChristopher Wylie reveló cómo Cambridge Analytica utilizó los datos de Facebook de millones de personas para campañas específicas

El informe también sugiere que las redes sociales deberían mostrar una corrección a cada persona que estuvo expuesta a información errónea, si los verificadores de hechos independientes identifican una historia como falsa.

Otras sugerencias incluyen:

  • Implementar «disyuntores» para que el contenido viral nuevo se detenga temporalmente y no se propague mientras se verifican los hechos.
  • Obligar a las redes sociales a revelar en el servicio de noticias por qué se ha recomendado contenido a un usuario.
  • Limitar el uso de mensajes publicitarios de micro-focalización.
  • Hacer ilegal la exclusión de personas del contenido por motivos de raza o religión, como ocultar un anuncio de habitación libre a personas de color.
  • prohibir el uso de los llamados patrones oscuros: interfaces de usuario diseñadas para confundir o frustrar al usuario, como dificultar la eliminación de su cuenta

También incluyó algunas propuestas que Facebook, Twitter y YouTube ya hacen de forma voluntaria, como por ejemplo:

  • etiquetar las cuentas de las organizaciones de noticias controladas por el estado
  • limitar la cantidad de veces que se pueden reenviar mensajes a grupos grandes, como hace Facebook en WhatsApp

A las tres empresas se les envió una copia del informe el miércoles y la BBC las invitó a comentar.

El jefe de estrategia de política pública de Twitter, Nick Pickles, dijo: «Twitter está comprometido a construir una Internet más segura y mejorar la salud de la conversación pública. Apoyamos un enfoque de regulación con visión de futuro que proteja la Internet abierta, la libertad de expresión y competencia en el sector de Internet «.

Línea gris de presentación corta

En una entrevista con BBC News, Wylie dijo que las recomendaciones del informe habían sido diseñadas para proteger la libertad de expresión de las personas.

Lo siguiente ha sido editado para mayor brevedad y claridad.

Siempre que se propone una regulación de las redes sociales, existe la preocupación de sofocar la libertad de expresión. ¿No plantean tanto riesgo sus propuestas?

En la mayoría de las democracias occidentales, tienes libertad de expresión. Pero la libertad de expresión no es un derecho a alcanzar. Eres libre de decir lo que quieras, dentro de los límites del discurso de odio, la ley de difamación, etc. Pero no tiene derecho a que la tecnología amplifique su voz artificialmente.

Estas plataformas no son entornos neutrales. Los algoritmos toman decisiones sobre lo que las personas ven o no ven. Nada en este informe restringe su capacidad para decir lo que quiere. De lo que estamos hablando es de la función de la plataforma de amplificar artificialmente información falsa y manipuladora a gran escala.

¿Quién define lo que se considera desinformación?

Supongo que esto se reduce a algo bastante fundamental: ¿crees en la verdad? Hay algunas cosas objetivamente refutables que se están extendiendo con bastante rapidez en Facebook en este momento. Por ejemplo, que Covid no existe y que la vacuna es en realidad para controlar la mente de las personas. Todas estas son cosas que son manifiestamente falsas y puedes probarlo.

Nuestras instituciones democráticas y el discurso público se sustentan en la suposición de que al menos podemos estar de acuerdo en cosas que son verdaderas. Nuestros debates pueden ser sobre cómo respondemos o qué valores aplicamos a un problema en particular, pero al menos tenemos un entendimiento común de que hay ciertas cosas que son manifiestamente ciertas.

¿La regulación sofocaría el libre flujo de ideas y el derecho de las personas a creer lo que quieran?

Si asumiéramos la premisa de que las personas deberían tener el derecho legal de ser manipuladas y engañadas, no tendríamos reglas sobre el fraude o la influencia indebida. Hay daños muy tangibles que provienen de manipular a las personas. En los Estados Unidos, la respuesta de salud pública al Covid-19 se ha visto inhibida por una desinformación generalizada sobre la existencia del virus o afirmaciones falsas sobre diferentes tipos de tratamiento que no funcionan.

¿Tiene derecho a creer lo que quiere? Sí, por supuesto. Nadie que yo sepa está proponiendo ningún tipo de mente o regulación mental.

Pero tenemos que centrarnos en la responsabilidad de una plataforma. Facebook, Twitter y YouTube crean algoritmos que promueven y resaltan información. Esa es una decisión de ingeniería activa.

Cuando el resultado es una respuesta de salud pública inhibida a una pandemia o el socavamiento de la confianza en nuestras instituciones democráticas, porque las personas están siendo manipuladas con información objetivamente falsa, tiene que haber algún tipo de responsabilidad para las plataformas.

Pero Facebook dice que trabaja duro para abordar la desinformación y no se beneficia del discurso de odio.

Una empresa petrolera diría: «No nos beneficiamos de la contaminación». La contaminación es un subproducto y un subproducto dañino. Independientemente de si Facebook se beneficia del odio o no, es un subproducto dañino del diseño actual y hay daños sociales que provienen de este modelo de negocio.

Antes de las elecciones estadounidenses, Facebook y Twitter establecieron lo que harían si un candidato declarara la victoria anticipadamente o cuestionara el resultado. Hemos visto a ambos aplicar etiquetas de contexto a los tweets del presidente Donald Trump. ¿Crees que estaban más preparados para las elecciones de 2020?

Está claro que Facebook realmente no ha planificado lo suficiente.

Mire los grupos que están surgiendo todos los días que difunden desinformación sobre «trampas» en las elecciones estadounidenses y promueven todo tipo de otras teorías de conspiración sobre la campaña de Biden. Este fue un resultado previsible.

La forma en que Facebook aborda estos problemas es: esperaremos y veremos y resolveremos un problema cuando surja. Todas las demás industrias deben tener estándares mínimos de seguridad y considerar los riesgos que podrían plantearse a las personas, a través de la prevención y mitigación de riesgos.

Si regularas las grandes redes sociales, ¿empujarías a más personas a las redes sociales marginales de «libertad de expresión»?

Si tiene una plataforma que tiene el punto de venta único de «le permitiremos promover el discurso del odio, le permitiremos engañar y manipular a la gente», no creo que el modelo de negocio deba permitirse en su forma actual. Las plataformas que monetizan la participación de los usuarios tienen el deber para con sus usuarios de hacer al menos un esfuerzo mínimo para prevenir daños claramente identificados. Creo que es ridículo que haya más consideración de seguridad para crear una tostadora en la cocina de alguien, que para plataformas que han tenido un impacto tan manifiesto en nuestra respuesta de salud pública y las instituciones democráticas.

¿Qué pasa con otro tema, como la forma en que las imágenes «perfectas» en Instagram pueden afectar la salud mental y la imagen corporal?

Este es un producto de una plataforma que le está haciendo recomendaciones. Estos algoritmos funcionan detectando aquello con lo que te relacionas y luego te muestran más y más de eso.

En el informe, hablamos de un «período de reflexión». Podría requerir que los algoritmos tengan un disparador que dé como resultado un período de reflexión para cierto tipo de contenido.

Si acaba de pasar la última semana mostrándole anuncios de musculación, podría esperar las próximas dos semanas. Si desea promover el culturismo, puede hacerlo.

Pero desde la perspectiva del usuario, no deberían ser bombardeados constantemente con un tema singular.

Fuente: BBC NEWS

Acerca de Richard Capellan

Verifica también

Personas que podrán circular durante el horario del toque de queda

El Poder Ejecutivo modificó este lunes la medida El Poder Ejecutivo modificó este lunes mediante …

Choferes del transporte público que no se vacunen, no podrán laborar

La Confederación Nacional de Organizaciones de Transporte (CONATRA) informó este jueves que a partir del día primero …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *