Facebook debe dar a los usuarios un mayor control sobre lo que ven.

Tendencias en Internet, del 1 de enero al 1 de febrero de 2019.
febrero 1, 2019
Estas son las 10 principales tendencias globales de consumo en 2019.
febrero 5, 2019
Show all

Los académicos de las universidades de Oxford y Stanford creen que Facebook debería dar a los usuarios una mayor transparencia y control sobre el contenido que ven en su plataforma.

También creen que el gigante de las redes sociales debería reformar radicalmente sus estructuras y procesos de manejo para arrojar más luz sobre las decisiones de contenido, incluso recurriendo a más expertos externos para dirigir sus políticas.

Tales cambios son necesarios para abordar las preocupaciones generalizadas sobre el impacto de Facebook en la democracia y en la libertad de expresión, argumentan en un informe publicado hoy, que incluye una serie de recomendaciones para reformar Facebook (titulado: ¡Glasnost! Nueve maneras en que Facebook puede ser un foro para Libertad de expresión y democracia).

“Hay una gran cantidad de cosas que una plataforma como Facebook puede hacer en este momento para abordar las inquietudes del público en general y hacer más para cumplir con sus responsabilidades de interés público, así como con las normas internacionales de derechos humanos”, escribe el autor principal Timothy Garton Ash.

“Las decisiones ejecutivas tomadas por Facebook tienen importantes consecuencias políticas, sociales y culturales en todo el mundo. Un pequeño cambio en el algoritmo de News Feed, o en la política de contenido, puede tener un impacto más rápido y más amplio que el de cualquier legislación individual (o incluso de toda la UE)”.

Aquí está un resumen de las nueve recomendaciones del informe:

  1. Ajustar la redacción de las Normas de la comunidad sobre el discurso de odio: los académicos argumentan que la redacción de las políticas actuales de Facebook sobre áreas clave es “demasiado amplia, lo que lleva a derribos erráticos, inconsistentes y, a menudo, insensibles al contexto”; y también genera “una alta proporción de casos impugnados”. Creen que una mejor redacción podría hacer la implementación más consistente y fácil.
  2. Contrate más revisores expertos de contenido contextual: “el problema es la calidad y la cantidad”, señala el informe, al presionar a Facebook para que contrate más revisores de contenido humano más una capa de revisores principales con “experiencia cultural y política relevante” y también para colaborar más con fuentes externas de confianza como las ONG. “Queda claro que no resolverá los problemas con los juicios profundamente dependientes del contexto que deben realizarse para determinar cuándo, por ejemplo, el discurso del odio se convierte en un discurso peligroso”, escriben.
  3. Aumentar la “transparencia de decisión”: Facebook aún no ofrece una transparencia adecuada en relación con las políticas y prácticas de moderación de contenido, sugieren, argumentando que necesita publicar más detalles sobre sus procedimientos, incluido el llamado específicamente a la compañía a “publicar y difundir ampliamente casos de estudio” para proporcionar a los usuarios más orientación y proporcionar posibles motivos para las apelaciones.
  4. Amplíe y mejore el proceso de apelaciones: también en las apelaciones, el informe recomienda que Facebook proporcione a los revisores un contexto mucho más amplio en lo que respecta a los contenidos en disputa, y también proporcione datos de estadísticas de apelaciones a analistas y usuarios. “Bajo el régimen actual, el revisor interno inicial tiene información muy limitada acerca de la persona que publicó un fragmento de contenido, a pesar de la importancia del contexto para la adjudicación de apelaciones”, escriben. “Una imagen del Holocausto tiene un significado muy diferente cuando es publicada por un sobreviviente del Holocausto o por un Neo-Nazi”. También sugieren que Facebook debería trabajar en el desarrollo del proceso debido de apelaciones “más funcional y utilizable para el usuario promedio”, en diálogo con los usuarios.
  5. Proporcione controles de noticias importantes para los usuarios: el informe sugiere que los usuarios de Facebook deberían tener controles más significativos sobre lo que ven en la fuente de noticias. Los autores consideran que los controles actuales son “totalmente inadecuados” y abogan por más. Como la capacidad de desactivar la alimentación algorítmica por completo (sin que la vista cronológica se vuelva a establecer como predeterminada en el algoritmo cuando el usuario vuelve a cargar, como es el caso ahora para cualquier persona que cambie la vista controlada). El informe también sugiere agregar una función de análisis de fuentes de noticias, para brindar a los usuarios un desglose de las fuentes que están viendo y cómo se compara con los grupos de control de otros usuarios. Facebook también podría ofrecer un botón para permitir a los usuarios adoptar una perspectiva diferente exponiéndolos a contenido que normalmente no ven.
  6. Ampliar el contexto y las funciones de verificación de datos: el informe promueve la utilización de recursos “significativos” para identificar “las mejores fuentes, más autorizadas y confiables” de información contextual para cada país, región y cultura, para ayudar a alimentar la información existente de Facebook.
  7. Establezcan mecanismos regulares de auditoría: se han realizado algunas auditorías de derechos civiles de los procesos de Facebook (como la que sugería que Facebook formalizara una estrategia de derechos humanos), pero el informe insta a la compañía a abrirse a más, sugiriendo el modelo de las auditorías significativas que deben replicarse y extenderse a otras áreas de interés público, incluidas la privacidad, la imparcialidad y el sesgo de algoritmos, la diversidad y más.
  8. Crear un grupo asesor de políticas de contenido externo: Facebook debe alistar a las partes interesadas de contenido clave de la sociedad civil, la academia y el periodismo para que un grupo asesor de políticas de expertos proporcione comentarios continuos sobre sus estándares de contenido y su implementación, así como también revisar su expediente de recursos. “Crear un cuerpo que tenga credibilidad con el rango geográfico, cultural y político extraordinariamente amplio de los usuarios de Facebook sería un gran desafío, pero un grupo asesor experto, cuidadosamente elegido y formalizado sería un primer paso”, escriben, señalando que Facebook ha comenzado a avanzar en esta dirección, pero agrega: “Estos esfuerzos deben formalizarse y expandirse de manera transparente”.
  9. Establezca un organismo de apelaciones externo: el informe también insta al control final “independiente y externo” de la política de contenido de Facebook, a través de un organismo de apelaciones que se encuentra fuera de la nave nodriza e incluye representación de la sociedad civil y grupos de defensa de los derechos digitales. Los autores señalan que Facebook ya está coqueteando con esta idea, citando los comentarios realizados por Mark Zuckerberg en noviembre pasado, pero también advierte que esto debe hacerse correctamente si se quiere que el poder sea “significativo”. “Facebook debe esforzarse por hacer que este cuerpo de apelaciones sea lo más transparente posible … y permitir que influya en amplias áreas de la política de contenido … no solo se pronuncie sobre la eliminación de contenido específico”, advierten.

En conclusión, el informe señala que los problemas de contenido en los que se enfoca no solo están vinculados al negocio de Facebook, sino que se aplican ampliamente en varias plataformas de Internet; ese tipo de regulación general será “una tarea larga y compleja”.

Mientras tanto, los académicos siguen convencidos de que hay “muchas cosas que una plataforma como Facebook puede hacer en este momento para abordar las preocupaciones públicas generalizadas y hacer más para cumplir con sus responsabilidades de interés público, así como las normas internacionales de derechos humanos”, dado su tamaño masivo (más de 2.200 millones de usuarios activos).

“Reconocemos que los empleados de Facebook están haciendo juicios contextuales difíciles, complejos todos los días, equilibrando intereses en conflicto, y no todas esas decisiones se beneficiarán de una transparencia total. Pero todo sería mejor para un intercambio más regular y activo con el mundo de la investigación académica, el periodismo de investigación y la defensa de la sociedad civil “.

El informe fue preparado por el proyecto de Debate de Libertad de Expresión del Programa Dahrendorf para el Estudio de la Libertad, St. Antony’s College, Oxford, en colaboración con el Instituto Reuters para el Estudio del Periodismo, la Universidad de Oxford, el Proyecto sobre Democracia e Internet.

Por: Natasha Lomas.

Desde: techcrunch.com

Facebook
Twitter
Linkedin0
Google+0
GMail0
SMS0
Whatsapp0
Positive SSL