Las redes sociales afectan la vida de las personas de muchas maneras, buenas y malas. Ahora mismo, mientras sufrimos una crisis sanitaria a nivel global, las redes sociales se han convertido en un salvavidas para muchas personas, proporcionando información valiosa y ayudando a las familias y comunidades a mantenerse conectadas.
Al mismo tiempo, sabemos que las redes sociales pueden difundir discursos que son odiosos, dañinos y engañosos. En los años recientes, la interrogante de qué contenido debería mantenerse o no en plataformas como Facebook, y quién debería decidirlo, se ha vuelto cada vez más urgente.
Por lo tanto, reconociendo que ninguna compañía debería resolver estos problemas de forma independiente, en noviembre de 2018 Facebook se comprometió a crear un organismo de supervisión independiente para revisar las decisiones de la compañía sobre qué contenido eliminar o mantener.
En los últimos 18 meses, más de 2000 expertos y otras partes interesadas de 88 países han comentado y ayudado a dar forma al desarrollo de esta junta de supervisión, que tendrá 20 miembros y deberá entrar en vigor este año.
La junta de supervisión se centrará en los problemas de contenido más desafiantes para Facebook, incluso en áreas como la incitación al odio, el acoso y la protección de la seguridad y privacidad de las personas. La junta tomará decisiones finales y vinculantes sobre si se debe permitir o eliminar contenido específico de Facebook e Instagram (que pertenece a Facebook).
Hoy, anunciamos el primer grupo de miembros de la junta de supervisión. Nosotros somos los cuatro copresidentes. Después de que Facebook nos nombró copresidentes, hemos considerado a un gran número de personas para la junta de supervisión, incluidas las recomendadas por el público, antes de entrevistar y finalmente aprobar a los otros 16 miembros que hoy se anuncian.
Los miembros provienen de diferentes profesiones, culturas y religiones, y tienen diversos puntos de vista políticos. Algunos hemos criticado públicamente a Facebook; otros no lo hemos hecho. Pero todos tenemos capacitación y experiencia para ayudar a la junta a considerar las decisiones más importantes sobre el contenido que enfrentan las comunidades en línea.
Todos somos independientes de Facebook. Y todos estamos comprometidos con la libertad de expresión en el marco de las normas internacionales de los derechos humanos.
Tomaremos decisiones basadas en esos principios y en los efectos sobre los usuarios de Facebook y la sociedad, sin tener en cuenta los intereses económicos o políticos, o la reputación de la empresa.
Nuestra estructura garantiza nuestro juicio independiente. Las operaciones de la junta de supervisión están financiadas por un fondo fiduciario de 130 millones de dólares, el cual es completamente independiente de Facebook y no puede ser revocado.
Los miembros de la junta servirán por periodos fijos de tres años, hasta un máximo de tres mandatos; y se contratarán directamente con la junta de supervisión. Facebook no podrá eliminarnos. A través de los estatutos fundacionales de la junta de supervisión, Facebook se ha comprometido a implementar nuestras decisiones aunque a veces puede estar en desacuerdo con ellas, a menos que violen la ley.
Mark Zuckerberg, el director ejecutivo de Facebook, también se ha comprometido de manera personal con este arreglo.
Todo el proceso está diseñado de manera transparente. Todas las decisiones y recomendaciones de la junta de supervisión se harán públicas, y Facebook debe responder a ellas públicamente.
También hemos trabajado para crear un sistema que sea accesible; los usuarios de Facebook podrán apelar ante la junta de supervisión si no están de acuerdo con la decisión de Facebook de eliminar o dejar un contenido determinado, y Facebook también puede remitir casos a la junta.
(En la fase inicial, los usuarios podrán apelar ante la junta solo en los casos en los que Facebook haya eliminado su propio contenido, pero en los meses que siguen agregaremos además la posibilidad de revisar las apelaciones de los usuarios que desean que Facebook elimine contenido).
No podremos ofrecer una decisión sobre cada uno de los miles de casos que esperamos recibir cada año. Nos enfocaremos en identificar casos que tengan un impacto en el mundo real, que sean importantes para el discurso público y que planteen debates sobre las políticas actuales de Facebook.
Los casos en los que se analiza la línea entre la sátira y el discurso de odio, la difusión del contenido gráfico después de eventos trágicos, o el posible tratamiento diferencial a la manipulación del contenido publicado por figuras públicas, constituyen ejemplos de las problemáticas que pudieran presentarse ante la junta.
En los próximos meses, vamos a esbozar cómo priorizaremos y seleccionaremos los casos para examinar. Una vez que un caso quede elegido para una revisión, lo valorará un panel integrado por un conjunto rotativo de los miembros.
Todas las decisiones del panel serán revisadas por la junta entera antes de finalizarse, y si la mayoría de los miembros no están de acuerdo con una decisión, se le podrá pedir a un nuevo panel que aborde el caso nuevamente.
La junta de supervisión no puede, por supuesto, abordar toda preocupación que la gente pueda tener respecto a Facebook. Los políticos, reguladores y aquellos interesados en los efectos de la tecnología en nuestra sociedad, siguen teniendo un papel fundamental que desempeñar.
También sabemos que no podremos complacer a todos. Puede que algunas de nuestras decisiones resulten polémicas, y todas generarán más debate.
Pero hablamos por todos los miembros de la junta de supervisión cuando declaramos que estamos comprometidos a demostrar el valor de un proceso de supervisión que sea independiente, de principios y transparente y a servir a la comunidad en línea.
Por: Catalina Botero-Marino, Jamal Greene, Michael W. McConnell and Helle Thorning-Schmidt