The Washington PostDemocracy Dies in Darkness

Opinión ¿Cómo le está yendo a Facebook en materia de derechos civiles? Depende de a quién le preguntes.

El CEO de Facebook, Mark Zuckerberg, en el Paley Center For Media el 25 de octubre de 2019 en Nueva York. (Drew Angerer/Getty Images)
Comment

¿Cuál es la situación de Facebook en materia de derechos civiles? Según la compañía, está avanzando “para mejorar la protección de las comunidades marginadas”. Pero de acuerdo con un artículo publicado en The Washington Post, el problema es peor de lo que se creía.

En 2018, Facebook contrató auditores independientes para revisar los problemas raciales en su plataforma; en 2020, esos auditores emitieron un informe en el que criticaron las decisiones políticas de la empresa en el área como un "retroceso significativo". Ahora Facebook está implementando nuevas normas sobre el discurso de odio, una mejor representación de las minorías en su fuerza laboral y un equipo de derechos civiles fortalecido dedicado a diseñar productos pensando en las poblaciones vulnerables.

La compañía, que recientemente cambió su nombre corporativo a Meta, también se comprometió a medir de manera más efectiva si la experiencia de las personas con su tecnología, incluidas las herramientas de aprendizaje automático utilizadas para moderar el contenido, difiere según la raza. Todo suena bastante alentador, sobre todo tomando en cuenta el artículo antes mencionado que sugiere que Facebook ha ocultado este tipo de datos, quizá hasta a los propios auditores.

Read in English: How is Facebook doing on civil rights? Depends whom you ask.

El Post informó que los investigadores de Facebook descubrieron que las políticas sesgadas de la plataforma estaban dañando desproporcionadamente a las minorías. Los comentarios ofensivos dirigidos a estas poblaciones eran eliminados con menos frecuencia que cuando se dirigían a personas y hombres blancos.

El problema en parte es que, sin intervención, los algoritmos tienden a amplificar las características de la sociedad de la que están aprendiendo. Por lo tanto, los investigadores recomendaron que Facebook adaptara la herramienta para centrarse solo en cinco grupos: personas afrodescendientes, judíos, LGBT+, musulmanes o de múltiples razas, que se considera que tienen una necesidad especial de protección. Los ejecutivos rechazaron la propuesta preocupados por la reacción violenta que pudieran tener sus “socios conservadores”, pero también porque los grupos a los que no se les presta atención deliberadamente, como las mujeres, sufrirían debido al cambio.

Escucha el pódcast El Washington Post para conocer las últimas noticias en español

Estos eventos han dado pie a que Facebook sea aún más criticado. Pero la historia también es un ejemplo de lo difícil que es construir sistemas de inteligencia artificial que traten a las personas de manera justa. Siempre está la pregunta de a quién se trata justamente. Los legisladores estadounidenses tienen en la mira los modelos de aprendizaje automático que alimentan las plataformas: proponen privar a las empresas de su inmunidad de ser demandadas por material publicado por terceros si se promueve algorítmicamente, o evitar que los algoritmos “discriminen”. Sin embargo, estas reglas podrían terminar disuadiendo a los sitios de hacer el tipo de curaduría que buscan quienes desean una mayor consideración hacia las minorías, o de hacer curaduría en absoluto.

El punto no es que Facebook haya tomado la decisión correcta, sino que es difícil hacerlo. Además, restringir la libertad de las empresas en lo que respecta a la moderación del contenido puede perjudicar tanto como permitir demasiada libertad. La manera en que se aborde cualquier tipo de daño que pueda causar, incluso respecto a los derechos civiles, debe evitar las prohibiciones contundentes y mejor centrarse en un estudio cuidadoso y transparente de los efectos de los sistemas automatizados. Esto es exactamente lo que Facebook promete, pero lo que nunca ha cumplido.

Loading...