Agencia de Noticias Hawzah – Los sistemas de reconocimiento facial suelen interpretar erróneamente los tonos de piel más oscuros y los hiyabs. El software de control fronterizo, por su parte, marca los nombres musulmanes como riesgos potenciales, y la moderación de contenidos en línea elimina silenciosamente publicaciones sobre Palestina mientras permite que el odio antimusulmán circule con libertad.
“Estos sistemas no se volvieron parciales por accidente”, explicó Mutale Nkonde, directora ejecutiva de AI for the People, en declaraciones a The New Arab. Fueron entrenados con datos moldeados por décadas de decisiones políticas y doctrinas de seguridad que han presentado la identidad musulmana como inherentemente sospechosa.
“Es un claro ejemplo de sesgo islamófobo codificado en la tecnología”, afirma. “Donde el miedo político se convierte en datos, y los datos se convierten en destino”.
Las plataformas digitales aseguran combatir los discursos de odio, pero la investigación muestra lo contrario en el caso del contenido antimusulmán. Por ejemplo, la organización independiente Center for Countering Digital Hate (CCDH) informó en 2023 que las empresas de redes sociales no actuaron ante el 89% del discurso de odio islamófobo denunciado.
El mensaje es evidente: mientras las plataformas se presentan como árbitros neutrales de la libertad de expresión, sus sistemas de moderación permiten que la islamofobia se expanda sin control, incluso de forma algorítmica.
No obstante, la resistencia crece. Tecnólogos musulmanes, juristas y defensores de los derechos digitales empiezan a desafiar la opacidad de los sistemas algorítmicos. Si las perspectivas musulmanas y del Sur Global siguen ausentes del debate internacional, el sesgo continuará tratándose como un fallo técnico y no como una injusticia política.
“Hasta que las voces musulmanas participen en la elaboración de las reglas, la ética de la IA seguirá siendo una conversación occidental sobre problemas globales”, afirma Nkonde.
Fuente: THE NEW ARAB
Su comentario