La polémica en torno al uso policial de la tecnología de reconocimiento facial se ha intensifiado luego que un hombre negro en Michigan revelara que fue arrestado injustamente por el uso de esa tecnología. La policía de Detroit esposó a Robert Williams frente a su esposa y sus hijas porque el software de reconocimiento facial lo había identificado erróneamente como sospechoso de un robo. Investigaciones sobre el tema señalan que el software de reconocimiento facial tiene hasta cien veces más probabilidades de identificar erróneamente a las personas de color que a las personas blancas. Esta semana, el consejo municipal de Boston votó a favor de dejar de usar esta herramienta en la ciudad, y legisladores demócratas presentaron un proyecto similar que afectaría a las fuerzas de seguridad federales. “Este no es un ejemplo de mal algoritmo. Al igual que los casos de violencia policial, es una pequeña muestra de cómo los sistemas de inteligencia artificial, como los que operan las tecnologías de reconocimiento facial, pueden tener incorporado el racismo sistémico”, dice Joy Buolamwini, fundadora de la Liga de la Justicia Algorítmica.
Para conocer más sobre este tema, vea (en inglés) la conversación que mantuvimos con Joy Buolamwini.