Agencias, Ciudad de México.- El software de vigilancia de exámenes Proctorio utiliza algoritmos con problemas de funcionamiento según la raza, según las indagaciones que ha realizado un investigador de software, que ha establecido que no reconoce las caras de personas de raza negra un 57 por ciento de las veces y alerta a los profesores sobre que no están presentes.

El investigador de software Akash Satheesan ha publicado una investigación sobre la extensión del software de Proctorio en Chrome en la que demuestra que los nombres los archivos asociados al software de detección facial de la herramienta son los mismos que los de OpenCV, una biblioteca de código libre de software de visión que ha demostrado tener sesgos racistas en su funcionamiento, según un estudio de 2018 publicado en Algorithmia.

Además, en una segunda investigación realizada a raíz del mismo problema, Satheesan utiliza el programa de reconocimiento facial de Proctorio con 11,000 fotos del banco de imágenes FairFaces, y establece que el 57 por ciento de las ocasiones no reconoce las caras de personas negras en imágenes en las que estas aparecen etiquetadas, tal y como recoge Motherboard.

Pese a que la empresa afirma que el software está diseñado para detectar la presencia de las personas y no para el reconocimiento facial, Proctorio no detecta la presencia de algunos de estos estudiantes negros delante de la cámara y avisa a los profesores de su ausencia al realizar las pruebas pese a haberse personado en el evento.

Satheesan recogió las múltiples críticas de estudiantes en redes sociales sobre el mal funcionamiento de la herramienta en cuanto al reconocimiento de estudiantes negros y, según asegura a Motherboard, comenzó a estudiar el tema debido a que la empresa aseguró en una nota remitida al Senado que había recibido “menos de cinco quejas al respecto.

Comentarios desactivados en Una IA de vigilancia de exámenes no logró detectar las caras de estudiantes negros