Revelan sesgo racial en los sistemas de reconocimiento de voz
Un grupo de investigadores de la Universidad de Stanford, en Estados Unidos, ha identificado sesgos raciales en los sistemas de reconocimiento de voz de Apple, Google, Amazon, IBM y Microsoft.
Según el estudio, los asistentes de voz de estas compañías tecnológicas cometen muchos menos errores a la hora de reconocer la voz de una persona caucásica que con una afroamericana.
Para llevar a cabo el estudio, los investigadores entrevistaron a 42 personas blancas y 73 negras y utilizaron los sistemas de reconocimiento de voz para transcribir lo que decían.
Según los resultados del estudio, publicado en la revista Proceedings of the National Academy of Sciences, estos sistemas identificaron erróneamente las palabras de personas blancas aproximadamente el 19 por ciento de las veces, mientras que en el caso de personas negras el error aumenta hasta el 35 por ciento.
Automated speech recognition systems show worse performance for black speakers than for white speakers, a study finds. In PNAS: https://t.co/5iEcetRqNc pic.twitter.com/gC2pynOIQm
— PNASNews (@PNASNews) March 25, 2020
Asimismo, el informe demuestra que alrededor del 2 por ciento de las palabras citadas por personas blancas son ilegibles por estos sistemas. En el caso de personas afroamericanas, la cifra se eleva hasta el 20 por ciento.
Concretamente, el asistente de Microsoft es el sistema que mejor funcionó en la investigación, ya que identificó erróneamente alrededor del 15 por ciento de las personas blancas, comparado con el 27 por ciento de personas negras.
En segundo lugar se situaría el sistema de Amazon, que no identificó correctamente cerca del 18 por ciento de las palabras de personas blancas y el 36 por ciento de personas negras.
Seguido de Amazon se encontraría el Asistente de Google, con una tasa de error del 20 por ciento con personas blancas y alrededor del 36 por ciento con personas afroamericanas, y el de IBM, con un error de más del 20 por ciento en personas blancas y casi un 40 por ciento con personas negras.
Por su parte, el sistema de Apple es el que cuenta con un rendimiento menor, ya que falló alrededor del 23 por ciento de las veces con personas blancas y el 45 por ciento con personas negras.
Racial disparities in automated speech recognition https://t.co/50U0VbJmm3 #AI #Research #ASR via @stanfordnlp
— Future of AI (@future_of_AI) March 31, 2020