Facebook se pronuncia después de que su IA etiquete hombres negros en un video como "primates"
12 de September
Días después de que se haga pública una situación en la cual
la inteligencia artificial de Facebook etiquetaba un video con hombres negros
como si fuese un video de primates, el gigante tecnológico se comunicó al
respecto con diversos medios de tecnología para explicar su posición como
empresa.
De acuerdo a una crónica del New York Times, al visualizar
un video publicado el 27 de junio publicado por el diario británico Daily Mail,
los usuarios de Facebook recibían una ventana emergente preguntando si es que
deseaban “seguir viendo videos sobre primates”. Esto causó, como es natural, una
gran polémica en redes y diversas voces se alzaron en indignación.
La primera respuesta de Facebook ante este evento fue deshabilitar
todo su mecanismo de sugerencia temática, en el cual los videos son
clasificados y agrupados por una inteligencia artificial para poder ofrecer
sugerencias a los usuarios. Adicionalmente, un relacionista público de Facebook
compartió lo siguiente:
“Esto es claramente un error totalmente inaceptable. La
compañía está investigando la causa de este comportamiento, para prevenir que
ocurra de nuevo. Como hemos dicho antes, si bien hemos hecho mejoras significativas
a nuestra inteligencia artificial, sabemos que no es perfecta y que tenemos más
trabajo por hacer. Pedimos disculpas a toda persona que haya visto estas
sugerencias ofensivas.”
Este incidente es tan solo el último ejemplo de cómo las
herramientas de inteligencia artificial muestran un sesgo racial o de género. De
hecho, en el pasado, las herramientas de reconocimiento facial han tenido
problemas particularmente con personas de color. En el 2015, Google tuvo que
pedir disculpas porque su aplicación de fotos etiquetaba a personas negras como
“gorilas”.
Etiquetas: Facebook Racismo Inteligencia Artificial