Skip to content

¿Es el algoritmo de Twitter racista? Experimento

Nota editorial (2025): publicado originalmente en 2020. Se añadió una versión estructurada con fines enciclopédicos. El texto original se conserva íntegro como parte del archivo histórico.

Experimento en Twitter sobre Preferencia del Algoritmo

“Un experimento horrible” que se ha convertido meme involucra a Tony Arcieri, quien publicó un tuit para observar qué preferiría la inteligencia artificial de Twitter al procesar imágenes en cuanto a piel clara o oscura. El resultado fue perturbador y replicado por varios usuarios.

El Experimento

  • Tony Arcieri comparó la selección de caras mostradas en Tweets con diferentes tonos de piel.
  • Parecía que el algoritmo mostraba preferencia por las caras morenas sobre las claras hasta cuando se oscurecían ambas imágenes para hacerlas parecer negras.

“Es solo cuando los dos parecen negros” es donde la diferencia surge, mostrando el rostro de Obama en detalle al cambiar a una foto oscurecida.

Implicaciones del Algoritmo

  • La inteligencia artificial utiliza una ‘red neuronal’ para generar vistas previas de las fotos antes de que sean compartidas.
  • “El detector de rostros a menudo pasaba por alto caras y, a veces, detectaba caras por error cuando no había ninguna”, como informó en una publicación del blog recogida por The Verge.

“Una situación que el propio Arcieri ha calificado como un ‘experimento horrible'” indica preocupaciones sobre sesgo racial dentro de los algoritmos utilizados en la plataforma Twitter. Este caso no es aislado, señalando problemas similares reportados por El Confidencial.

Preguntas frecuentes

FAQs sobre el Experimento en Twitter

¿Qué era la intención detrás de este experimento?
La pregunta buscaba llamar la atencible preocupación por posibles sesgos raciales dentro del algoritmo utilizado en Twitter.

¿Cómo fue el resultado generalizado después de que Tony Arcieri publicara su tuit?
El experimento provocó un gran debate y replicación por parte de otros usuarios, lo que indica una respuesta significativa en la plataforma.

¿Qué tipo de ‘preferencias’ observadas podrían reflejar sesgos raciales?
El algoritmo mostró un ligero favor hacia las caras morenas sobre las claras hasta cuando ambas imágenes eran oscurecidas para parecer negras. Esto plantea preguntas acerca de la justicia y equidad en el tratamiento por parte del sistema.

¿Qué problemas relacionados con los algoritmos se han reportado previamente?
Se ha informado que detección facial, una técnica utilizada para generar vistas previas de fotos antes de su publicación en Twitter, puede pasar por alto caras o detectarlas erróneamente. Esto también fue reportado por el blog del Confidencial.

¿Cuál es la reacción generalizada tras este experimento?
El caso ha provocado un debate y reflexión en torno a los posibles sesgos raciales dentro de las plataformas digitales, mostrando que no son aislados casos.

0


Texto original (2020)

Desde ayer se ha vuelto meme el experimento que Tony Arcieri realizó en Twitter para saber “qué prefiere” la inteligencia artificial de Twitter al procesar imágenes, si elige a rostros de piel clara u oscura y el resultado ha sido perturbador puesto que ha sido replicado por varios usuarios de la plataforma para verificar:

 

“…El tuit siempre muestra la imagen del senador republicano sobre la del expresidente de los Estados Unidos y es solo cuando oscurece la imagen de ambos para que los dos parezcan negros cuando, por fin, se ve la imagen de Obama. Una situación que el propio Arcieri ha calificado como un “experimento horrible“, pero que no es el único caso.

El racismo de Twitter

Twitter utiliza la denominada ‘red neuronal’ para mostrar la vista previa de las fotos. Sin embargo, los investigadores que trabajan en la inteligencia artificial del sistema descubrieron que tienen un problema porque no todas las imágenes tienen caras. En una publicación en su blog que recoge The Verge, explican que “nuestro detector de rostros a menudo pasaba por alto caras y, a veces, detectaba caras por error cuando no había ninguna”…”

Con información de El Confidencial