martes 29/9/20
Discriminación tecnológica

El sexismo de Silicon Valley va en nuestro móvil

Un cultura tóxica parece haberse extendido por Silicon Valley.  Desde abusos sexuales a sexismo; desde discriminación racial a brechas salariales injustificadas. El problema es cuando esto se traslada a los algoritmos y a nuestras pantallas

James Damore, el ingeniero despedido de Google. | Entrevista en Bloomberg
James Damore, el ingeniero despedido de Google. | Entrevista en Bloomberg

El memorándum deJAmes  Damore, el ingeniero de Google que justificó el sexismo en tecnología , su despido y la reacción contra Google en muchos ámbitos conservadores han impulsado un intenso y creciente debate estas semanas.

El ingeniero ha aceptado su nuevo estatus de héroe de libertad de expresión, y se ha convertido en uno de los protagonistas de youtube, una de las fuentes de los conservadores más radicales.

El ingeniero ha capitalizado las sensaciones de un público joven varón y blanco, que se siente privado de sus derechos y se siente una sensación de malestar por las políticas de igualdad y diversidad que ocurren  las universidades y lugares de trabajo

El memorando Damore ha sido desacreditado por todo el mundo. Nadie, salvo las voces extremadamente conservadora,  justifica las diferencias de sexo no justifican mayor o menor capacidad tecnológica.

Google ha dedicado mucho tiempo estos días en insistir en su compromiso con la diversidad.  Sin embargo, en las primeras 75 empresas de Silicon Valley, sólo el 3% de los empleados son negros y apenas llega al 20% de mujeres las que ocupan puestos técnicos.

Pero no es solo un problema de recursos humanos; es una cuestión cultural.

Numerosas aplicaciones o software nacidas en la cuna de la tecnología tienden a mostrar errores que tienen que ver con patrones de comportamiento ajenos a la diversidad sexual o racial.

Pueden parecer pequeños defectos en los primeros diseños. Pero en una industria donde los hombres blancos y sus pautas culturales son la norma, la tecnología tiende a asumirse como una forma de trasladar esos patrones al software y las aplicaciones que usamos cotidianamente. Pero no se trata solo de bromas o errores sexistas o raciales. La discriminación se inscribe, también, en las verdaderas claves de estas aplicaciones y software: los algoritmos.

El sospechoso sesgo de Google

En 2015, Google lanzó una nueva función de reconocimiento de imágenes para su aplicación Fotos que etiquetaba las imágenes. Un residente de Brooklyn denunció que las fotos de él y su amigo, ambos negros, habían sido etiquetadas como “Gorilas". La insinuación racial no era intencionada, naturalmente, simplemente el sistema no era tan eficaz identificando a personas negras como a las blancas.

Word2vec es una herramienta creada por Google en 2013 para que los ordenadores puedan entender el lenguaje humano. Los investigadores crearon el sistema a partir de las noticias de Google. El sistema facilitaba analogías como las siguientes: "El hombre es a la mujer como programador de computadoras es a ama de casa" o " El hombre es a arquitecto como mujer a diseñadora de interiores ". Analogías que reflejan los datos de Google Noticias.

Las pifias de Apple

Apple Health se presenta como una herramienta para vigilar nuestra salud. Desde 2014, la aplicación puede rastrear nuestros ejercicios, hábitos, alcohol en la sangre o algunos de nuestros consumos minerales. Pero una denuncia alertó a los usuarios y usuarias; durante un año fue incapaz de reconocer una de las situaciones de salud más comunes: la menstruación.

Siri, nuestra asistente Apple, una chica, tiene problemas para comprender algunas frases. El año pasado, unos investigadores señalaron que la herramienta no entiende frases como “me han violado” “mi marido me golpeó” y respondía a esas preguntas con algunas bromas de pésimo gusto.

También Snapchat y FaceApp

Snapchat, el más reciente protagonista de la mensajería instantánea, lanzó el 20 de Abril de 2016, una fecha festiva para los consumidores de marihuana, un filtro de fotos llamado “Bob Marley”  que oscurecía el tono de piel a los usuarios. Pocos meses más tarde lanzó otro filtro ofensivo: transformaba las caras de la gente en esteorotipados rasgos asiáticos.P

FaceApp nos ayuda a embellecer nuestras imagen y fotos. El filtro alisa nuestras arrugas, adelgaza nuestras mejillas y blanquea la piel. La compañía ha reconocido que el algoritmo del filtro había sido entrenado usando un conjunto de datos sesgad. Para entendernos: fue diseñado con la idea de que la belleza es blanca. Esta misma semana la popular aplicación rusa para selfies creativos ha vuelto a jugar con fuego añadiendo cuatro filtros que cambian la procedencia étnica de la cara.La compañía se ha visto obligada a retirar el filtro ante las criticas por racismo

Programas de diversidad

Considerados en su conjunto, este tipo de errores, pintan un cuadro de una industria que está fuera de contacto con las personas que realmente utilizan sus productos.

Estas las razones por las que los programas de diversidad, dirigidos a atraer trabajadores y trabajadoras de diversos orígenes, son necesarios no solo desde el punto de vista de la equidad sino también del negocio.

El error del despedido ingeniero de Google no es su exceso de libertad de expresión, insostenible ética o científicamente, sino mantener la tecnología como algo hostil a la diversidad

Comentarios