viernes 17.01.2020

Tres enfoques sobre el uso ético de la inteligencia artificial

Actualmente es indiscutible que la inteligencia artificial es la tecnología con más potencial para desencadenar cambios significativos en la sociedad  
Tres enfoques sobre el uso ético de la inteligencia artificial

Ese potencial viene de que, gracias a la inteligencia artificial, la tecnología puede introducirse en ámbitos que previamente eran exclusivamente “humanos”, y precisamente por eso suscita tantas cuestiones de carácter ético. La inteligencia artificial va a cambiar el mundo: que sea para bien o para mal depende fundamentalmente de consideraciones éticas. Y como los cambios son sociales, esas consideraciones éticas se convierten en una cuestión política, y por lo tanto legislativa.

Existen ahora mismo tres enfoques claramente diferenciados sobre como abordar esta cuestión, representados por Europa, Estados Unidos y China, que se podrían resumir como “prevenir los abusos”, “ya nos ocuparemos de los abusos cuando sucedan” y “no nos importan los abusos”.

Europa apuesta por la regulación, y concretamente por una regulación homogénea en toda la Unión Europea que proteja los derechos de los ciudadanos y favorezca el desarrollo industrial. Ursula von der Leyen declaró en su toma de posesión su intención de legislar a nivel europeo estas cuestiones, que ahora mismo se rigen por leyes muy dispersas y por unas “Directrices éticas para una IA confiable” elaboradas por un grupo de expertos y publicadas por la Comisión Europea en Abril del año pasado. Incluso menciona específicamente el modelo a imitar para ese esfuerzo legislativo, el RGPD (“Reglamento General de Protección de Datos”, también conocido por sus siglas en inglés “GDPR”). Este reglamento causó bastante polémica en la industria, ya que supuestamente ponía trabas al desarrollo de la sociedad digital en Europa. Tres años y medio después de su aprobación, no hay evidencia de ese impacto negativo, más allá del que tuvo por la necesidad de adaptar algunos sistemas y procedimientos, pero si de que ciertas prácticas cuando menos cuestionables son mucho menos frecuentes en Europa que en otros mercados. Otros países como Japón y Brasil han reproducido el modelo normativo del RGPD precisamente porque lo consideran un caso de éxito. Aunque, por supuesto, tampoco hay evidencia alguna de que haya ayudado a solucionar la enorme desventaja que tiene el sector de tecnologías digitales europeo. La propia Ursula von der Leyen reconoce esa desventaja cuando fija como objetivo conseguir la “soberanía tecnológica” en cuestiones claves como la inteligencia artificial, la computación cuántica o el uso del blockchain, renunciando al liderazgo en esas áreas porque “ya es demasiado tarde”.

El enfoque de Estados Unidos se basa en la auto-regulación y la preeminencia de las iniciativas privadas. Este enfoque, implícito durante mucho tiempo, se ha convertido en explícito y combativo durante la administración Trump. Este mismo mes, la Casa Blanca ha publicado una serie de directrices sobre la regulación del uso de la inteligencia artificial particularmente vagas, que inciden en la necesidad de evitar la “sobre-regulación”. No solo eso, sino que invita a sus aliados a hacer lo mismo y no duda en criticar el enfoque europeo como intervencionista y desincentivador para la innovación. Sin embargo, la realidad es que existen infinidad de normas de menor rango, a nivel estatal o municipal, que hacen muy compleja la implantación de ciertas tecnologías y elevan enormemente los costes y los riesgos legales. La conducción autónoma (para la cual la propia industria está pidiendo al gobierno más regulación, y que sea federal, proteccionista y estable en el tiempo) o el uso de reconocimiento facial en sistemas de seguridad privados son dos claros ejemplos de tecnologías cuyo desarrollo está frenado por carencias legislativas. Por otro lado, el uso de la inteligencia artificial en campos como la selección de personal, la concesión de créditos hipotecarios, la gestión de tratamientos médicos o el establecimiento de medidas penitenciarias plantean en Estados Unidos tremendos problemas éticos que, por el momento, no tienen una respuesta satisfactoria.

Finalmente, China se está convirtiendo rápidamente en el líder mundial en el uso de la inteligencia artificial mediante un enfoque altamente dirigido y controlado desde el gobierno, ignorando completamente cualquier consideración ética. Como en muchas otras cosas, China no necesita legislar porque la falta de autonomía, en este caso de las empresas tecnológicas, hace simplemente inviable que ninguna de ellas vaya en contra de lo que se decide de manera centralizada. Desde el punto de vista del uso ético de la inteligencia artificial los resultados están a la vista: desde la generalización del reconocimiento facial y el seguimiento físico de toda la población, al control efectivo del acceso a la información -que muchos otros países han intentado, como Rusia, Irán o Venezuela, con muchísimo menos éxito- hasta la implantación de un sistema de “puntos de ciudadanía” para el micro-control del comportamiento y la imposición generalizada de sanciones sin ningún soporte legal o control judicial.

Lamentablemente, el análisis de las cuestiones regulatorias suele estar muy contaminado por la ideología, con posiciones maximalistas como “toda regulación es mala porque va en contra de la industria” o “las multinacionales son perversas y hay que limitarlas mediante regulaciones”. Pero esta es una cuestión demasiado importante y compleja como para caer en eso: no está en juego únicamente el desarrollo de la industria tecnológica, sino el papel de los distintos bloques en las relaciones internacionales y el modelo de sociedad en la que viviremos en el futuro. No hay respuestas sencillas. Encontrar el balance entre protección de los derechos individuales y la libertad para innovar, y entre la necesaria estabilidad normativa y la vertiginosa evolución de la tecnología y la sociedad, puede marcar la diferencia.

Comentarios