domingo, noviembre 10, 2024
- Publicidad -

Importantes empresas tech se suman a un consorcio para la seguridad de la IA

No te pierdas...

El gobierno de Joe Biden (Estados Unidos) ha logrado alcanzar un acuerdo con algunas de las grandes empresas tecnológicas estadounidenses, a fin de que estas se sumen a un consorcio que va a trabajar para mejorar el desarrollo y la seguridad en el campo de la inteligencia artificial (IA).

El Consorcio del Instituto de Seguridad de la IA (AISIC, por sus siglas en inglés) está formado por más de 200 empresas entre las que se incluyen OpenAl, Alphabet (Google), Microsoft, Meta (Facebook), Apple, Amazon, Nvidia, JPMorgan Chase y Bank of America.

Gina Raimondo, Secretaria de Comercio de Estados Unidos, ha destacado en un comunicado que “el gobierno de Estados Unidos tiene un importante papel que desempeñar en el establecimiento de las normas y el desarrollo de las  herramientas que necesitamos para mitigar los riesgos y aprovechar el inmenso potencial de la inteligencia artificial”.

El grupo de trabajo va a centrarse en un conjunto de acciones que han sido definidas como prioritarias.

Más pruebas de seguridad para la IA

El notable desarrollo que ha experimentado la inteligencia artificial en muy poco tiempo, ha despertado la desconfianza de los gobiernos a nivel internacional. De hecho, el año pasado, Sam Altman, CEO de OpenAI, estuvo en varios países para hablar más sobre la tecnología de su empresa y ayudar a superar las reticencias que existen en torno a la IA.

Pero los gobiernos creen que este es un campo complejo que abre la puerta a nuevos riesgos, y que hay que trabajar en él.

Las propias empresas implicadas en el desarrollo de inteligencias artificiales generativas se han comprometido a hacer su tecnología más segura. Por ello, desde el año pasado, se vienen realizando en Estados Unidos diferentes simulacros de ataques para identificar posibles brechas de seguridad en la IA que den acceso a hackers. 

En diciembre, la Administración Biden dio un paso más y confirmó que estaba empezando a redactar normas y orientaciones que van a ser clave para el despliegue de la IA y para las pruebas de seguridad que las compañías vendrán obligadas a realizar en un futuro, antes de poner un servicio a disposición de los usuarios.

En Europa también existe una creciente preocupación en torno a este tema. La Unión Europea ya está trabajando en una normativa para regular los usos de la IA, un campo en el que va a ser pionera.

¿Cuál es la labor del AISIC?

El Consorcio del Instituto de Seguridad de la IA se ha comprometido a implementar las acciones dispuestas en la Orden Ejecutiva sobre la IA emitida por Joe Biden en octubre de 2023. Esto implica tareas como:

  • Desarrollar directrices y puntos de referencia que ayuden a identificar y evaluar las capacidades de la inteligencia artificial. Con especial atención a aquellas que tienen potencial para causar daño.
  • Idear enfoques de prácticas de desarrollo seguro de la IA generativa, incluyendo consideraciones especiales para los modelos básicos de doble uso.
  • Trabajar en el desarrollo de entornos de prueba que estén disponibles para todas las empresas que los necesiten.
  • Implementar prácticas para que el aprendizaje automático no se convierta en un riesgo para la privacidad de las personas.
  • Crear herramientas para autenticar el contenido digital y diferenciar entre el creado por humanos y el creado por IA.
  • Desarrollar criterios relacionados con las habilidades de la fuerza laboral de IA. Esto incluye gestión de riesgos, pruebas, evaluaciones y procesos de verificación.
  • Analizar la interacción entre los humanos y la IA, con especial atención a la forma en la que los humanos dan sentido a la inteligencia artificial y a cómo se relacionan con ella en diferentes contextos.

El consorcio va a aportar un conjunto de equipos de prueba y de evaluación para las soluciones de IA, algo que ayudará al gobierno a establecer las bases para la nueva ciencia de medición de la seguridad de la inteligencia artificial.

Relacionadas

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

- Publicidad -

Últimas noticias

- Publicidad -