Biden anunció compromiso de empresas sobre seguridad de IA

Los gigantes tecnológicos aceptaron recibir supervisión por parte expertos independientes para analizar riesgos en los sistemas.

|
Biden anunció compromiso de empresas sobre seguridad de IA (AP Foto/Manuel Balce Ceneta)
Compartir noticia en twitter
Compartir noticia en facebook
Compartir noticia por whatsapp
Compartir noticia por Telegram
Compartir noticia en twitter
Compartir noticia en facebook
Compartir noticia por whatsapp
Compartir noticia por Telegram

El presidente de EUA, Joe Biden, anunció este viernes el compromiso conseguido por Amazon, Google, Meta, Microsoft y otras compañías que lideran el desarrollo de tecnología.

 Para cumplir con una serie de medidas de seguridad de inteligencia artificial negociadas por su gobierno es un paso importante para manejar la gran promesa y riesgos que se plantean.

El mandatario señaló que su administración ha obtenido compromisos voluntarios de 7 empresas estadounidenses para garantizar que sus productos de IA, sean seguros antes de lanzarse. 

Algunos de los compromisos exigen la supervisión por parte de terceros del funcionamiento de los sistemas comerciales de Inteligencia artificial, aunque no se especifica  quién se encargará de auditar la tecnología o deslindará responsabilidades a las empresas.

Biden declaró "Debemos ser lúcidos y estar atentos a las amenazas que puedan plantear las tecnologías emergentes", agregando que los negocios tienen la "obligación fundamental" de garantizar la seguridad de sus productos.

Señaló: "Las redes sociales nos han mostrado el daño que puede hacer una tecnología poderosa sin las medidas de seguridad adecuadas", añadió el líder de la nación de las barras y las estrellas "Estos compromisos son un paso prometedor, pero tenemos mucho más trabajo por hacer juntos".

El incremento de la inversión comercial en herramientas de IA generativa capaces de escribir textos convincentemente similares a los que realizan  los seres humanos y producir nuevas imágenes y otros medios ha despertado la fascinación de algunas personas.

Sin embargo también preocupación por su capacidad para engañar a las personas y difundir desinformación, entre otros peligros.

Los cuatro gigantes tecnológicos, junto con OpenAI, el fabricante de ChatGPT, y las nuevas empresas Anthropic e Inflection, se comprometieron a realizar pruebas de seguridad”.

Las cuales estarán a cargo parcialmente por expertos independientes" para protegerse contra los principales riesgos, incluyendo temas como la bioseguridad y la ciberseguridad.

En esas pruebas también se analizaran  los posibles daños sociales, como los prejuicios y la discriminación, y peligros  que son más teóricos sobre sistemas avanzados de IA que podrían hacerse con el control de sistemas físicos o "autorreplicarse" haciendo copias de sí mismos.

Las compañías  también se comprometieron con los métodos para reportar las vulnerabilidades de sus sistemas y con el uso de marcas de agua digitales para ayudar a distinguir entre las imágenes reales y las generadas por IA, denominadas como deepfake, que son manipuladas digitalmente.

Por último se especificó que deberán Informar públicamente sobre fallas y riesgos en su tecnología.

Con información de AP

Lo más leído

skeleton





skeleton