Biden anunció compromiso de empresas sobre seguridad de IA
Los gigantes tecnológicos aceptaron recibir supervisión por parte expertos independientes para analizar riesgos en los sistemas.
El presidente de EUA, Joe Biden, anunció este viernes el compromiso conseguido por Amazon, Google, Meta, Microsoft y otras compañías que lideran el desarrollo de tecnología.
Para cumplir con una serie de medidas de seguridad de inteligencia artificial negociadas por su gobierno es un paso importante para manejar la gran promesa y riesgos que se plantean.
El mandatario señaló que su administración ha obtenido compromisos voluntarios de 7 empresas estadounidenses para garantizar que sus productos de IA, sean seguros antes de lanzarse.
Algunos de los compromisos exigen la supervisión por parte de terceros del funcionamiento de los sistemas comerciales de Inteligencia artificial, aunque no se especifica quién se encargará de auditar la tecnología o deslindará responsabilidades a las empresas.
Biden declaró "Debemos ser lúcidos y estar atentos a las amenazas que puedan plantear las tecnologías emergentes", agregando que los negocios tienen la "obligación fundamental" de garantizar la seguridad de sus productos.
Señaló: "Las redes sociales nos han mostrado el daño que puede hacer una tecnología poderosa sin las medidas de seguridad adecuadas", añadió el líder de la nación de las barras y las estrellas "Estos compromisos son un paso prometedor, pero tenemos mucho más trabajo por hacer juntos".
El incremento de la inversión comercial en herramientas de IA generativa capaces de escribir textos convincentemente similares a los que realizan los seres humanos y producir nuevas imágenes y otros medios ha despertado la fascinación de algunas personas.
Sin embargo también preocupación por su capacidad para engañar a las personas y difundir desinformación, entre otros peligros.
Los cuatro gigantes tecnológicos, junto con OpenAI, el fabricante de ChatGPT, y las nuevas empresas Anthropic e Inflection, se comprometieron a realizar pruebas de seguridad”.
Las cuales estarán a cargo parcialmente por expertos independientes" para protegerse contra los principales riesgos, incluyendo temas como la bioseguridad y la ciberseguridad.
En esas pruebas también se analizaran los posibles daños sociales, como los prejuicios y la discriminación, y peligros que son más teóricos sobre sistemas avanzados de IA que podrían hacerse con el control de sistemas físicos o "autorreplicarse" haciendo copias de sí mismos.
Las compañías también se comprometieron con los métodos para reportar las vulnerabilidades de sus sistemas y con el uso de marcas de agua digitales para ayudar a distinguir entre las imágenes reales y las generadas por IA, denominadas como deepfake, que son manipuladas digitalmente.
Por último se especificó que deberán Informar públicamente sobre fallas y riesgos en su tecnología.
Con información de AP