EU fija límites al uso de la IA para agencias de seguridad nacional

Su uso presenta riesgos serios, como su posible uso para vigilancia masiva, ciberataques o armas autónomas letales.

|
EU fija límites al uso de la IA para agencias de seguridad nacional. (Foto: AP)
Compartir noticia en twitter
Compartir noticia en facebook
Compartir noticia por whatsapp
Compartir noticia por Telegram
Compartir noticia en twitter
Compartir noticia en facebook
Compartir noticia por whatsapp
Compartir noticia por Telegram

El gobierno de Biden ha presentado un conjunto de directrices destinadas a regular el uso de la inteligencia artificial (IA) por parte de las agencias de seguridad nacional e inteligencia de Estados Unidos. 

Estas normas buscan encontrar un equilibrio entre las grandes oportunidades que ofrece esta tecnología y la necesidad de mitigar sus riesgos.

El marco, firmado y anunciado esta semana por Joe Biden, tiene la finalidad de garantizar que las agencias gubernamentales accedan a las herramientas de IA más avanzadas, al tiempo que establecen límites claros para evitar abusos.

Promesas y riesgos de la IA en seguridad y defensa

La inteligencia artificial ha sido reconocida como una tecnología que podría revolucionar múltiples industrias, incluidos sectores críticos como el militar, la seguridad nacional y la inteligencia. 

Sin embargo, su implementación también presenta riesgos bastante serios, como su posible uso para vigilancia masiva, ciberataques o armas autónomas letales.

Jake Sullivan, asesor de seguridad nacional, destacó durante una presentación en la Universidad Nacional de Defensa de Washington que ‘se trata de la primera estrategia del país para aprovechar el poder y gestionar los riesgos de la IA con el fin de mejorar la seguridad nacional’.

Límites y prioridades estratégicas

El marco ordena a las agencias gubernamentales expandir el uso de sistemas avanzados de IA pero impone restricciones a ciertas aplicaciones. 

Entre los usos prohibidos, se encuentran aquellos que violen derechos civiles protegidos por la Constitución o cualquier sistema que automatice el despliegue de armas nucleares.

Otras disposiciones clave incluyen:

  • Fomentar la investigación en  inteligencia artificial.
  • Reforzar la seguridad en la cadena de suministro de chips informáticos del país.
  • Priorizar la protección de la industria estadounidense contra campañas de espionaje extranjeras.

Estas directrices son el resultado de una orden ejecutiva firmada por Biden en 2023, que pedía a las agencias federales definir políticas claras sobre el uso de la inteligencia artificial (IA).

Con estas nuevas normas, la Casa Blanca espera impulsar el uso y desarrollo responsable de la IA.

Esto crea desafíos adicionales para Estados Unidos, ya que debe asegurarse de estar a la altura de China y otros rivales tecnológicos que también buscan aprovechar el poder de la tecnología.

Sullivan subrayó que, a diferencia de innovaciones como la exploración espacial, el internet o la tecnología nuclear, desarrolladas principalmente por el gobierno, el sector privado lidera el avance de la inteligencia artificial.

Con información de AP

Lo más leído

skeleton





skeleton