Americans for Responsible Innovation insta a EE. UU. a evaluar los modelos de IA para contratos gubernamentales
Resumen
Americans for Responsible Innovation (ARI) está impulsando la implementación de normas más estrictas para el uso de inteligencia artificial en el gobierno de los Estados Unidos. La propuesta exige pruebas de seguridad obligatorias antes del despliegue, requisitos de informes exhaustivos y mecanismos de supervisión federal que superen los actuales compromisos voluntarios de la industria.
Brad Carson, presidente de ARI, sostiene que se deben adoptar medidas proactivas de seguridad para evitar fallos en lugar de actuar reactivamente. Esta iniciativa se suma a otros esfuerzos federales en Washington, como la posible redacción de una orden ejecutiva de la Casa Blanca y las evaluaciones de riesgo realizadas por el Center for AI Safety and Innovation (CAISI).
Para el sector de las criptomonedas y las finanzas descentralizadas, estos cambios plantean un desafío sobre la responsabilidad. A medida que las herramientas de IA se integran en protocolos y plataformas de activos digitales, queda por resolver quién debe garantizar el cumplimiento de los estándares de seguridad: si los desarrolladores, los laboratorios de IA o las organizaciones autónomas descentralizadas (DAO) que gestionan dichas plataformas.
(Fuente:Crypto Briefing)