En California, Estados Unidos, avanza un proyecto de ley que busca establecer un control humano sobre los sistemas de inteligencia artificial (IA) para prevenir potenciales amenazas a la seguridad pública.
Objetivos del proyecto de ley
La iniciativa tiene como propósito principal mitigar el riesgo de que la IA sea utilizada para crear nuevas formas de amenazas, incluyendo armas de destrucción masiva como biológicas, químicas, nucleares y también herramientas con capacidades cibernéticas ofensivas.
El borrador de la “Ley de Innovación Segura para Modelos de Inteligencia Artificial de Frontera”, presentado por el senador Scott Wiener, clasifica a la IA como una posible “amenaza persistente avanzada”. Este término se refiere a adversarios altamente sofisticados que cuentan con recursos significativos y pueden emplear diversos métodos de ataque, ya sean cibernéticos, físicos o de engaño, para comprometer la seguridad.
Medidas propuestas
El proyecto de ley propone que los desarrolladores de IA implementen estrictos protocolos de seguridad y que tengan la capacidad de desactivar completamente los modelos en caso de que representen un riesgo crítico. Además, se contempla la creación de una nueva división dentro de la Agencia de Operaciones Gubernamentales, encargada de supervisar el cumplimiento de estas regulaciones y emitir directrices pertinentes. También se establecen sanciones civiles y protecciones para los denunciantes que alerten sobre posibles incumplimientos.
Sanciones previstas
Las penalizaciones propuestas en el proyecto de ley SB 1047 para los desarrolladores que no cumplan con las disposiciones incluyen:
- Multas civiles: Hasta el 10% del costo de la potencia de cálculo utilizada para entrenar el modelo en la primera infracción y hasta el 30% en infracciones posteriores.
- Acciones civiles: Medidas como la eliminación del modelo y la suspensión de su uso si se determina que representa una amenaza.
- Daños monetarios y punitivos: Compensaciones para las personas afectadas por incumplimientos de las normas establecidas.
Asimismo, se proponen protecciones para los empleados que denuncien prácticas indebidas y la posibilidad de intervención judicial para asegurar el cumplimiento de las regulaciones.
Proceso legislativo
Es importante señalar que, actualmente, este proyecto de ley es una propuesta formal que debe atravesar un proceso de revisión, debate y aprobación por parte de los legisladores. Si es aprobado por la Asamblea de California, regresará al Senado estatal para otra votación. De obtener luz verde en ambas cámaras, será enviado al gobernador Gavin Newsom, quien tendrá la decisión final de firmarlo y convertirlo en ley o vetarlo.
Compromiso de las grandes tecnológicas
Paralelamente, empresas líderes en el desarrollo de IA como Apple, Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI han firmado un compromiso voluntario para promover el desarrollo de tecnologías de inteligencia artificial que sean seguras para la humanidad. Los puntos clave de este acuerdo incluyen:
- Realizar evaluaciones internas y externas de los modelos y sistemas para abordar posibles usos indebidos, riesgos sociales y preocupaciones de seguridad nacional, incluyendo bioseguridad y ciberseguridad.
- Prohibir la creación de modelos con la capacidad de autorreplicarse o crear copias de sí mismos.
- Desarrollar mecanismos que permitan a los usuarios identificar si el contenido de audio o visual ha sido generado por IA.
- Informar públicamente sobre las capacidades y limitaciones de los modelos o sistemas desarrollados.
Este acuerdo voluntario se enmarca en una orden ejecutiva emitida por el presidente de Estados Unidos, Joe Biden, que establece medidas para mitigar los riesgos de seguridad asociados con la inteligencia artificial, proteger la privacidad de los ciudadanos, promover la equidad y los derechos civiles, defender a los consumidores y trabajadores, y fomentar la innovación y la competencia en el sector tecnológico.
Preocupaciones sobre la IA como amenaza
El proyecto de ley y los acuerdos entre las empresas tecnológicas surgen en medio de crecientes preocupaciones sobre el potencial de la IA para ser utilizada con fines maliciosos. Expertos advierten que, sin una regulación adecuada, estos sistemas podrían facilitar la creación de armas biológicas o cibernéticas que pondrían en riesgo la seguridad global. Por ello, la legislación propuesta en California y los compromisos de las grandes tecnológicas representan pasos significativos hacia la implementación de salvaguardas que aseguren un desarrollo responsable y seguro de la inteligencia artificial.
0 comentarios