El gobernador de California, Gavin Newsom, firmó este lunes una ley pionera que obliga a las principales compañías de inteligencia artificial (IA) a divulgar públicamente sus protocolos de seguridad, en lo que se considera el primer marco de este tipo en Estados Unidos.
La llamada Ley de Transparencia en la Inteligencia Artificial Fronteriza (TFAIA) se elaboró a partir de un informe estatal publicado a inicios de año por expertos, que alertaba sobre los riesgos crecientes asociados con el desarrollo de la IA.
“California ha demostrado que podemos establecer regulaciones para proteger a nuestras comunidades y, al mismo tiempo, garantizar que la industria de la IA siga prosperando. Esta legislación logra ese equilibrio”, señaló Newsom en un comunicado.
Te puede interesar: Apoyo de estadounidenses a Israel cae por debajo del de Palestina, según sondeo del NYT
Regulación y alcance
La norma exige que las grandes tecnológicas reporten incidentes de seguridad críticos y adopten mecanismos de protección para los denunciantes. Además, impulsa la creación de CalCompute, un clúster de computación en la nube pública destinado a ofrecer infraestructura de IA a startups e investigadores.
El proyecto fue impulsado por el senador demócrata Scott Wiener, quien ya había intentado en 2023 aprobar una medida más amplia, rechazada tras la presión de empresas como Meta y OpenAI.
California como referente
Newsom subrayó que, como cuarta economía mundial, California busca marcar el paso en la discusión nacional e internacional sobre regulación de la IA, con el objetivo de generar confianza pública en una tecnología que evoluciona rápidamente.
El senador Wiener calificó la aprobación de la ley como un avance que coloca al estado como “líder mundial en compromiso con la seguridad”. Recordó que el Senado de EE.UU. votó recientemente por amplio margen a favor de mantener el margen de acción de los estados en materia de regulación de la IA.
EFE
Por: Itzel Olivo




