Título SEO en español: California aprueba polémica ley que regula el entrenamiento de modelos de IA Título traducido al español: California aprueba polémico proyecto de ley que regula el entrenamiento de modelos de IA
**California quiere regular la Inteligencia Artificial con un nuevo proyecto de ley**
El debate sobre qué está bien y qué está mal en relación con la inteligencia artificial generativa ha llevado a que la Asamblea y el Senado del Estado de California aprobaran el proyecto de ley Safe and Secure Innovation for Frontier Artificial Intelligence Models Act (SB 1047), que es una de las primeras regulaciones significativas para las IA en los Estados Unidos.
El proyecto de ley, que fue votado el jueves, ha sido motivo de debate en el Valle del Silicio, ya que básicamente exige que las empresas de IA que operan en California implementen una serie de precauciones antes de entrenar un «modelo de base sofisticado».
Con la nueva ley, los desarrolladores tendrán que asegurarse de que pueden apagar rápidamente y por completo un modelo de IA si se considera inseguro. Los modelos de lenguaje también deberán estar protegidos contra «modificaciones inseguras posteriores al entrenamiento» o cualquier cosa que pueda causar «daños críticos». Los senadores describen el proyecto de ley como «salvaguardias para proteger a la sociedad» del mal uso de la IA.
El profesor Hinton, ex director de IA de Google, elogió el proyecto de ley por considerar que los riesgos de los sistemas de IA potentes son «muy reales y deben tomarse extremadamente en serio».
Sin embargo, empresas como OpenAI e incluso pequeños desarrolladores han criticado el proyecto de ley de seguridad de la IA, ya que establece posibles sanciones penales para aquellos que no cumplan. Algunos argumentan que el proyecto de ley perjudicará a los desarrolladores independientes, quienes necesitarán contratar abogados y lidiar con la burocracia al trabajar con modelos de IA.
El gobernador Gavin Newsom tiene hasta finales de septiembre para decidir si aprueba o veta el proyecto de ley.
**Apple y otras compañías se comprometen con las normas de seguridad de la IA**
A principios de este año, Apple y otras empresas tecnológicas como Amazon, Google, Meta y OpenAI acordaron un conjunto de normas voluntarias de seguridad de la IA establecidas por la administración Biden. Las normas de seguridad establecen compromisos para probar el comportamiento de los sistemas de IA, asegurando que no exhiban tendencias discriminatorias o tengan problemas de seguridad.
Los resultados de las pruebas realizadas deben ser compartidos con gobiernos y la academia para su revisión por pares. Al menos por ahora, las directrices de la Casa Blanca sobre la IA no son exigibles por ley.
Apple, por supuesto, tiene un gran interés en este tipo de regulaciones, ya que la empresa ha estado trabajando en funciones de Inteligencia Apple, que se lanzarán al público más adelante este año con iOS 18.1 y macOS Sequoia 15.1.
Es importante tener en cuenta que las funciones de Inteligencia Apple requieren un iPhone 15 Pro o posterior, o iPads y Macs con el chip M1 o posterior.
En conclusión, la regulación de la IA es un tema candente en la actualidad, con diferentes perspectivas y opiniones sobre cómo debe ser abordada. Tanto las acciones legislativas como los compromisos voluntarios de las empresas juegan un papel importante en garantizar que la IA se utilice de manera segura y ética en beneficio de la sociedad. Esperamos que estas medidas contribuyan a un desarrollo responsable de la inteligencia artificial en el futuro.