Título SEO en Español: Apple acepta cumplir con las directrices federales para el desarrollo de inteligencia artificial Título traducido al español: Apple acepta las directrices federales para el desarrollo de inteligencia artificial
**El Compromiso de Apple con la Inteligencia Artificial y las Salvaguardas Voluntarias**
En un anuncio realizado el viernes pasado, la Casa Blanca informó que Apple, junto con otras grandes empresas tecnológicas, ha acordado adherirse a un conjunto de salvaguardas voluntarias en el desarrollo de modelos de inteligencia artificial. Estas medidas buscan garantizar la equidad, así como monitorear posibles problemas de seguridad o privacidad a medida que avanza el desarrollo de la inteligencia artificial.
**Las Directrices del Acuerdo**
Las directrices establecidas en la orden ejecutiva a la que Apple ha acordado adherirse en principio incluyen seis puntos clave:
1. Requerir que los desarrolladores de los sistemas de inteligencia artificial más potentes compartan los resultados de las pruebas de seguridad y otra información crítica con el gobierno de EE. UU.
2. Desarrollar estándares, herramientas y pruebas para garantizar que los sistemas de inteligencia artificial sean seguros, seguros y confiables.
3. Proteger contra los riesgos de utilizar la inteligencia artificial para manipular materiales biológicos peligrosos.
4. Proteger a los estadounidenses de fraudes y engaños habilitados por la inteligencia artificial estableciendo estándares y mejores prácticas para detectar contenido generado por inteligencia artificial y autenticar contenido oficial.
5. Establecer un programa avanzado de ciberseguridad para desarrollar herramientas de inteligencia artificial que permitan detectar y corregir vulnerabilidades en software crítico.
6. Ordenar el desarrollo de un Memorando de Seguridad Nacional que dirija acciones adicionales sobre inteligencia artificial y seguridad.
Bajo la orden ejecutiva, las empresas deben compartir los resultados de las pruebas de cumplimiento entre sí y con el gobierno federal. También se solicita una evaluación voluntaria de riesgos de seguridad, cuyos resultados también se deben compartir ampliamente.
**Falta de Penalizaciones y Supervisión**
Hasta el momento, no hay sanciones por incumplimiento, ni existe un marco de aplicación. Para ser elegibles para compras federales, los sistemas de inteligencia artificial deben ser probados antes de ser presentados en cualquier solicitud de propuesta.
No hay monitoreo del cumplimiento de los términos de la orden, y no está claro si se aplicarán medidas legalmente exigibles. Tampoco está claro qué podría suceder con el acuerdo bajo una futura administración.
**Perspectivas de Regulación de la Inteligencia Artificial**
Si bien ha habido esfuerzos bipartidistas para regular el desarrollo de la inteligencia artificial, ha habido poco movimiento o discusión después de un primer apoyo superficial. No se espera que se reanude ese debate pronto, y ciertamente no antes de las elecciones de noviembre de 2024.
La orden ejecutiva en octubre que precedió al compromiso de Apple se lanzó antes de un esfuerzo multinacional en noviembre de 2023 para establecer marcos seguros para el desarrollo de la inteligencia artificial. Aún no está claro cómo se relacionan estos dos esfuerzos, o si lo hacen.
Se espera que la Casa Blanca realice una nueva sesión informativa sobre el tema el 26 de julio.
**Conclusión**
El compromiso de Apple con las salvaguardas voluntarias en el desarrollo de la inteligencia artificial es un paso importante hacia la equidad y la seguridad en este campo en constante evolución. Aunque las directrices actuales no imponen sanciones por incumplimiento, es un primer paso hacia una regulación más estricta en el futuro. El seguimiento y la implementación efectiva de estas medidas serán clave para garantizar un desarrollo seguro y confiable de la inteligencia artificial en el futuro.