Artículo de fraude
Cómo abordan los EE. UU., el Reino Unido y la UE la creación de marcos legales sobre inteligencia artificial (IA)
Con muchos países en proceso de discutir o ya avanzando con legislación para regular el uso de la inteligencia artificial, hemos recopilado la información más importante que necesita saber sobre cómo las principales economías abordan la regulación de la IA

Perspectiva global sobre los marcos legales sobre inteligencia artificial (IA)
Las preocupaciones éticas de la IA han cobrado protagonismo a medida que los sistemas de IA se integran más en nuestras vidas diarias.
Según el Informe sobre el Índice de IA 2023 de Stanford, los registros legislativos de 127 países muestran que el número de proyectos de ley que contienen el término “inteligencia artificial” aprobados se incrementó de solo 1 en 2016 a 37 en 2022. Un análisis de los registros parlamentarios sobre IA en 81 países también muestra que las menciones de IA en los procedimientos legislativos globales han aumentado casi 6.5 veces desde 2016.
¿Por qué es eso?
Aumentan las preguntas éticas en torno a los sistemas de IA debido a la creciente implementación y la investigación sobre dichos sistemas debido a su mayor disponibilidad. Las cuestiones éticas que imponen altos riesgos en torno a la IA y que afectan negativamente la seguridad o los derechos fundamentales se han vuelto más evidentes para el público en general. Estos problemas también intersectan profundamente con áreas existentes de regulación, por ejemplo, en torno a la protección de datos personales y la privacidad, derechos de autor y protección contra la discriminación. Mientras tanto, las startups y las grandes empresas están en una carrera por desplegar y liberar modelos de IA más nuevos y potentes, por ejemplo, en torno a la IA generativa.
Efecto a nivel de política
La creciente popularidad de la IA ha llevado a organizaciones intergubernamentales, nacionales y regionales a tomar medidas hacia la gobernanza de la IA a nivel estratégico y operativo. Los gobiernos están cada vez más motivados por abordar las crecientes preocupaciones sociales y éticas para crear confianza y maximizar los beneficios de la tecnología. Por lo tanto, la gobernanza de las tecnologías de IA se ha vuelto esencial para los gobiernos de todo el mundo
Riesgos potenciales de la regulación
El aumento en la regulación de la IA también conlleva riesgos. Uno es el desafío de encontrar un equilibrio entre empoderar la confianza y asegurar la seguridad frente a la sobre-regulación que puede llevar a una innovación estancada y un estancamiento económico. Esta también es la razón por la cual algunos gobiernos, p. ej., el Reino Unido y EE. UU., han sido bastante conservadores al tomar decisiones audaces y agresivas en dirección a la regulación. La otra posible desventaja para las empresas es un mosaico regulatorio que dificulta la entrada al mercado, lo que hace que las empresas se alejen de la expansión. Aquí es donde se necesita una alineación intergubernamental e internacional; dado que el motor suele ser la sinergia económica, organismos como el Consejo de Comercio y Tecnología EE. UU.-UE tienen el potencial de eliminar obstáculos para las empresas que buscan operar a través de fronteras al crear una alineación a nivel de políticas.
1. Estados Unidos
EE. UU. actualmente no tiene una «ley de IA» uniforme y federal en comparación con lo que se adoptó en la UE. Although the intent for AI regulation in the US is accelerating then not many initiatives have succeeded in the legislature.
También hay una mayor actividad a nivel estatal, con diferentes estados que pretenden regular diferentes aspectos de la IA. Por ejemplo:
- Los estados de Colorado y Utah son los primeros en haber aprobado con éxito leyes integrales de gobernanza de IA del sector privado que afectan directamente cómo el sector privado utiliza los sistemas de IA. Vale la pena mencionar que, aunque la ley en Utah está más centrada en regular el uso de modelos de IA generativa, la Ley de Protección al Consumidor de IA de Colorado muestra un alto nivel de similitud con la Ley de IA de la UE. Esto indica que ya hay un cierto nivel del “efecto Bruselas” ocurriendo debido a la legislación en la UE diseñada para regular sistemas y modelos de IA, incluidos designar ciertos sistemas de IA como de riesgo aceptable y no aceptable.
- California también es un estado que impulsa múltiples leyes en torno a la regulación de la inteligencia artificial. Sin embargo, se concentra más en regular modelos más grandes y contenido sintético/generado y relacionada con la transparencia.
- Otros múltiples estados también están procesando leyes que se aplican a ciertos y específicos casos de uso de ciertos modelos y sistemas de IA. Por ejemplo, centrándose en casos de uso relacionados con el empleo.
El panorama de las leyes sobre IA en los estados de EE. UU. está cambiando rápidamente, por lo que es bueno seguir un rastreador de legislación disponible de una fuente autorizada (aquí hay un ejemplo) para mantenerse actualizado.
Aunque EE. UU. carece de un marco regulatorio integral sobre IA, hay un fuerte sentimiento por parte de las autoridades de EE. UU. de que los problemas relacionados con la IA, p. ej., el sesgo y la posible discriminación, se pueden y deben hacer cumplir bajo el actual marco legislativo. El 25 de abril de 2023, se publicó una “Declaración Conjunta sobre Esfuerzos de Aplicación Contra la Discriminación y el Sesgo en Sistemas Automatizados” por la Comisión Federal de Comercio, la Oficina de Protección Financiera del Consumidor, la División de Derechos Civiles del Departamento de Justicia, y la Comisión de Igualdad de Oportunidades en el Empleo. Según la declaración, las autoridades prometen aplicar enérgicamente sus autoridades colectivas y monitorear el desarrollo y uso de sistemas automatizados.
Un par de iniciativas también dan un fuerte indicio sobre la dirección política prevista y también crean ciertas obligaciones regulatorias. Por ejemplo, la Casa Blanca publicó “Un Plan para una Ley de Derechos sobre IA” en octubre de 2022. Sin embargo, este es actualmente un mapa de ruta no vinculante y sigue brindando orientación valiosa para las entidades sobre qué esperar respecto a futuras leyes que afectan el uso de IA en EE. UU.. Si bien no tiene fuerza de ley, esboza principios y recomendaciones clave que pueden moldear marcos legislativos y regulatorios. Entender estas pautas puede ayudar a las organizaciones a prepararse para posibles obligaciones legales y alinear sus prácticas de IA con los desarrollos anticipados.
En segundo lugar, en una nota más importante, el 30 de octubre de 2023, el presidente Biden publicó su tan esperado Orden Ejecutiva sobre el Desarrollo y Uso Seguro, Seguro y Confiable de la Inteligencia Artificial. Con la Orden Ejecutiva, el presidente dirige acciones para proteger a los estadounidenses de los posibles riesgos de los sistemas de IA, sistemas para fortalecer las capacidades del país en inteligencia artificial (IA), promover el descubrimiento científico, la competitividad económica y la seguridad nacional.
El aumento en la regulación de la IA también conlleva riesgos. Uno es el desafío de encontrar un equilibrio entre empoderar la confianza y asegurar la seguridad frente a la sobre-regulación que puede llevar a una innovación estancada y un estancamiento económico.
2. Reino Unido
Aunque el sector de IA del Reino Unido está en auge (según el estudio del sector de IA del Reino Unido), el país es relativamente ligero en regulación.
El Departamento de Ciencia, Innovación y Tecnología publicó un documento técnico el 29 de marzo de 2023 titulado «Regulación de IA: Un Enfoque Pro-Innovación«, que establece las propuestas del Gobierno del Reino Unido para regular la inteligencia artificial (IA) de una manera pro innovadora. El documento reconoce los beneficios potenciales de la IA, como mejorar la atención médica, mejorar los sistemas de transporte y aumentar la productividad económica, al tiempo que también reconoce los posibles riesgos y desafíos asociados con esta tecnología emergente.
Actualmente, el Reino Unido no cuenta con una regulación integral de IA, y a primera vista parece que no hay ninguna seria en el horizonte. Sin embargo, el gobierno del Reino Unido tiene la intención de otorgar más poderes a los reguladores específicos del sector existentes para abordar los riesgos de la IA en torno a los siguientes 5 principios: (i) seguridad, protección y solidez; (ii) transparencia y explicabilidad adecuadas; (iii) equidad; (iv) rendición de cuentas y gobernanza; y (v) posibilidad de impugnación y reparación.
El gobierno anterior del Reino Unido ha confirmado que evitará «legislación excesiva» para no obstaculizar la capacidad de responder a los avances tecnológicos, y en su lugar «tomará un enfoque adaptable para regular la IA», permitiendo a los reguladores utilizar su experiencia para modificar la implementación de los principios según el contexto específico de la IA en el respectivo sector del regulador. Es probable que los reguladores tengan la obligación de aplicar los principios si no pueden implementarlos y hacerlos cumplir voluntariamente. Se anima a los reguladores clave a emitir más orientaciones y recursos sobre cómo implementar los cinco principios y cómo se aplicarán estos principios dentro de sus sectores específicos.
Por ejemplo, en abril de 2024, la Autoridad de Conducta Financiera (FCA) del Reino Unido, la autoridad que supervisa los servicios financieros y las empresas de fintech en el Reino Unido, publicó su actualización sobre IA. Al reflexionar sobre el pasado y el futuro, la FCA enfatizó que están colaborando con las empresas para entender el uso de IA en el sector y también se centran claramente en el aumento de los riesgos relacionados con la resiliencia operativa, la subcontratación y los terceros críticos. Las empresas deben tenerlo en cuenta cuando se les pregunte sobre su uso de IA.
Sin embargo, es probable que existan algunas brechas entre los diversos enfoques de los reguladores y, por lo tanto, es posible que se requiera legislación para asegurar una consideración coherente de los principios. También se espera que el gobierno del Reino Unido reevalúe su enfoque en caso de que el enfoque relativamente poco centralizado cause un aumento del «mosaico regulatorio».
Los primeros signos de tal re-evaluación ya están aquí, ya que las conversaciones sobre algún nivel de regulación de modelos de IA y proveedores de modelos se ha intensificado con el nuevo Gobierno tomando posesión. A medida que el Reino Unido busca fortalecer su relación con la UE, el potencial “Proyecto de Ley de IA del Reino Unido” puede ser un paso hacia tal alineación, especialmente considerando el hecho de que el Reino Unido, EE. UU. y UE han firmado el primer tratado internacional abordando los riesgos de la inteligencia artificial.
3. Europa
En abril de 2021, la Comisión Europea propuso el primer marco integral para regular el uso de la IA. La prioridad de la Unión Europea es asegurar que los sistemas de IA utilizados y desarrollados en la Unión Europea sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente.
Al igual que el Reglamento General de Protección de Datos de la UE (GDPR), que regula el procesamiento de datos personales, la Ley de IA de la UE podría convertirse en un estándar global, determinando hasta qué punto la IA tiene un efecto positivo en lugar de negativo. La regulación de IA de la UE ya está causando revuelo internacionalmente y puede leer más sobre ello en nuestro blog anterior.

¿Quieres aprender más?
Habla con uno de los expertos en cumplimiento de Veriff para conocer cómo la IDV puede ayudar a tu negocio.