La inteligencia artificial (IA) ha dejado de ser una ensoñación de la ciencia ficción para convertirse en una fuerza omnipresente que moldea nuestra economía, nuestra cultura y, cada vez más, nuestras interacciones cívicas. Su avance, exponencial y disruptivo, plantea un desafío mayúsculo para el Derecho, que, como es habitual, sigue la estela de la tecnología, tratando de encauzarla sin ahogarla. En este complejo escenario, una reciente propuesta legislativa en Estados Unidos, impulsada por los senadores Josh Hawley y Richard Blumenthal —figuras de espectros ideológicos opuestos—, nos ofrece una valiosa oportunidad para reflexionar sobre el modelo de gobernanza que deseamos para esta nueva era.

La iniciativa, bautizada como Artificial Intelligence Risk Evaluation Act, destila un pragmatismo notable. Lejos de pretender una regulación omnicomprensiva y totalizadora, que correría el riesgo de nacer obsoleta, la propuesta se centra en un mecanismo de supervisión y evaluación de riesgos para los sistemas de IA más avanzados. La idea no es prohibir, sino comprender y auditar. Se propone la creación de un organismo federal independiente, una suerte de auditoría nacional de la inteligencia artificial, cuya misión sería evaluar los riesgos que los modelos más potentes pueden entrañar para la seguridad nacional, las infraestructuras críticas y los derechos fundamentales de los ciudadanos.
Este enfoque, eminentemente práctico, busca equilibrar la innovación con la protección. Los desarrolladores de los sistemas de IA más sofisticados estarían obligados a someter sus creaciones al escrutinio de esta nueva entidad antes de su lanzamiento comercial. No se trata de un cheque en blanco. El organismo tendría la potestad de exigir la implementación de salvaguardas y, en casos extremos, de imponer una moratoria a aquellos sistemas cuyos riesgos se consideren inasumibles. Esta suerte de “examen previo” o testing regulatorio constituye el núcleo de la propuesta y representa un cambio de paradigma: de una regulación ex post, que actúa cuando el daño ya se ha producido, a una supervisión ex ante, que busca prevenirlo.
La propuesta estadounidense, aunque con sus particularidades, dialoga con las corrientes regulatorias que vemos en otras latitudes. La Unión Europea, por ejemplo, con su ya célebre Reglamento de Inteligencia Artificial (AI Act), ha optado por un modelo basado en niveles de riesgo. Al igual que la iniciativa Hawley-Blumenthal, el enfoque europeo identifica y somete a mayores exigencias a aquellas aplicaciones de IA consideradas de “alto riesgo”. Sin embargo, la propuesta norteamericana parece concentrarse más en la capacidad intrínseca de los modelos —su potencia computacional, la vastedad de sus datos de entrenamiento—, mientras que el reglamento europeo pone un mayor énfasis en el caso de uso, es decir, en la finalidad para la que se aplica la tecnología. Son dos caras de la misma moneda, dos estrategias complementarias para un mismo fin: garantizar que el desarrollo tecnológico se alinee con los valores democráticos y el bienestar social.
La creación de un cuerpo de expertos independientes, como el que se perfila en el texto del Senado, es otro de sus grandes aciertos. La complejidad técnica de la IA hace que su supervisión no pueda recaer en los órganos regulatorios tradicionales, a menudo carentes de los conocimientos específicos necesarios. Se requiere una nueva estirpe de reguladores, versados tanto en el lenguaje de los algoritmos como en el de los derechos y libertades. Esta entidad no solo evaluaría los sistemas, sino que también actuaría como un centro de conocimiento, un faro que iluminaría las decisiones de legisladores y gobiernos en un ámbito técnico por definición.
No obstante, la implementación de una arquitectura regulatoria como esta no está exenta de desafíos. ¿Cómo definir con precisión qué constituye un “sistema de IA avanzado”? La tecnología evoluciona a un ritmo vertiginoso, y una definición demasiado rígida podría quedar desfasada en meses. Asimismo, será crucial garantizar la independencia real de este nuevo organismo, protegiéndolo de las presiones tanto de la industria tecnológica como de los vaivenes políticos. La transparencia de sus evaluaciones y la claridad de sus criterios serán la piedra angular de su legitimidad.
En definitiva, la propuesta de los senadores Hawley y Blumenthal es un síntoma de una creciente toma de conciencia global. La inteligencia artificial no es una herramienta más; es una tecnología fundacional que redefinirá los contornos de nuestra sociedad. Su gobernanza no puede dejarse al albur de las fuerzas del mercado ni de los intereses de unos pocos actores. Requiere un nuevo pacto, un contrato social actualizado para el siglo XXI, donde la innovación y la protección no sean vistos como objetivos contrapuestos, sino como elementos indispensables de un progreso verdaderamente humano. Esta iniciativa legislativa, más allá de su éxito o fracaso en el trámite parlamentario, nos invita a participar en una conversación que nos concierne a todos. Y es una conversación que no podemos permitirnos eludir.
SUBSTACK