El Marco Normativo de la Inteligencia Artificial en Europa: Un Análisis Integral y Perspectivas Internacionales

El Marco Normativo de la Inteligencia Artificial en Europa: Un Análisis Integral y Perspectivas Internacionales

Compartir:

Antonio Tejeda Encinas. Presidente Comite Euro Americano Digital Law

El Reglamento de Inteligencia Artificial (IA) de la Unión Europea, que entrará en vigor completamente en 2025, representa un avance crucial en la regulación de tecnologías emergentes, con un enfoque en la protección de los derechos fundamentales, en particular la privacidad y la seguridad. No obstante, uno de los aspectos más debatidos del reglamento es la exclusión explícita de los usos militares y de seguridad nacional, lo que deja un vacío regulatorio significativo que debe ser cuidadosamente considerado.

Exclusión del Ámbito Militar: Artículo 2.3 del Reglamento de IA

El artículo 2.3 del Reglamento (UE) 2024/1689 establece que las disposiciones del Reglamento no se aplican a los sistemas de IA utilizados exclusivamente para fines militares o de seguridad nacional. Esta exclusión implica que los sistemas de IA destinados a la defensa no están sujetos a las estrictas restricciones que se imponen en otros sectores. Además, esta exención se extiende a los resultados de salida de sistemas de IA utilizados para fines militares que no se comercializan ni se ponen en servicio en la Unión Europea.

La Exposición de Motivos (Recital 24), refuerza esta posición, señalando que las normativas que protegen los derechos fundamentales en el uso civil de la IA no se extienden a las aplicaciones militares. Este enfoque refleja una decisión estratégica de la UE de no limitar el desarrollo y la implementación de la IA en el sector militar, considerado esencial para la seguridad y la autonomía estratégica de sus Estados miembros. Sin embargo, esta decisión también genera preocupaciones sobre la falta de supervisión y el potencial uso indebido de tecnologías avanzadas en contextos de defensa, lo que podría llevar a consecuencias imprevistas en términos de derechos humanos y estabilidad global.

Perspectiva Internacional y Esfuerzos Regulatorios

A pesar de la exclusión en el reglamento europeo, el uso militar de la IA no ha quedado completamente desregulado a nivel internacional. En el ámbito supranacional, la OTAN ha adoptado un enfoque proactivo para regular la IA en aplicaciones militares. En octubre de 2021, los Ministros de Defensa de la OTAN aprobaron una “Estrategia de Inteligencia Artificial” que incorpora seis principios fundamentales: legalidad, responsabilidad y rendición de cuentas, inteligibilidad y trazabilidad, fiabilidad, gobernabilidad y mitigación del sesgo. Estos principios buscan asegurar que el desarrollo y uso de la IA en defensa se realicen de manera ética y bajo un marco de responsabilidad clara.

Para garantizar el cumplimiento de estos principios, la OTAN ha establecido la “Junta de Revisión de Datos e Inteligencia Artificial (DARB)”, un órgano multidisciplinario encargado de supervisar el uso de la IA en el ámbito militar. Esta entidad también es responsable de desarrollar normas de certificación para asegurar que la industria militar y los ejércitos implementen sistemas de IA que cumplan con los principios establecidos. Este esfuerzo se complementa con las insistencias del Parlamento Europeo en la necesidad de imponer un control humano sobre los sistemas de armas autónomos, preocupación reflejada en diversas resoluciones, incluyendo la del 12 de septiembre de 2018.

Además, en el contexto de las Naciones Unidas, la reciente resolución de la Asamblea General (AGNU 78/241) subraya la importancia de una regulación global de las armas autónomas, haciendo hincapié en la necesidad de un control riguroso para prevenir el uso indiscriminado o irresponsable de estas tecnologías.

La Regulación en España: Ejemplo Nacional

España ha avanzado significativamente en la regulación del uso militar de la IA a nivel nacional con la aprobación de la Resolución 11197/2023, que establece la “Estrategia de Desarrollo, Implementación y Uso de la Inteligencia Artificial en el Ministerio de Defensa”.

Esta estrategia adopta los seis principios formulados por la OTAN y añade un séptimo principio: el de “privacidad”. Este principio subraya la necesidad de respetar la privacidad en todas las fases del desarrollo y uso de la IA en contextos militares, reflejando un enfoque integral hacia la protección de los derechos fundamentales.

Además, la estrategia española prioriza el uso de la IA en diversas áreas clave como la movilidad militar, la inteligencia, la ciberdefensa y el apoyo a la toma de decisiones.

Para garantizar un seguimiento efectivo, se ha creado un “grupo de trabajo permanente” encargado del desarrollo y la supervisión de esta estrategia. Este grupo asesorará a las autoridades en los aspectos éticos derivados del empleo de la IA en el ámbito militar, además de fomentar la investigación y la formación en tecnologías de IA para el personal militar.

Consideraciones Éticas y Jurídicas

La exclusión del uso militar de la IA del Reglamento europeo plantea desafíos éticos y jurídicos considerables. Aunque la regulación basada en principios, como la adoptada por la OTAN y España, ofrece un marco orientador, carece de la precisión que podría proporcionar una regulación más específica y detallada. Esta ambigüedad puede llevar a interpretaciones dispares y a una falta de coherencia en la aplicación de la normativa, lo que podría resultar en riesgos no deseados o en el uso indebido de tecnologías de IA en el ámbito militar.

En definitiva, mientras que la Unión Europea ha hecho un esfuerzo significativo por regular el uso civil de la IA, su decisión de excluir los usos militares de esta normativa deja un vacío regulatorio que plantea desafíos éticos y de seguridad.

Este análisis se basa en el texto del Reglamento de IA, tal como está actualmente redactado y publicado en el Diario Oficial de la Unión Europea, y en las discusiones que han tenido lugar en torno a su implementación.