La Inteligencia Artificial y su marco regulatorio en la Unión Europea.
Es de todos conocido que la Inteligencia Artificial (IA) y las capacidades de aprendizaje automático están creciendo a un ritmo sin precedentes, son una herramienta que puede mejorar el nivel de vida de los individuos, incluso resolver algunos de los desafíos más grandes a nivel global y también es vista desde el enfoque de la salvaguarda de los ciudadanos, la defensa de las naciones y el mantenimiento de la paz y la estabilidad internacional.
Pero; la IA, también puede ser considerada como una tecnología de doble uso, como la mejora en la toma de decisiones que se busca lograr con el empleo de IA y que considera también el ámbito de la ciberseguridad, porque a medida que la IA está cada vez más integrada en los sistemas críticos, se deben proteger dichos sistemas ante posibles ciberataques.
Los targeting killings, la desinformación y el empleo de sistemas inteligentes para buscar vulnerabilidades en infraestructuras críticas, se presentan como uno de los grandes desafíos de estos tiempos. Por lo que resulta de gran importancia, analizar la nueva y primera aprobación de una ley mundial de inteligencia artificial que aprobó recientemente la Unión Europea (UE) y que nos llevan a diversas interrogantes sobre la regulación jurídica de la IA y sus impactos.
Debido a su importancia en el desarrollo económico y militar, el desarrollo de la IA se ha elevado al estado de una estrategia nacional. Estados Unidos, China, Francia, la Unión Europea, todos han desarrollado estrategias para el uso de la IA. En México aún no existe un rumbo establecido, lo que no sólo nos pone en desventaja económica, sino que al existir una falta de principios y valores en el desarrollo, adquisición e implementación de esta tecnología, estamos a merced de que actores o empresas violenten principios éticos o derechos humanos.
El armamento de IA es inevitable y aunque no se ha logrado alcanzar un consenso para su empleo, tal vez resulte más sencillo acordar valores que políticas para su control. Si consideramos que en la actualidad no hay consenso suficiente en cuanto a la interpretación de si el Derecho Internacional Humanitario en el ciberespacio brinda protección legal para la población civil, el empleo de tecnología como la IA, con sus impactos aún desconocidos, agrava la situación y entorno de protección de los individuos.
Desafortunadamente, como la historia nos ha recordado en diversas ocasiones, un lenguaje poderoso en un documento oficial por sí solo no es suficiente para prevenir violaciones sistemáticas de los derechos humanos. De la misma forma que nos ha enseñado los peligros que trae consigo el desarrollo en secreto de armas, de las cuales desconocemos sus impactos reales.
Indudablemente que la falta de un marco de gobernanza global para la tecnología hace correr el riesgo de fragmentar el ciberespacio, lo que podría disuadir el crecimiento económico, agravar las rivalidades geopolíticas y ampliar las divisiones dentro de las sociedades de ahí la importancia de este nuevo ordenamiento que emana desde Europa.
Estamos hablando que desde la Unión Europea; nace la primera norma jurídica integral a nivel mundial destinada a regular el uso de la inteligencia artificial (IA); es, la nueva normativa, conocida como la ley de inteligencia artificial, que ha recibido el respaldo final de las instituciones europeas y se espera que marque un hito en la regulación tecnológica global, cuyo objetivo es establecer un marco legal que garantice que el desarrollo y uso de la IA para que se realicen de manera segura y ética.
Su aplicación total se tiene prevista para el año 2026, y como toda legislación perfectible, se irá adaptando poco a poco a otras legislaciones de otros países o legislaciones de otros países van a retomar conceptos de esta nueva ley global, toda vez que esta legislación sigue un enfoque basado en el riesgo, lo que significa que cuanto mayor sea el riesgo de causar daños a la sociedad, más estrictas serán las normas de conformidad a lo establecido desde el Consejo Europeo.
Este marco normativo europeo; busca garantizar el respeto de los derechos fundamentales de los ciudadanos de la UE y estimular la inversión y la innovación en materia de inteligencia artificial en ese continente.
Es importante señalar que esta ley solo se aplica a ámbitos de la legislación de la UE y prevé exenciones. Por ejemplo, para los sistemas utilizados exclusivamente con fines militares y de defensa, así como con fines de investigación.
Luego entonces; esta ley histórica, que es la primera de su tipo en el mundo; es un hito importante para la Unión Europea, porque también por primera vez aborda un desafío tecnológico global que también crea oportunidades para nuestras sociedades y economías. Con la Ley de Inteligencia Artificial, Europa hace hincapié en la importancia de la confianza, la transparencia y la rendición de cuentas a la hora de abordar las nuevas tecnologías. Además, garantiza que esta tecnología en rápida evolución pueda prosperar e impulsar la innovación europea.
Debemos tener en el radar que con el gran impacto que está teniendo la tecnología en la actualidad, algunos hablan de una nueva revolución digital que puede modificar el mundo como lo conocemos. Cuando se hace alusión al término “inteligencia artificial” el primer pensamiento, tiende a ser fatalista, ya que de manera ficticia, imaginamos robots y máquinas que resultan amenazantes para el ser humano.
Lo anterior resulta inexacto, pues la inteligencia artificial pretende asimilar el conocimiento humano, programándose en distintos elementos tecnológicos, mediante el uso de algoritmos con el fin de simular el pensamiento, procesos neurológicos y acciones de los seres humanos, y no necesariamente supone un peligro, aunque existen riesgos que se deben atender.
La constante investigación y el debido seguimiento al tema, permite analizar y comprender los beneficios, retos y peligros de esta tecnología. Uno de los muchos cuestionamientos es si el avance de las inteligencias artificiales llegará a suplir y superar en su totalidad a la actividad humana, debido a su alta eficiencia y capacidad.
El uso de esta tecnología plantea preguntas éticas importantes, que eventualmente vislumbra cuestiones jurídicas de análisis necesario y sin precedente alguno, como la responsabilidad de las decisiones tomadas por los sistemas de Inteligencia Artificial y la privacidad de los datos utilizados para su funcionamiento.
Uno de los mayores retos que existen será el tema de regulación, dónde se deberá establecer un marco jurídico que delimite en lo general y lo particular situaciones derivadas del uso de la Inteligencia Artificial, lo que supone un peligro mayúsculo.
Dentro de los principales temas a atender está el de responsabilidad, pues la inteligencia artificial carece de personalidad jurídica, derechos y obligaciones, por lo que resulta imposible reclamarle a un medio tecnológico que responda ante una situación de conflicto. El mayor problema será en la regulación y la manera en que se imputará, pues habrá que definir si los responsables serán todos los intervinientes en la cadena de valor del robot, el usuario, o si se elabora una figura en la que recaiga sobre la propia inteligencia artificial.
Adicionalmente, el tema de derechos de autor deberá estar en la agenda, pues la capacidad de los robots de crear arte o inventos de forma autónoma impacta en las normas de propiedad intelectual, que solo prevé la protección de creaciones desarrolladas por humanos.
Estos y otros importantes desafíos significativos; son un gran reto para la legislación mexicana y de otros países de América Latina, debido a la rápida evolución de la tecnología y la necesidad de evitar que las regulaciones, también se puedan conviertir en obstáculos para la innovación.
Según la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), la IA tiene un enorme potencial para el bien social y la promoción de la consecución de los objetivos y metas de desarrollo sostenible, si se desarrolla de una manera que beneficie a la humanidad y respete las normas y estándares mundiales y ese es el Quid del asunto; toda vez que la propia UNESCO de igual forma ha señalado que las tecnologías disruptivas como la IA ya están cambiando el mundo tal y como lo conocemos, pero la discusión sobre los límites y peligros de estas innovaciones se están olvidando de la parte ética y social, por lo que resulta necesario establecer una hoja de ruta sobre cómo entender a la IA, cómo enfocar estos desarrollos, cómo prevenir los impactos negativos, cómo definirlos y cómo avanzar regulaciones e instituciones.
En tal virtud; para conseguir resultados fiables, el sistema de IA debe estar protegido frente a ataques y manipulaciones externas, por lo que la adopción de normas y requisitos regulatorios en este ámbito puede aportar a los usuarios una mayor seguridad.
En varios países; los marcos existentes en la actualidad, no formulan claramente los requisitos específicos que deben cumplirse y no incluyen orientaciones concretas sobre cómo llevarlos a la práctica, por ello, es muy importante que se desarrollen las directrices y normas de forma continua para conseguir una IA fiable, y que se debatan abiertamente en las distintas industrias y sectores.
En México; se requiere construir una estratégica nacional para la inteligencia artificial y para lograr lo anterior, además de las diversas mesas de trabajo que pueda conjuntar el sector público y privado, sociedad civil, academia, expertos y diversos actores interesados, es importante que le den un vistazo a lo impulsado desde la Unión Europea que ya es la primera región del mundo, en regular el uso de la inteligencia artificial (IA).
Ver pasar el tiempo y no contar con un marco regulatorio; es preocupante, porque si la inteligencia artificial no está regulada y no existe un control de su desarrollo, todo podría descontrolarse y mantener ese descontrol, puede propiciar un verdadero peligro para los usuarios como consecuencia de la falta de protección de sus datos en la red pero también pasaría ser un grave problema de seguridad nacional.
Desde el año 2018, la Unión Europea ha comenzado su carrera para garantizar la seguridad de los usuarios en lo que a inteligencia artificial respecta. Este objetivo se materializó con la publicación de la Estrategia europea sobre la inteligencia artificial en 2018, un documento que ha marcado la hoja de ruta en el sector y para el 21 de abril de 2021, la Comisión Europea propuso un innovador marco regulatorio en materia de inteligencia artificial con el fin de fomentar su desarrollo, así como adopción en todo el mercado único europeo, el año pasado, no se llegó a un acuerdo político provisional entre el Consejo y el Parlamento Europeo para poner en marcha este marco jurídico tecnológico y que fuera vinculante para los 27 Estados miembros, pero por fin el Consejo aprobó el pasado mes de mayo, la ley sobre inteligencia artificial.
Esta nueva ley introduce una clasificación de riesgos, asignando diferentes niveles de regulación y control dependiendo del potencial daño que cada aplicación de IA pueda causar.
Llama poderosamente la atención que; por ejemplo, los programas de categorización biométrica, la captación indiscriminada de imágenes para elaborar bases de datos de reconocimiento facial, los programas que modifiquen el comportamiento humano, el reconocimiento de emociones o los programas de puntuación social estarán prohibidos.
Otro dato importante es que también se vetarán los modelos que recojan la información más íntima, como las creencias políticas o religiosas o la orientación sexual.
De igual forma; los sistemas de IA que presenten un riesgo limitado estarían sujetos a obligaciones de transparencia muy ligeras, mientras que los sistemas de IA de alto riesgo estarían autorizados, pero sujetos a una serie de requisitos y obligaciones para acceder al mercado de la UE.
Lo innovador de esta norma jurídica; es en relación a la posible manipulación cognitivo-conductual y la puntuación social, que estarán prohibidos en la UE porque su riesgo se considera inaceptable.
Sobre el tema de seguridad pública y en relación a las estrategias de precrimen también habrá un interesante cambio ya que la ley también prohíbe el uso de la IA para la vigilancia policial predictiva basada en perfiles y sistemas que utilizan datos biométricos para clasificar a las personas según categorías específicas como raza, religión u orientación sexual, y se infiere que también, respecto a sus antecedentes criminales ninguna persona podrá ser sometida a vigilancia por que se estaría discriminando a un excriminal, por el hecho de que en el pasado cometiera algún delito y que a pesar de haber sido juzgado y sentenciado por esa falta, se siga estigmatizando a esa persona limitando su libertad y su derecho a la reinserción social derivado a una vigilancia constante por cualquier ente privado ya que la única excepción al uso biométrico, para estos casos, lo tendrán las autoridades públicas, pero siempre bajo orden judicial y para una serie de casos concretos como delitos de alto impacto y violencia como secuestros, delitos contra la salud sexual, terrorismo o entre otros crímenes de alta peligrosidad.
También se podrán utilizar estos programas con la finalidad de encontrar a personas desaparecidas o víctimas, pero siempre bajo el control de las autoridades.
Es importante mencionar que respecto a los programas de IA que traten sobre la salud, la seguridad, el medio ambiente o derechos esenciales estarán considerados de «alto riesgo» y las Inteligencias Artificiales que impacten en resultados electorales o modifiquen la conducta de los votantes también serán clasificadas de grave peligro y tendrán muchas limitaciones.
Programas específicos como ChatGPT o los miles que existirán sufrirán reglas específicas adaptadas a cada uno de ellos.
Se prevé constituir en toda la estructura; a través de una rigurosa reingeniería institucional; que obligara, a la creación de varios grupos y órganos, como una oficina de IA dentro de la comisión para hacer cumplir las normas comunes en toda la UE, así como de un grupo científico de expertos independientes para apoyar las actividades de aplicación de la ley. También se prevé un Comité de IA con representantes de los Estados miembros para asesorar y asistir a la Comisión y a los miembros sobre la aplicación coherente y eficaz de la Ley de IA y un foro consultivo para que las partes interesadas aporten conocimientos técnicos al Consejo de IA y a la Comisión, toda vez que todo incumplimiento de la norma, tendrá consecuencias.
Las multas más graves serán entre 35 millones de euros o el 7% de su negocio global.
Las sanciones más laxas serán de aproximadamente 8 millones de euros; sin embargo, la ley estipula que las sanciones variarán dependiendo del volumen de ventas o el tamaño de la empresa. Así que las pymes y las empresas emergentes están sujetas a multas administrativas proporcionales.
Con ello se cumple el propósito, de impedir que esta tecnología limite o destruya los derechos fundamentales y además, tiene como objetivo garantizar la seguridad para que no sea utilizada con fines autoritarios.
Cada uno de los países que integran la Unión Europea; deberán adaptar sus legislaciones nacionales para velar por su correcto uso y después de esto, comenzarán otro tipo de regulaciones como aquellas que se orientaran a respetar los derechos de autor.