Durante el verano, el Parlamento y el Consejo Europeos han publicado sus propuestas de modificación a la Ley de Inteligencia Artificial (IA), elaborada por la Comisión Europea en el 2021.[i] Lo que sigue ahora son negociaciones entre esas tres instituciones europeas sobre la versión final de la Ley. En este escrito enfocaré una de las sugerencias que el Parlamento ha puesto sobre la mesa –la definición de la IA– y trataré de explicar distintas lecturas de la misma. El lector podría preguntarse qué necesidad tenemos de este ejercicio de análisis minucioso y a lo mejor tendría razón: la Ley tiene muchos más aspectos para analizar, pero considero interesante efectuar este “descuartizamiento” de un concepto interpretado por las instituciones europeas en maneras tan distintas. Además, mirarlo de cerca nos ofrece también las lecturas a macro nivel sobre la regulación de la tecnología en general y la IA en particular.
Generalmente, las opiniones sobre esta Ley son varias, y una parte de la industria ha expresado su desacuerdo en una carta firmada por 150 ejecutivos de grandes empresas que consideran la Ley de IA demasiado restrictiva y que podría limitar la competitividad europea,[ii] mientras la sociedad civil y la comunidad académica piden más garantías para los derechos fundamentales,[iii] que consideran insuficientes en la versión de la Comisión Europea del 2021.
Dichas cartas y declaraciones son señales de que la Ley incomoda tanto a los que temen abusos que la IA podría facilitar o crear como a los que ven en la IA solo oportunidades empresariales y consideran su uso (no restringido) necesario para poder competir a nivel global.
Algunas de las propuestas y novedades introducidas en la nueva versión de la Ley sugieren que la posición europea está más en línea con los primeros (los que temen abusos) que con los segundos (que buscan oportunidades), aunque, como siempre, la búsqueda de equilibrio entre las dos posiciones es obvia: garantizar a sus ciudadanos más protección. Lo podemos ver desde el primer momento, donde en la nueva versión leemos que:
El objetivo del presente Reglamento es promover la adopción de una inteligencia artificial centrada en el ser humano y fiable y garantizar un elevado nivel de protección de la salud, la seguridad, los derechos fundamentales, la democracia y el Estado de Derecho y del medio ambiente frente a los efectos nocivos de los sistemas de inteligencia artificial en la Unión, apoyando al mismo tiempo la innovación.
Regular la IA es un reto enorme, como lo es regular muchas otras realidades. Pero con la IA hay una dificultad añadida, que vuelve aún más complicada su regulación: no tenemos bien claro qué es la IA.
Sin ninguna duda, regular la IA es un reto enorme, como lo es regular muchas otras realidades. Pero con la IA hay una dificultad añadida, que vuelve aún más complicada su regulación: no tenemos bien claro qué es la IA. Muchos investigadores y colegas estarán de acuerdo que, si hiciéramos la lista de lo que es la IA según lo que leemos en las publicaciones académicas, lo que oímos en las conferencias y lo que nos llega a través de las redes sociales y otros medios de comunicación nos saldría una lista larga de cosas que no tienen nada que ver con la IA, pero que se califican como IA tanto por motivos comerciales (IA vende) como por motivos de desconocimiento (IA no es lo mismo que la automación).
Este desbarajuste conceptual se refleja también en las definiciones de IA que encontramos en distintas versiones de la Ley de IA. La Comisión adoptó una definición de IA muy inclusiva, es decir:
El software que se desarrolla empleando una o varias de las técnicas y estrategias que figuran en el anexo I y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa.
El Parlamento tomó nota de este fallo y adoptó una definición bien distinta, también reflejando su posición y función como institución europea, que representa sus ciudadanos.[iv] Por lo tanto, para el Parlamento la IA es:
Un sistema basado en máquinas diseñado para funcionar con diversos niveles de autonomía y capaz, para objetivos explícitos o implícitos, de generar información de salida —como predicciones, recomendaciones o decisiones— que influya en entornos reales o virtuales.
En primer lugar, vemos el enfoque en la autonomía, es decir, en la característica del sistema de IA y no tanto en las técnicas de su funcionamiento (como en la versión anterior de la Ley). La diferencia es importante: definir la IA a través de su autonomía es admitir una de sus características más importantes, que la distingue de otras tecnologías y la acerca a la idea de IA como se la ha concebido en los años 50, entrelazándola directa e indirectamente con la autonomía humana, entendida como la libertad y autodeterminación (ya que la IA era –por lo menos en sus inicios– la alternativa a la inteligencia humana y, por lo tanto, refleja capacidades humanas conectadas con la misma).
En términos técnicos, esta autonomía se traduce en la independencia del control humano que no se especifica, pero que existe.
Por cierto, este enfoque en la autonomía para algunos investigadores tampoco es correcto: en una entrevista para El País Semanal la profesora Kate Crawford objeta la visión establecida que “concibe la inteligencia como autónoma en lugar de social y relacional. Es una perspectiva improductiva y peligrosa, ya que se optimiza para métricas artificiales de replicación humana en lugar de para evolucionar”.
Es una idea muy interesante, pero que se queda fuera de la definición normativa por distintas razones: sería interesante explorar las posibilidades del cambio de visión en el ámbito regulatorio. Es decir, ¿cómo, desde el punto de vista del derecho, podemos dirigir el desarrollo de IA para que sea una herramienta de evolución social de la humanidad? Lo bueno es que tenemos ejemplos de este cambio: por ejemplo, hemos cambiado la visión –legal, social, económica, política– sobre el medio ambiente, pero es también verdad que para hacerlo hemos necesitado muchos años (y aún no hemos acabado), tiempo que a lo mejor no tenemos en el caso de la IA.
El Parlamento Europeo abre la definición para incluir no solo sistemas que programamos con objetivos bien claros, sino también los sistemas de IA que son lo suficientemente autónomos como para no necesitar un explícito objetivo, introducido por el ser humano.
Sobre la definición de IA del Parlamento Europeo, la misma se refiere a la sustitución de la expresión de objetivos definidos por seres humanos (definición de la Comisión) con objetivos explícitos o implícitos que la IA podría tener. En este caso, el Parlamento Europeo abre la definición para incluir no solo sistemas que programamos con objetivos bien claros, sino también los sistemas de IA que son lo suficientemente autónomos como para no necesitar un explícito objetivo, introducido por el ser humano. En este caso, pues, la autonomía se refleja no solo en la libertad que el sistema de IA tiene del control humano, sino también la libertad en la elección de objetivos que el sistema persigue: es decir, la IA podría establecer objetivos por sí misma.
Otra posible lectura de este cambio en la descripción es que el objetivo implícito es siempre objetivo humano, que el ser humano no especifica, pero que el sistema de IA –gracias a distintas técnicas de aprendizaje automático (machine learningML)– deduce como un objetivo a perseguir. Obviamente, esos objetivos nos preocupan aún más que los objetivos explícitos, porque en este caso –el caso de los objetivos implícitos–, entre muchas otras dudas, emerge la preocupación por la responsabilidad de las decisiones, contenido y demás información generada por la IA que persigue dichos objetivos no expresamente declarados y, por lo tanto, atribuibles, por lo menos en teoría, a los creadores del sistema de IA.
La psicografía biométrica describe toda la información que sin querer entregaremos a los gestores del metaverso a través de todas las herramientas que utilizaremos para entrar ahí.
Otra referencia que hace el Parlamento y que no figura en la versión anterior es la referencia al hecho de que la IA podría influir tanto en los entornos reales como en los virtuales. Podemos preguntarnos por qué. Entiendo que el Parlamento ha tomado nota de la creciente ola de debate y preocupación relativa a las realidades virtuales que hace tiempo que nos prometen los creadores del metaverso. De hecho, en el 2022 el profesor Brittan Heller se dirigió a la Oficina de Derechos Humanos de las Naciones Unidas con un informe sobre nuevos retos para la protección de la privacidad en el metaverso, entre otras cosas, subrayando un nuevo peligro representado por la psicografía biométrica (biometric psychography). La psicografía biométrica describe toda la información que sin querer entregaremos a los gestores del metaverso a través de todas las herramientas que utilizaremos para entrar ahí. Por ejemplo, gracias a los guantes, cascos y otra vestimenta háptica comunicamos y revelamos qué nos hace sudar en los ambientes virtuales, qué genera dilatación de nuestras pupilas, qué acelera el latido de nuestros corazones y muchas cosas más. Por un lado, son datos biométricos, pero por otro no lo son exactamente: mi pupila es un dato biométrico, pero sus movimientos no lo son, sus reacciones tampoco. Es más: el dato de cómo mi cuerpo reacciona frente a algunas imágenes –por ejemplo, se me acelera el latido cardíaco– es un dato muy personal, pero ¿está protegido? O, mejor dicho, ¿estoy protegido yo de que este dato podría ser utilizado para manipularme?
El Parlamento Europeo, evidentemente, ha sido receptivo a esta preocupación: los datos obtenidos en el metaverso son procesados por distintos sistemas de IA. Por lo tanto, el Parlamento no solo ha incluido los entornos virtuales entre los ámbitos donde la IA podría causar efectos, sino también ha incluido en el artículo 3,33 bis) los datos de base biométrica, que son “los datos obtenidos a partir de un tratamiento técnico específico relativos a las señales físicas, fisiológicas o conductuales de una persona física”.
Así, el Parlamento Europeo expande el significado de datos biométricos distinguiendo entre los datos biométricos, que son estáticos, como la retina y huellas digitales, y datos de base biométrica, que son datos extraídos de datos biométricos, y, por lo tanto, son dinámicos, ya que pueden cambiar en el tiempo. Ambos tipos de datos podrían ser utilizados por la IA, tanto para la categorización biométrica como para el reconocimiento de las emociones, entre otras aplicaciones, elevando aún más el nivel de riesgo respecto de los derechos fundamentales de los ciudadanos.
Dicho esto, la definición de IA, según las instituciones europeas, está avanzando hacia una definición más inclusiva y receptiva a los nuevos desafíos. Vamos a ver cómo será en su versión definitiva en breve.
Migle Laukyte
Profesora tenure-track en Derecho Digital, Universitat Pompeu Fabra
[i] Título completo, Propuesta de reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión, disponible en la web de EUR-Lex. Las enmiendas propuestas por el Parlamento Europeo están disponibles en la web del Parlamento Europeo. La comparativa entre las distintas propuestas está disponible en la página de The Artificial Intelligence Act.
[ii] Espinoza, Javier (2023, 30 de junio). European companies sound alarm over draft AI law. Financial Times.
[iii] La declaración “EU Trilogues: The AI Act must protect people’s rights” está disponible en la web de European Digital Rights (EDRi).
[iv] El Consejo Europeo propone una definición diferente.
Estic buscant la versió en català de l’article de Migle Laukyte i no la trobo. Hi és?
Benvolgut Sr. Cardús, els apunts del blog de l’RCDP només estan disponibles en la versió original, tal i com arriben segons les preferències de cada autor o autora. Salutacions cordials.