El Gobierno de España, la Unión Europea y el Consejo de Europa son algunos de los organismos que están redactando normativas sobre inteligencia artificial

Europa quiere regular inteligencia artificial. La región se ha quedado atrás en la carrera tecnológica y sabe que su única mano para empatar el juego es la regulación. Por ello, la Comisión Europea presentó su esperada legislación a finales de 2020 Servicios digitales (DSA) y mercados digitales (DMA), sobre el que los colegisladores ya tienen cierto consenso.

Ambos estándares tienen por objeto regular el contenido y la competitividad de las principales plataformas digitales. Quienes cumplan determinados requisitos se definen como “garantes del acceso” (de usuarios a la información y otros servicios digitales como redes sociales, reservas de hotel o comercio electrónico).

Pero solo unos meses después de que la Comisión Europea presentara los borradores de la DSA y la DMA, también se presentó el borrador del reglamento de inteligencia artificial. Eso fue en abril del año pasado, y hasta el momento los colegisladores (Consejo de la Unión Europea y Parlamento Europeo) no han concretado sus posiciones, por lo que aún queda mucho camino por recorrer para tramitarlo.

Este reglamento de IA, que ya se está gestando en Bruselas, define algunos modelos y aplicaciones de la inteligencia artificial. Por ejemplo, los categoriza según el nivel de riesgo que puede causar el uso de esa tecnología. Uno de los aspectos más llamativos del borrador es que en la práctica asume que no existe el riesgo cero con esta tecnología.

El Parlamento Europeo aún no ha decidido su posición, y la situación no es muy diferente en el Consejo de la UE. La Presidencia francesa espera que antes de que expire su mandato -en junio- tenga luz verde al menos una aproximación general del texto, según detalla Euractiv, citando diversas fuentes diplomáticas.

El proyecto de Bruselas

Este borrador es uno de los ejemplos más tangibles de cómo la preocupación por estos riesgos y desafíos algorítmicos sigue creciendo en el viejo continente. A medida que se expande el activismo y el debate sobre el tema, también lo hace el volumen de algunas voces, lo que nos recuerda que el exceso de regulación puede, en última instancia, conducir a una innovación asfixiante.

Pero la Unión no es la única institución europea que quiere lidiar con los límites éticos de la inteligencia artificial. El Consejo de Europa, un organismo que nada tiene que ver con Bruselas y que incluye a todos los países del Viejo Continente, incluidos Suiza, Turquía y Rusia, se reunió recientemente en Roma.

Ella hizo esto para establecer la Comisión de Inteligencia Artificial de este Consejo de Europa. El CAI, por sus siglas en inglés, reemplazará a la comisión ad hoc creada por el mismo organismo supranacional en 2019. Y como resultado de estas reuniones recién iniciadas, esperan proponer un marco regulatorio y ético que equilibre la IA y los derechos humanos.

Surgen debates sobre si la inteligencia artificial debe ser regulada y, de ser así, cómo

España también ha producido y presentado su Carta de Derechos Digitales única (Bruselas ahora también está trabajando en un documento similar), y el debate sobre los riesgos sociales que esta tecnología puede plantear está más vivo que nunca.

Estos son los frentes activos que están tratando de regular los algoritmos en Europa para ponerlos al servicio de las personas y evitar lo contrario.

Una normativa europea que España quiere probar antes que nadie

La regulación de IA de la Unión Europea ya está en desarrollo. Si bien el borrador ya reconoce que prácticamente no existen modelos de inteligencia artificial libres de riesgos, es solo eso, un borrador. El texto final llevará algún tiempo y algunas cosas pueden cambiar.

De hecho, algunos organismos como el Consejo Europeo de Protección de Datos (EDPB) han ido más allá del borrador y han propuesto que las instituciones comunitarias veten directamente el uso de sistemas de reconocimiento facial en la vía pública. La EDPB es la entidad que agrupa a las autoridades nacionales de protección de datos (como la AEPD española).

Algunos grupos de privacidad y justicia algorítmica se sintieron algo decepcionados con el borrador de esta nueva regulación publicado el año pasado. Creen que nace muy encorsetado y rígido ante los usos y riesgos potenciales de una tecnología que crece y evoluciona muy rápido, como revelan algunas voces en TechCrunch.

España quiere convertirse en región piloto para la regulación de la IA. Ese Secretario de Estado de Digitalización e Inteligencia Artificial (SEDIA), dependiente del Ministerio de Economía y Transformación Digital, solicitó al país como sandbox regulatorio a mediados del año pasado, una iniciativa que partió de la secretaria de Estado Carme Artigas y se convirtió en Business Insider España.

Preocupaciones sobre el uso de la IA en las fronteras

El reglamento de IA tendrá como objetivo regular el uso y despliegue de inteligencia artificial en el espacio Schengen y abordar los desafíos éticos involucrados. La automatización de procesos sin una auditoría adecuada puede dejar a ciertos grupos vulnerables.

Esto es lo que sucede con los migrantes. Y el proyecto de reglamento no se detiene en la recogida de datos que se puede producir en una frontera exterior europea tanto como los casos españoles de Ceuta y Melilla. Una comisión interministerial trabaja desde hace años en el desarrollo de la llamada “frontera inteligente”.

Partidos como Unidas Podemos han adelantado propuestas extraoficiales para exigir garantías y transparencia con los modelos de IA desplegados en las fronteras de España, mientras que decenas de colectivos sociales han hecho una demanda similar.

El año pasado volvió a los medios Eurodac. Eurodac es la gran colección de datos biométricos (huellas dactilares) de los solicitantes de asilo que llegan a cualquiera de los 27 Estados miembros. Los representantes de la extrema derecha en el Parlamento Europeo querían ampliar los tipos de datos biométricos recopilados de los migrantes y flexibilizar los requisitos para su inclusión.

Si la propuesta está sobre la mesa, Eurodac podría incluso hacer fotos a niños de 6 años.

Los sistemas, soluciones y servicios basados ​​en inteligencia artificial siguen multiplicándose inexorablemente

Los sistemas, soluciones y servicios basados ​​en inteligencia artificial siguen multiplicándose inexorablemente

¿Cómo va la discusión?

El debate aún no ha terminado. En febrero de este año, la Presidencia francesa del Consejo de la Unión Europea expresó su interés en utilizar Eurodac para recopilar datos no solo sobre los solicitantes de asilo sino sobre todos los inmigrantes que llegan al territorio. Schengen.

El objetivo original de Eurodac es disponer de una base de datos con la que poder comparar las huellas dactilares de los solicitantes de asilo, para evitar que una misma persona presente esa solicitud de asilo en más de un Estado miembro, y así poder centralizar los procedimientos en el país de primera llegada.

Con la propuesta francesa, este no sería el único beneficio. Esta es una propuesta también respaldada por el Comisario de Asuntos Interiores de la UE, ylva johansson. “Necesitamos una gobernanza más fuerte para garantizar que nadie pase desapercibido y para proteger nuestras fronteras exteriores de acuerdo con nuestros valores”.

Todavía queda mucho camino por recorrer antes de que se conozca el texto final del reglamento de IA, pero es cierto que el Parlamento Europeo realizó una votación no vinculante pidiendo vetar el uso de esta tecnología con fines de vigilancia policial. Aún no se ha votado la posición del Parlamento Europeo sobre el proyecto de reglamento, pero esta votación es un primer paso.

El Consejo de Europa crea su propio comité de IA

Mientras todo esto sucede dentro de la comunidad, otras organizaciones internacionales como el Consejo de Europa también están trabajando en sus propios mecanismos con los que abordarán la regulación de este tipo de tecnologías.

Si bien el proyecto de reglamento europeo de IA ya veta el uso del DNI para la identificación en un aeropuerto, el Consejo de Europa prácticamente no ha hecho más que iniciar el diálogo sobre estos temas.

Si bien es cierto que el CAHAI -anteriormente el Comité de IA del Consejo de Europa, que era un comité ad hoc- celebró su último pleno en diciembre de 2021, algunas organizaciones de la sociedad civil que ya han participado en sus debates confían en la constitución de este nuevo comité (CAI) no significa un retroceso o retroceso en este debate.

ver algoritmouna organización que actúa como observatorio del algoritmo ha emitido un comunicado conjunto con varias de estas organizaciones de la sociedad civil que han participado en los debates previos que han tenido lugar en esta institución, que alberga a países que no forman parte de la Unión Europea. .

En su declaración (que puede leer aquí), les preocupa que el consenso alcanzado en el extinto comité pueda quedarse “demasiado corto” y piden que el nuevo organismo incluya claramente modelos de IA utilizados en la seguridad nacional, o modelos que tienen tanto militares y usos civiles. dentro de las competencias del futuro instrumento legal a desarrollar, Business Insider indicó España.

También enfatizan que los nuevos marcos legales que se están desarrollando “deben complementar y reforzar el marco de derechos humanos y no socavar o reemplazar los estándares existentes que se aplican a la inteligencia artificial”.

Dejar respuesta

Please enter your comment!
Please enter your name here