En su aspecto puramente normativo, la ley no lo es todo. Tampoco, y sobre todo en tecnologías.
La inteligencia artificial (IA), con todos sus grandes avances y riesgos, puede eludir la ley (si no lo ha hecho ya) por muchas normas paneuropeas que se estén preparando, como la propuesta de reglamento que se anuncia y por la que se ha propuesto debatir hace unos días en la jornada de la Fundación Barri en A Corua.
Como debe ser en todas las buenas leyes, esta futura regulación incluye una definición de lo que es la IA (un poco amplia, por supuesto, porque este mundo no es conocido por el público en general) como el software que se desarrollará para un conjunto específico de definiciones. Orientación por humanos y que puede generar información de salida como contenido, predicciones, recomendaciones o decisiones que afectan los entornos con los que interactúan. La IA es el resultado del aprendizaje automático que se ha utilizado durante décadas. Nuestros móviles clasifican las imágenes por nosotros, hablamos con chatbots o con Alexa, por citar solo algunas aplicaciones actuales.
Como puede ver el lector, aunque no sea un experto -ninguno de nosotros lo somos-, hay muchas sombras o cajas negras en esta tecnología. Es por ello que la ley para la protección de los ciudadanos exige el encuentro de la ética y la solidez técnica de estos modelos. Esta es la gobernanza de la IA.
El gran interrogante al que se enfrentarán los países europeos será la aplicación de este reglamento, que entrará en vigor directamente, ya que se eligió esta norma y no la directiva para tratar el asunto de manera más rápida y eficiente. Lo que se está preparando es la gobernanza del mundo de la IA. Sí, el de esos robots que ya estamos viendo haciendo trabajos aprendidos (aspirar, regular la temperatura, conducir un coche), programas que hacen predicciones o ayudan a diagnosticar a jueces y médicos, o portales de empleo para decantar currículums y que por el estado de Die Art ya viene a tomar decisiones autónomas.
España también ha adelantado ya la estructura de la que será la autoridad competente: la Agencia Española de Supervisión de la Inteligencia Artificial (Aesia) tendrá su sede en A Coruña, en el precioso edificio La Terraza.
Queda por aprobar esta ley europea y concretar cómo afectará a empresas y fabricantes y trasladar todas estas tecnologías al gran público. Queda una gran duda. La seguridad no está garantizada de ninguna manera. Los riesgos de algunas tecnologías son muy, muy altos (inaceptables, los llama el reglamento) y están prohibidos. Por ejemplo, la vigilancia masiva por cámaras o el reconocimiento facial que puedes hacer con ella. Imagina los usos.
Daré otro ejemplo que conozco mejor. La cantidad y escala de la desinformación ha incrementado la preocupación pública, que se ha manifestado en nuevas regulaciones, por ejemplo respecto a los videos ultrafake (videos deep fake) que, al estilo de la publicidad de Cruzcampo, pueden reconstruir la voz, las manos o el rostro de Lola Flores. una persona hecha de información. En la misma regulación de IA, se introdujo recientemente un cambio para obligar a los sitios de video o redes sociales (TikTok, Instagram, YouTube) a identificar videos falsos como no auténticos. Veamos cómo lo maneja Aesia. Los desafíos no son pequeños.
En términos de principios, es importante que el texto europeo reafirme que los derechos humanos son el dique que protege contra el uso de la IA con sus características específicas (por ejemplo, opacidad, complejidad, dependencia de datos, comportamiento autónomo) ya que pueden tener implicaciones negativas para varios derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea.
Expresión. Había una pregunta en la habitación que me preocupaba sobre todo por la respuesta. ¿Cómo se pueden compartir con el público en general estas grandes tecnologías, de las que hay tan poca certeza? No sé – dijo el ingeniero – no soy del gobierno.
Archivado en:
Inteligencia Artificial Fundación Barri A Ciudad de Coruña