Asistentes virtuales, procesos de selección de empleados o contratación de seguros. Las aplicaciones de inteligencia artificial (IA) forman parte del día a día de los ciudadanos, y los avances suelen ir acompañados de advertencias sobre el posible mal uso de esta tecnología. La Unión Europea dio un paso adelante y hace un año presentó una propuesta de regulación líder en el mundo que divide las tecnologías de IA en cuatro categorías según el riesgo que pueden representar para los ciudadanos. Sin embargo, algunos expertos señalan que existen aplicaciones complejas que podrían quedar exentas de regulación en su redacción actual. salud, autos autónomos y armas, entre otros.
La UE debate los espolones finales del reglamento de IA, que podría estar listo en 2023. Una normativa que, por sus características, es “única en el mundo”, aunque deja en la sombra importantes aspectos, apunta Lucía Ortiz de Zárate, investigadora en ética y gobernanza de la inteligencia artificial de la Universidad Autónoma de Madrid. Ortiz de Zárate, junto con la Fundación Alternativas, presentó comentarios a la propuesta de la Comisión. Algunos de ellos han sido incluidos en la última versión de la propuesta. Otros no.
Este investigador pasa por alto que hay sectores sensibles que no están incluidos en las clasificaciones de inteligencia artificial más observadas, como es el caso de la salud. “Hay una larga lista de usos, y la salud no aparece en ninguno de ellos”, dice. Solo menciona que el reglamento asegura que las tecnologías “no supongan un riesgo para la salud”. Sin embargo, las aplicaciones que usan datos de salud, salud pública o médicos, por ejemplo, no se rastrean.
Otra de las aplicaciones más conocidas de la inteligencia artificial, la de los coches autónomos, tampoco se menciona en la norma, lo que exigiría más transparencia y más escrutinio por parte de las autoridades. Ortiz de Zárate reconoce que existe un “complejo debate” sobre cuánto se debe regular y cuánto espacio se debe dejar a la innovación para permitir avances. Las armas autónomas tampoco se mencionan en el reglamento, cuyo funcionamiento también se basa en inteligencia artificial.
Uno de los comentarios tenidos en cuenta sobre el estándar europeo se refiere a la definición de inteligencia artificial, explica el investigador de la Universidad Autónoma. El concepto de IA en un momento dejó de lado el hardware y se centró solo en el software. “Era muy peligroso omitirlo porque muchos de los problemas de sesgo vienen del hardware”. Ortiz de Zárate cita como ejemplos asistentes de lenguaje como Siri, Alexa o robots que son asistidos físicamente y “son fuentes de discriminación porque crean estereotipos dañinos”. para mantener a las mujeres arriba” como el “rol de cuidadora”. Después de los comentarios, el texto reintrodujo el hardware en la definición. El concepto de inteligencia artificial “no depende tanto de qué técnicas se utilicen como de las funcionalidades”, afirma.
Además, desde el punto de vista del investigador, el estándar de aplicación de bajo riesgo debe ir más allá de un mero código de conducta. “Estas son las aplicaciones que más usa la ciudadanía”, por lo que habría que intentar acabar con prejuicios como el de género, “que parecen pequeños pero son habituales”. Por lo tanto, pueden sospechar un “filtro de estereotipos” si no se les detiene.
Enfoque basado en riesgos con cuatro etapas
- Inadmisible. El reglamento de inteligencia artificial prohibirá un número limitado de sus usos “particularmente nocivos”, es decir, aquellos que van en contra de los valores de la Unión al violar derechos fundamentales. Por ejemplo, abusos como el social scoring (puntuación social por parte de los gobiernos, una práctica practicada en China) o el uso de las vulnerabilidades de los niños con fines comerciales.
- Alto riesgo. Son aplicaciones problemáticas que potencialmente pueden violar los derechos humanos, pero su uso legítimo se entiende en situaciones específicas. La UE los legaliza bajo condiciones muy estrictas. Este grupo incluye, entre otras cosas, la identificación biométrica, la gestión de migraciones y fronteras o las aplicaciones de suministro de agua y gas.
- Riesgo limitado. En este grupo se incluyen aquellos sistemas de IA que no suponen un alto riesgo para los ciudadanos, pero les imponen obligaciones específicas de transparencia si existe un riesgo claro de manipulación. Especialmente mediante el uso de robots conversacionales.
- Riesgo bajo. Todos los demás sistemas de IA se pueden desarrollar “de acuerdo con la ley aplicable” sin obligaciones adicionales. Lucía Ortiz de Zárate se centra en este grupo, que “debería tener un poco más de regulación”. Por ejemplo, se deben prever sanciones para los reincidentes o las representaciones “ofensivas”.