-MCH: Gracias profesor Lütge por concederme esta entrevista para Levante-El Mercantil Valenciano. Como filósofo, informático y economista con doctorado y como director del Instituto de Ética de la Inteligencia Artificial y de la Cátedra Peter-Löscher de Ética Empresarial de la Universidad Técnica de Múnich, ¿puede decirnos desde su perspectiva académica qué de los mayores desafíos es ¿qué debemos hacer como sociedad tecnológica ante el avance y la dinámica de la IA?

-CL: Hay varios desafíos y oportunidades que vienen con la IA, pero lo más importante es poder evaluar estos riesgos y oportunidades para establecer una inteligencia artificial que responda responsablemente a la sociedad. Esto está relacionado con la necesidad de evaluar los riesgos que estamos dispuestos a aceptar como consecuencia del uso de cualquier tipo de tecnología y los que no aceptaremos.

Muchas personas se preocupan actualmente por la tarea de definir con mayor precisión los límites necesarios, porque existen muchas oportunidades para el uso responsable de la IA, que se pueden asumir en pro del bienestar de las sociedades.

Un ejemplo de esto es que se deben establecer límites para abordar la discriminación potencial, pero el desafío es complejo ya que las diferencias entre las sociedades determinan cómo se usa la inteligencia artificial en cada caso.

-MCH: Una de las principales preocupaciones de las sociedades democráticas liberales con respecto a las TIC es que estamos entrando en una era en la que las mentiras se han generalizado a través de noticias falsas. Y esa preocupación se ha convertido en un derecho y una inquietud hacia los grandes centros tecnológicos como gerentes y administradores de las redes sociales. ¿Cuáles cree que son las acciones más efectivas que deberían tomar los gigantes de big data para solucionar este problema sin monopolizar el discurso tecnológico en Internet?

CL: Tu pregunta es muy interesante y compleja de responder, ya que en algunos casos es posible detectar fácilmente noticias falsas, pero en otros es más difícil detectar situaciones problemáticas en Internet, como el caso chino donde se moderan debates y cómo tratarlos desde una perspectiva democrática y pluralista.

Creo que no se puede dejar que la tecnología por sí sola tome automáticamente decisiones sobre lo que es correcto porque no funcionaría. Es necesario que a través de su conciencia humana sean seres humanos los que formen el círculo en el que se toman las decisiones finales sobre lo que está bien y lo que no.

-MCH: ¿Es posible potenciar el aprendizaje automático con un entrenamiento que combine datos éticos con aprendizaje profundo, como las redes neuronales profundas, donde se hacen inferencias algorítmicas que respetan los derechos humanos con base en fundamentos éticos que históricamente se han considerado los más adecuados para combatir los derechos humanos y se legitimaron? discriminación y violencia?

CL: El aprendizaje automático puede funcionar de muchas maneras diferentes y, además, existe suficiente evidencia general para entrenar sistemas al equiparlos con grandes datos, que es un factor clave para un funcionamiento adecuado y sin problemas. Hay que tener en cuenta que los propios algoritmos son capaces de generar información artificial a partir de información procedente de fuentes humanas, con consecuencias a veces aceptables ya veces inaceptables.

En la dirección dada, por ejemplo, la diferencia en el color de la piel reconocida por los sistemas de reconocimiento facial puede ser una característica distintiva que se manifiesta de diferentes maneras. Los niños necesitan aprender a distinguir entre lo que es aceptable y lo que es inaceptable, especialmente desde una edad temprana.

MCH: Considerar factible una interacción interdisciplinaria y multisectorial, que involucre no solo a los Estados, la academia, los medios de comunicación y la sociedad civil, sin relegar a esta última “al cuarto de al lado” y restableciendo su alcance, por ejemplo, a través de un referéndum de políticas públicas relacionadas con la ética. la gestión no solo del big data, sino de todo lo relacionado con la IA, desde un enfoque que realmente está calando en la nueva sociedad. com como usuario principal y destinatario de las campañas de marketing digital?

CL: La cuestión de si todos los ciudadanos como sociedad civil deberían tener acceso al uso de las plataformas digitales, o la posibilidad de establecer ciertos límites en el uso de la tecnología, fueron temas del tipo discutidos en los foros de los años noventa.

En este contexto, es interesante apreciar la evolución actual del metaverso del que hablan las grandes empresas, que manifiesta las diferencias que existen en la interacción multisectorial e interdisciplinaria de las personas. Creo que necesitamos analizar mejor las responsabilidades de los individuos y los gobiernos en esta nueva área en particular.

En países como Alemania, donde hay un mayor avance relativo en temas digitales, este tema puede ser menos polémico, pero desde otra perspectiva podemos ver que hay un fuerte debate sobre estos temas en los medios. Observamos la participación de amplios y diversos sectores en el debate sobre cómo interactuar con las nuevas tecnologías.

El profesor Lüetge, con el entrevistador.

MCH: En la actualidad, la colonización del espacio virtual ha llevado a diversas empresas TIC norteamericanas, chinas y europeas a desarrollar nuevas formas de gestionar su información y comunicaciones, reduciendo los costes relacionados con el entrenamiento de sus modelos de aprendizaje automático y el uso de datos sintéticos, en torno a los denominados metaversos que los convierten en una nueva oportunidad de negocio.

Por tanto, desde el campo de la filosofía jurídica, cuál sería el razonamiento jurídico a aplicar para no vulnerar los derechos de los trabajadores y las garantías de los usuarios en la web, en el sentido de explotar las posibilidades tecnológicas en el ámbito laboral, sino sin los derechos humanos socavan los logros?

CL: Este es un desafío muy importante al que debemos prestar atención. ¿Cómo se puede transformar la visión de un mundo desconectado que teníamos en el pasado que ha mutado al mundo digital del presente?

Creo que esto se puede lograr, especialmente cuando estamos hablando de derechos humanos en relación con la discriminación, pero también en relación con los derechos laborales.

Me parece que proyectar los derechos del metaverso no es extremadamente difícil siempre y cuando todos los actores involucrados trabajen juntos para completar el desafío. Sin embargo, debe tener en cuenta que no puede copiar y pegar exactamente la realidad en el metaverso porque no está físicamente en ese espacio, por lo que son cosas diferentes.

Es necesario garantizar que nadie se quede atrás, por ejemplo, evitando que la discriminación sistémica contra las mujeres y los niños con discapacidad se traslade a la realidad virtual.

También creo que los grandes actores son conscientes de esta ecuación como parte del largo proceso interdisciplinario llevado a cabo por especialistas.

MCH: Usted formó parte del comité de expertos interdisciplinario que desarrolló la propuesta de una regulación ética para la conducción de vehículos autónomos en Alemania. ¿Cuál es el estado actual de la discusión fáctica y de fondo sobre la adopción de una nueva legislación en la que la protección de la vida humana tiene prioridad sobre la dinámica de la IA y la carrera tecnológica que las grandes corporaciones de la industria automotriz están liderando actualmente a nivel mundial?

CL: Varios aspectos juegan un papel en esto. En Alemania, por ejemplo, el año pasado hubo una ley de conducción autónoma que permitía pruebas de mayor nivel con altos niveles de automatización, y esa ley se basó, al menos en parte, en las recomendaciones éticas que hicimos hace unos años en el comité que mencionaste. .

Yo diría que se cumple una etapa. No es el definitivo, pero definitivamente es una nueva etapa.

Ahora es el momento de establecer estándares similares a nivel europeo y estamos en ello. Como sabemos, en el Parlamento Europeo se está discutiendo la ley europea de IA, que también se aplicaría en cierta medida a la industria del automóvil. La discusión da una idea del impacto de ocuparse de la protección de los derechos humanos al conducir vehículos autónomos. Necesitamos ver los costos y beneficios que tendrá el nuevo estándar.

Siempre tenemos que considerar que no estamos solos en el mundo y que hay otros jugadores como Estados Unidos y China. Se debe tratar de evitar regulaciones que obstaculicen el uso de las posibilidades de la IA.

Creo que estamos en el camino correcto para eso.

Dejar respuesta

Please enter your comment!
Please enter your name here