• Miguel Sánchez-Valpuesta trabaja en el Korean Brain Research Institute (KBRI)

  • Sus estudios sobre procesamiento de sonido podrían mejorar la adaptación, eficiencia y velocidad de la inteligencia artificial

De repente… ¡ups! Un ruido y tu cerebro se activa: identifica un chasquido, justo detrás de la cabeza, posiblemente dedos chasqueando. Analiza todo prácticamente al instante, sin necesidad de establecer bits, unos y ceros, ni nada por el estilo. ¿Yo como? eso es lo que estas estudiando Miguel Sánchez-Valpuestaun español de 33 años que trabaja en el Korean Brain Research Institute (KBRI) con el objetivo de utilizar procesos cerebrales para mejorar la arquitectura de inteligencia artificial (IA) y hacerla más rápida, eficiente y sostenible. copiar lo más posible la innovación que el hombre esconde en su cabeza.

“El objetivo no es copiar la naturaleza tal como es, sino aprender de lo que ya es hermoso e intentar desarrollar cosas nuevas. En general, sabemos poco sobre cómo funciona nuestro cerebro, o incluso cómo pensamos, pero es fascinante tratar de descubrir cómo podemos usar solo la vibración de dos membranas en nuestros oídos para señalar dónde está algo que no podemos ver o tacto, ubicado en tres dimensiones Cómo distinguimos diferentes voces hablando simultáneamente A través de cálculos y predicciones que ocurren a partir de inmediatamente en nuestra cabeza y que son el resultado de un procesamiento infinitamente más avanzado que el de los ordenadores actuales”, explica a EL PERIÓDICO DE ESPAÑA el joven barcelonés desde la ciudad surcoreana de Daegu, donde trabaja desde hace dos años.

El reto para quienes, como él, quieren desvelar los misterios del cerebro es precisamente entender cómo se articulan los procesos desarrollados a lo largo de millones de años de evolución y cómo se pueden aplicar para mejorar la tecnología actual.

En los próximos años, explica, surgirán diferentes modelos de inteligencia artificial, desde aquellos que se basan en un sistema informático tradicional hasta aquellos que se esfuerzan por duplicar el modelo a través de algo llamado computación neuromórfica.

Miguel, que es uno de los expertos internacionales del Instituto Hermes y tiene un máster en biomedicina por la Universidad de Barcelona, ​​estuvo seis años haciendo su doctorado en Japón para estudiar los mecanismos y circuitos neuronales del aprendizaje de idiomas. De allí dio el salto a Corea, donde este estudio de cómo interactúan los circuitos auditivos con el cerebro motor podría mejorar una inteligencia artificial descubierta en 2022 como uno de los avances tecnológicos que marcarán la próxima década.

“Así como vemos con el cerebro, ya que la imagen que nos presenta no es la que reciben nuestros ojos, también lo usamos para oír. El cerebro “inventa” y “llena”por así decirlo, mucho de lo que percibimos basado en predicciones y experiencias pasadas, y mantiene continuamente una representación del mundo exterior que se “actualiza” selectivamente mediante información sensorial. Por eso también existen patologías de sonidos fantasmas que el oído no percibe, pero que están en nuestra cabeza. Este tipo de conocimiento nos permite entender cómo viaja el sonido a través de nuestras neuronas y por lo tanto un poco más sobre cómo se produce este procesamiento”, explica Miguel.

Sin embargo, el cerebro humano no se limita a “rellenar”, tiene una adaptabilidad excepcional cuando se trata de sonido. Por ejemplo, si recibimos un sonido de 60 decibelios en lugar de 30, suena un poco más fuerte en nuestra cabeza, pero como explica el joven barcelonés, debería sonar en la realidad. 1000 veces más fuerte. “Lo mismo sucede con nuestra propia voz o cuando hacemos ejercicio. No escuchas los sonidos que haces tan fuerte porque tu cerebro los amortigua, es un mecanismo de supervivencia involuntario”, dice.

Si se pudieran sintetizar estos procesos, se podría mejorar, por ejemplo, la adaptabilidad de los vehículos autónomos a nuevas situaciones y estímulos inesperados. Es solo un ejemplo porque ya han mejorado, pero antes se podía preparar un coche para identificar a un niño, adulto o perro y no atropellarlo, pero ¿qué pasaría si se cruzara con un jabalí o una patineta? La IA necesitaba poder procesar este nuevo elemento, para el que no estaba preparada y evaluar su relevancia inmediatamenteno hay tiempo para el procesamiento tradicional.

“Hasta ahora, la inteligencia artificial ha trabajado con clasificadores, por así decirlo. Para A, B o C da respuestas más o menos estandarizadas y eso es lo que pensábamos que le pasaba al cerebro, pero no es cierto, la mayor parte de lo que hace no depende del estímulo y la respuesta. 80% de la actividad cerebrales, por ejemplo, mantener una representación interna de lo que ocurre a nuestro alrededor”, apunta.

La sostenibilidad de la IA está en el cerebro

Pero incluso si fuera posible encontrar una manera de emular todo esto a través de una computadora convencional, sería prácticamente imposible y poco práctico. “Incluso las supercomputadoras realizan operaciones algorítmicas paso a paso, ralentizando los procesos y desperdiciando enormes cantidades de energía. computadora cuánticaen cambio, no realiza operaciones algorítmicas, y nuestro cerebro tampoco, aunque hoy tiene otras limitaciones”, explica el ingeniero.

De esta forma, dice, actualmente la computación se hace “de forma incremental”, es decir, “incluso cuando estamos simulando circuitos neuronales, lo estamos haciendo como si fuera un software en una CPU que sigue reglas algorítmicas que son completamente independientes. “De cómo funciona es el cerebro”. En este punto es el computación neuromórficaun campo que se esfuerza por replicar, tanto en chips como en procesos, la forma en que se articula el pensamiento humano.

Noticias similares

Actualmente, solo Corea del Sur, donde trabaja Miguel, y Taiwán son capaces de producir los chips más avanzados en este campo, con todo lo que esto significa para la carrera de desarrollo tecnológico entre América, Europa y Asia.

Además, se estima que a día de hoy el 3% de la electricidad consumida a nivel mundial se consume en centros de datos y que este porcentaje podría llegar al 13% en 2030. Optimizar los modelos computacionales, como lo ha hecho el cerebro durante millones de años de evolución, haría de la inteligencia artificial una tecnología mucho más sostenible.