Aunque nos parece que la Inteligencia Artificial (IA) es un fenómeno futurista de las películas de ciencia ficción, la realidad es que ya forma parte de nuestro día a día. Cada día se cuela un poco más en nuestra rutina y se alimenta de los datos que inocentemente compartimos con él, condicionando nuestra agencia. Y eso que llevamos más de medio siglo estudiándolo, cuando nadie imaginaba siquiera Internet.

El primero en tratar el tema de la IA fue el matemático teórico e informático inglés, Alan Turing. Durante la Segunda Guerra Mundial, su equipo desempeñó un papel clave en descifrar las comunicaciones cifradas del gobierno nazi y, después de eso, ayudó a desarrollar las primeras computadoras en el Laboratorio Nacional de Física de Londres.

A fines de la década de 1940, comenzó a escribir sobre IA y publicó un artículo fundamental titulado Computadoras e inteligencia quien postula el experimento conocido como Prueba de Turing. Esta prueba todavía se usa hoy en día para determinar si una máquina es inteligente o no al evaluar si logra hacerse pasar por un humano -simulando sus habilidades- al responder un cuestionario. Poco después, su carrera terminó abruptamente cuando fue declarado culpable de homosexualidad y se suicidó en prisión, al menos esa es la versión oficial.

En la década de 1960, el programa ELIZA, que reproducía el lenguaje natural y respondía preguntas de manera coherente en un chat (como los bots de hoy)

Con el advenimiento de la tecnología informática, surgió la necesidad de discutir la IA como un área de investigación. Para ello, un grupo de diez científicos especializados en estas cuestiones de la Fundación Rockefeller -que patrocinaría el evento- propuso reunirse durante dos meses para realizar la llamada Conferencia de Dartmouth de 1956. Allí, por ejemplo, se utiliza por primera vez el término inteligencia artificial. La premisa se estableció en su declaración fundacional:

“El estudio parte de la premisa de que cualquier aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, describirse con suficiente detalle como para engañar a una máquina para que lo simule. Tratando de descubrir cómo construir máquinas que usen el lenguaje, formen abstracciones y conceptos, resuelvan problemas hasta ahora reservados para los humanos y se mejoren a sí mismos”.

En esta primera fase, el estudio de la IA pretendía desafiar los estereotipos del tipo “ninguna máquina puede hacer eso”. Para ello se crearon sistemas que lograron cumplir con este objetivo en una escala limitada o micro-mundo. Por ejemplo, uno de los primeros sistemas, la Lógica Teórica, fue desarrollado para probar teoremas matemáticos. Esto demostró que las máquinas no solo pueden realizar cálculos matemáticos, sino también sacar conclusiones y elaborar pruebas lógicas.

Varios sistemas con estos objetivos siguieron en la década de 1960. El programa ELIZA que reproducía lenguaje natural y respondía preguntas coherentemente en un chat (como los bots de hoy en día), el robot Shakey que tenía la capacidad de percibir señales de su entorno y aprender de sus propias acciones, o ese brazo robótico simulado SHRDLU que era capaz de comprender el lenguaje hablado y seguir instrucciones para mover objetos dentro de una serie de formas geométricas en 3D.

El impulso inicial duró hasta mediados de la década siguiente, después de lo cual la IA entró en su primer invierno y perdió inversores. Las limitaciones de hardware en términos de velocidades de almacenamiento y reproducción, así como la escasez de datos (recuerde, no había Internet) llevaron a muchos inversores a creer que había ciertas capacidades que la IA nunca lograría. aunque a nosotros nos resultaron muy fáciles.

A principios de la década de 1980, Japón intensificó su proyecto de sistema informático de quinta generación, una iniciativa público-privada generosamente financiada que intentó superar las limitaciones de la IA a través de una arquitectura informática paralela que sirvió como plataforma. Emocionados por la increíble recuperación de posguerra de Japón, los gobiernos occidentales se unieron a esta nueva ola.

Esta fue la era de los sistemas expertos, basados ​​en reglas que extraen inferencias simples del conocimiento de hechos básicos proporcionados por especialistas humanos y codificados a mano en un lenguaje de programación formal. Generalmente, estos sistemas requerían una máquina separada para cada tarea, lo cual era muy poco práctico y versátil. Esto nuevamente provocó que AI entrara en una meseta tanto en Japón como en Europa y los EE. UU.

Durante la década de 1990, las actualizaciones técnicas permitieron el desarrollo de nuevas tecnologías, como las redes neuronales que imitan el cerebro humano.

Los años 90 fueron un nuevo resurgimiento de la IA. Las actualizaciones técnicas permitieron el desarrollo de nuevas tecnologías, como redes neuronales que imitan el cerebro humano y algoritmos genéticos basados ​​en modelos de evolución o selección de los descendientes más aptos. Estos son los primeros sistemas que se pueden programar para aprender jugadas o intercambios por sí solos, sin necesidad de que intervenga un experto en la materia.

Esto resultó en algunos hitos de marketing que devolvieron la esperanza a la IA. En 1997, la supercomputadora Deep Blue de IBM derrotó al campeón mundial de ajedrez Garri Kasparov en el segundo intento. En 2002, la empresa lanzó iRobot Roomba, la primera aspiradora robot que aprende a través de IA, y en 2008, el iPhone incluyó una aplicación de reconocimiento de voz de Google en su último modelo.

A medida que Internet se volvió accesible y popular, la IA recibió el impulso que necesitaba para convertirse en una realidad. y ofrecerse para ayudarnos con tareas cotidianas como moverse (sistemas de navegación como Waze), encontrar información (motores de búsqueda como Google), comprar un producto o elegir música. Todo esto a cambio de nuestros datos, lo que les permite construir las bases de las que aprenden.

Actualmente, la IA continúa ganando poder a través de los avances tecnológicos, desplazando a los humanos de las tareas que antes realizaban. Watson, el robot de IBM que derrotó a dos campeones humanos en Jeopardy (el programa de preguntas y respuestas de la televisión estadounidense) en 2011, se puede entrenar para muchos usos, como B. apoyar a los médicos en decisiones clínicas o cualquier tipo de asistencia virtual.

VITAL, el algoritmo de recomendación de inversiones de la compañía de medicina regenerativa de Hong Kong DeepKnowledge Ventures, es uno de los 6 miembros de la Junta Directiva y tiene voz en las decisiones. EMI, el algoritmo musical de David Cope, compone piezas al estilo de todos los compositores clásicos, como Bach, Beethoven o Chopin, hasta el punto en que los críticos ya no pueden distinguir sus piezas de los originales.

El algoritmo musical de David Cope compone piezas al estilo de todos los compositores clásicos, como Bach, Beethoven o Chopin, hasta el punto en que los críticos ya no pueden distinguirlo de los originales.

En el pasado, algunas habilidades, como B. para jugar bien al ajedrez, como es típico de las mentes humanas más sofisticadas, pero fueron reproducidas por un algoritmo simple. Este tipo de IA llamada débil -aquella cuyo propósito se limita a resolver problemas muy bien definidos o limitados- fue suficiente para diseñar todos los sistemas que acabamos de mencionar.

En algún momento de este siglo, se espera que alcancemos la IA general, diseñada para resolver todas las tareas intelectuales que pueden ser resueltas por humanos, e incluso niveles mucho más altos. Esto supondrá una revolución tan poderosa como la industrial o la agrícola, que transformará nuestras sociedades tan profundamente que es difícil de imaginar.

Dejar respuesta

Please enter your comment!
Please enter your name here