Las historias de ciencia ficción sobre máquinas pensantes se elevan por encima de la modernidad, de la mano de la inteligencia artificial (IA). Sin embargo, lo que la gente común piensa que está haciendo no es realmente lo que está produciendo.
La IA busca acompañar a la tecnología de una manera que le permita percibir y conectarse con el entorno para resolver problemas de múltiples variables, con un flujo de información más amplio que permita mejores soluciones.
Para que la IA lo resuelva, son los humanos quienes introducen la información en los sistemas. Los errores, las tendencias, las inexactitudes o la ignorancia pueden sesgar la cadena, y esta brecha, a medida que aprende de lo que hace, puede crecer con el tiempo si no se reconoce y aborda.
“La industria de la inteligencia artificial (IA) debería crear una comunidad global de hackers y modeladores de amenazas dedicados a probar el potencial malicioso de los nuevos productos de inteligencia artificial para ganarse la confianza de los gobiernos y el público antes de que sea demasiado tarde, dice Clarín Shahar Avin, especialista de la Universidad de Cambridge que está dedicando su investigación a analizar los sesgos de la IA, la forma en que se aprende a través de ella y resolver estas discrepancias.
Uno de sus pilares es la promoción de una selección de “hackers éticos” que cuentan con su experiencia para detectar y corregir desviaciones.
– Comencemos por definir la IA para el neófito. ¿Cómo afecta nuestra vida?
-AI permite a las computadoras imitar los procesos de inteligencia humana mediante la aplicación de algoritmos que les ayudan a calcular los resultados en un entorno dinámico sobre el que están aprendiendo al mismo tiempo. Puede juzgar todo, desde conducir un automóvil hasta el mejor tratamiento contra el cáncer para un tema específico.
-¿Por qué crees que es valioso tener lo que llamas “piratas saludables”?
– Las organizaciones deben aprovechar técnicas como la piratería del “equipo rojo”, los registros de auditoría y las bonificaciones de detección de sesgos para garantizar la mayor inclusión y seguridad posibles de los datos antes de que la IA salga a la carretera. Si no lo hacen, veremos una crisis de confianza en los sistemas que regirán gran parte de nuestra vida cotidiana, desde la obtención de licencias de conducir hasta la organización de tratamientos contra el cáncer, los automóviles sin conductor y los drones autónomos, pasando por el secreto sobre los algoritmos de las redes sociales que difunden información o provocan ataques políticos. agitación.
-¿A qué llamas “equipo rojo”?
-Son hackers éticos que juegan el papel de agentes externos capaces de detectar distracciones. Se les alentaría a atacar cualquier IA nueva o a elaborar estrategias sobre cómo usarla con fines maliciosos para descubrir posibles debilidades o daños. Si bien algunas empresas tienen su propia brigada, es deseable una comunidad separada que pueda sondear la IA y compartir cualquier información para el beneficio de todos. Otra propuesta incluye la idea de recompensar económicamente a cualquier investigador que descubra errores que puedan comprometer la confianza o la seguridad del público, como B. Sesgo racial o socioeconómico en los algoritmos utilizados con fines médicos o de reclutamiento.
– ¿Cómo predecir que no habrá nuevas distorsiones al corregir las anteriores?
-Cuanto más poderoso y general es un sistema de IA, más formas en que puede cometer errores y mayor es la posibilidad de que corregir un error pueda conducir a otros. Sin embargo, no todos los insectos causan el mismo daño. Al comprender el contexto de uso, es posible identificar los impactos potenciales más dañinos y luego intentar corregirlos.
– La IA no es holística. Así que difícilmente puedes considerar todas las posibilidades, porque no se trata solo de cuantificar escenarios. También se trata de matices. ¿Cuál es tu opinión?
-Ni los humanos ni la IA pueden explicar todos los posibles efectos o daños; Si pudiéramos, viviríamos en un mundo libre de accidentes y daños. Sin embargo, estoy totalmente de acuerdo en que los sistemas de IA actuales y futuros son mucho más estrechos y limitados en su comprensión que la complejidad del mundo humano y, por lo tanto, necesitamos personas que tengan matices y mitiguen el daño potencial de la IA. Los diseñadores de sistemas también deben reconocer los desafíos de codificar y cuantificar un mundo caótico en el que puede operar un algoritmo.
– ¿Puedes explicar el concepto de riesgo existencial?
– Hay algunos matices en la forma en que diferentes investigadores han utilizado el término, pero en resumen es el riesgo de una pérdida catastrófica e irreversible, como sucedería si la humanidad se extinguiera. En Cambridge nos enfocamos en los riesgos de la extinción humana y el colapso de la civilización global: si bien es posible que la humanidad se recupere de un colapso global (como el que podría seguir a una pandemia mucho peor que el Covid-19), ¿no es posible tal recuperación? está hecho. o, si sucede, resultará en una sociedad mucho más vulnerable a nuevos choques. Por definición, los riesgos existenciales no tienen precedentes. No estaremos aquí para estudiarlos si ya nos han sucedido, pero aún podemos estudiarlos rigurosamente, examinando desastres y colapsos pasados y presentes, examinando las vulnerabilidades de nuestra sociedad global actual o examinando las implicaciones potenciales de las tecnologías futuras. que prometen un gran poder pero también un gran peligro, como la IA.
caracteres especiales
Shahar Avin, israelí (36 años), es investigador asociado sénior en el Centro para el Estudio del Riesgo Existencial (CSER) de la Universidad de Cambridge, Reino Unido. Trabaja en la comunidad de riesgo global. Anteriormente trabajó en Google como ingeniero de software web/móvil. Tiene un doctorado en filosofía de la ciencia. También tiene una licenciatura en física. Hoy, su investigación se centra en las áreas de riesgos existenciales, IA y financiación de la ciencia.