Específicamente para el New York Times Infobae.

Menos de dos años después de que Google despidió a dos investigadores que criticaron el sesgo integrado en los sistemas de IA, la empresa despidió a un investigador que publicó un artículo publicado por la empresa sobre las capacidades de un tipo específico de inteligencia artificial utilizada en la fabricación de chips de computadora, cuestionado.

El investigador, Satrajit Chatterjee, dirigió un equipo de científicos que desafió un famoso artículo de investigación publicado el año pasado en la revista Nature que afirmaba que las computadoras podían diseñar ciertas partes de un chip de computadora más rápido y mejor que los humanos.

Chatterjee, de 43 años, fue despedida en marzo poco después de que Google le dijera a su equipo que no publicaría un artículo que refutara algunas de las afirmaciones hechas en Nature, según cuatro personas con conocimiento de la situación que no estaban autorizadas para hablar. Google confirmó en una declaración escrita que el empleo de Chatterjee había sido rescindido “por una buena causa”.

Google se negó a dar más detalles sobre el despido de Chatterjee, pero defendió con vehemencia la investigación que criticó y la voluntad de la empresa de publicar la evaluación del investigador.

“Hemos revisado minuciosamente el artículo original de Nature y respaldamos los hallazgos revisados ​​por pares”, dijo Zoubin Ghahramani, vicepresidente de Google Research, en una declaración escrita. “También investigamos a fondo las afirmaciones técnicas de una propuesta posterior y no cumplió con nuestros estándares de publicación”.

El despido de Chatterjee es el conflicto más reciente en Google Brain, un equipo de investigación de inteligencia artificial que se cree que es clave para el futuro de la empresa. Después de gastar miles de millones de dólares en contratar a los mejores investigadores y desarrollar nuevos tipos de automatización informática, Google se ha enfrentado a una multitud de quejas sobre cómo construye, usa e implementa estas tecnologías.

Las tensiones entre los investigadores de Google reflejan batallas mucho más grandes que se libran en la industria tecnológica y enfrentan innumerables preguntas sobre las tecnologías emergentes de inteligencia artificial y los espinosos problemas sociales que estas tecnologías ya han enredado.

La última fila también sigue un patrón familiar de despidos y acusaciones contradictorias de mala conducta entre los investigadores de inteligencia artificial de Google, una preocupación creciente para una empresa cuyo futuro depende de la integración de la inteligencia artificial en todo lo que hace. Sundar Pichai, CEO de la empresa matriz de Google, Alphabet, ha comparado la IA con la llegada de la electricidad o el fuego, calificándola como una de las iniciativas más importantes de la humanidad.

En diciembre de 2020, Google despidió a Timnit Gebru, uno de los directores de su equipo de ética de inteligencia artificial, luego de que criticara la metodología de la compañía para contratar a minorías e insistiera en publicar un trabajo de investigación que mostraba fallas en un nuevo tipo de sistema de inteligencia artificial para el aprendizaje de idiomas. .

Unos meses después, la empresa despidió a Margaret Mitchell, la otra directora del equipo, quien denunció públicamente la forma en que Google había manejado la situación de Gebru. La empresa alegó que Mitchell violó su código de conducta.

El artículo de Nature, publicado en junio pasado, promovió una tecnología llamada aprendizaje reforzado, que según el artículo podría mejorar el diseño de chips de computadora. La tecnología ha sido aclamada como un gran avance en inteligencia artificial y una mejora importante en los métodos de diseño de chips existentes. Google dijo que está utilizando esta técnica para desarrollar sus propios chips de inteligencia artificial.

Google había aplicado técnicas de aprendizaje automático al diseño de chips de computadora durante años y publicó un artículo similar un año antes. En ese momento, Google le pidió a Chatterjee, quien tenía un doctorado en informática de la Universidad de California, Berkeley y trabajaba como científico investigador en Intel, que explorara si la técnica podría venderse o licenciarse a terceros, dijo una empresa de diseño de chips. con el asunto gente familiar.

Sin embargo, en un correo electrónico interno, Chatterjee expresó reservas sobre las afirmaciones del artículo y cuestionó si la tecnología se había sometido a pruebas rigurosas, dijeron tres de los expertos.

A medida que continuaba el debate sobre esta investigación, Google envió otro artículo a Nature para su publicación. Para esta propuesta, Google hizo algunos ajustes al artículo anterior y eliminó los nombres de dos autores que trabajaron en estrecha colaboración con Chatterjee y también expresaron su preocupación sobre las principales afirmaciones del artículo, dijeron personas familiarizadas con el asunto.

Cuando se publicó el nuevo artículo, algunos investigadores de Google se sorprendieron. Creían que el proceso de aprobación del lanzamiento, que Jeff Dean, el vicepresidente ejecutivo de la compañía que supervisa la mayoría de sus proyectos de IA, consideró necesario después de que Gebru fuera despedido, no se había seguido, como revelaron las personas informadas.

Google y una de las dos autoras principales del artículo, Anna Goldie, quien lo escribió junto con otra experta en informática, Azalia Mirhoseini, dijeron que los cambios realizados en el artículo anterior no requerían un proceso de aprobación completo. Google permitió que Chatterjee y un puñado de investigadores internos y externos trabajaran en un artículo que refutaba algunas de sus afirmaciones.

El equipo envió el artículo de refutación a un comité de decisión para su aprobación y publicación. Meses después, el artículo fue rechazado.

Los investigadores que trabajaron en el artículo de refutación intentaron llevar el asunto a la junta directiva de Pichai y Alphabet, dijeron. Argumentaron que la decisión de Google de no publicar la refutación violó sus propios principios con respecto a la inteligencia artificial, incluido el mantenimiento de altos estándares de excelencia científica. Poco después, se le dijo a Chatterjee que ya no era un empleado, según fuentes internas.

Goldie reveló que Chatterjee solicitó liderar su proyecto en 2019 y rechazaron su oferta. Cuando luego lo criticó, Goldie dijo que no podía fundamentar sus quejas e ignoró la evidencia que presentaron en respuesta.

“Sat Chatterjee ha estado realizando una campaña de desinformación contra mí y Azalia durante más de dos años”, dijo Goldie en una declaración escrita.

Goldie afirmó que su trabajo fue revisado en Nature, una de las revistas científicas más prestigiosas, y comentó además que Google utilizó sus métodos para construir nuevos chips y que estos chips se utilizan actualmente en los centros de datos de Google.

Laurie M. Burgess, abogada de Chatterjee, dijo que era decepcionante que “ciertos autores del artículo de Nature estén intentando reprimir el debate científico calumniando y atacando al Dr. Chatterjee simplemente porque busca la transparencia científica”. Burgess también cuestionó el liderazgo de Dean, quien fue uno de los 20 coautores del artículo de Nature.

“Las acciones de Jeff Dean para evitar la publicación de todos los datos experimentales relevantes, no solo los datos que respaldan sus hipótesis favoritas, deberían ser motivo de gran preocupación tanto para la comunidad científica como para la sociedad en general que utiliza los productos y servicios de Google”, advirtió Burgess.

Dean no respondió a una solicitud de comentarios.

Dejar respuesta

Please enter your comment!
Please enter your name here