El nuevo jefe de IA de Google Cloud estudia la IA militar con el fundador de Project Maven
Cuando la directora de Google Cloud, Diane Greene, anunció que Andrew Moore reemplazaría este año a Fei-Fei Li como directora de inteligencia artificial de Google Cloud, mencionó que él era el decano de la escuela de ciencias de la computación en la Universidad Carnegie Mellon y que anteriormente trabajó en Google. .
Lo que Greene no mencionó fue que Moore también es copresidente de un grupo de trabajo de IA creado por el Centro para una Nueva Seguridad Estadounidense (CNAS), un grupo de expertos con fuertes vínculos con el ejército estadounidense. El copresidente de Moore en el grupo de trabajo es Robert Work, ex subsecretario de defensa, a quien el New York Times ha llamado "la fuerza impulsora detrás de la creación del Proyecto Maven", el esfuerzo del ejército de EE. UU. para analizar datos, como imágenes de drones. , utilizando IA.
La participación de Google en Project Maven provocó una gran reacción dentro de la empresa a principios de este año, lo que obligó al director ejecutivo Sundar Pichai a prometer que Google nunca trabajaría en armas mejoradas con IA.
La contratación de Moore seguramente reavivará el debate sobre la participación de Google en ciertos mercados de inteligencia artificial, una de las áreas tecnológicas más populares con un enorme potencial comercial, y la relación que la empresa mantiene con el ejército.
Durante su mandato en Carnegie Mellon, Moore ha discutido a menudo el papel de la IA en aplicaciones defensivas y militares, como su charla de 2017 sobre Inteligencia Artificial y Seguridad Global:
“Podríamos permitirnos, si quisiéramos y si necesitáramos, estar vigilando casi todo el mundo con drones autónomos de varios tipos”, dijo Moore. "No digo que querríamos hacer eso, pero no hay una brecha tecnológica allí donde creo que en realidad es demasiado difícil de hacer. Esto ahora es práctico".
CNAS, la organización que formó el grupo de trabajo que copreside Moore, se centra en cuestiones de seguridad nacional y su misión declarada es "desarrollar políticas de defensa y seguridad nacional sólidas, pragmáticas y basadas en principios que promuevan y protejan los intereses y valores estadounidenses".
La decisión de Google de contratar a Moore fue recibida con desagrado por al menos un ex empleado de Google que se opuso al Proyecto Maven.
"Es preocupante notar después de la disidencia interna generalizada contra Maven que Google contrataría a Andrew Moore", dijo un ex empleado de Google. "Los Googlers quieren menos alineación con el complejo militar-industrial, no más. Esta contratación es como un puñetazo en la cara para los más de 4000 Googlers que firmaron la carta de Cancel Maven".
Un portavoz de Google se negó a comentar.
Moore, quien nació en el Reino Unido pero desde entonces se convirtió en ciudadano estadounidense, ha hablado con frecuencia sobre la necesidad de tener precaución al sacar la IA del laboratorio y llevarla al mundo real. Cuando se anunció el grupo de trabajo de CNAS en marzo, Moore enfatizó la importancia de "garantizar que tales sistemas funcionen con humanos de una manera que empodere al humano, no lo reemplace, y que mantenga la autoridad de decisión final con el humano".
Y en un podcast reciente de CNAS, describió lo que llamó su punto de vista "conservador" sobre la IA en el mundo real: "Incluso si supiera que, por ejemplo, lanzar una flota de vehículos autónomos en una ciudad reduciría las muertes en un 50 %, lo haría". No quiero lanzarlo hasta que encontré algunas pruebas formales de corrección, lo que me mostró que no iba a estar involucrado en muertes innecesarias".
Aún así, no ha rehuído tratar con el sector militar.
La biografía de Carnegie Mellon de Moore menciona trabajos anteriores que involucran "detección y vigilancia de amenazas terroristas", y figura como colaborador de investigación en un Informe de asesoramiento de investigación naval de septiembre de 2017 sobre "Sistemas autónomos y no tripulados en el Departamento de la Marina".
Leer más: Una tensa reunión interna entre el CEO de Google, Sundar Pichai, y los empleados se desvió cuando los ejecutivos abordaron los rumores sobre los planes de la compañía en China.
Durante la charla de 2017 sobre seguridad global, mencionó la posibilidad de incorporar asistentes personales digitales, como los que se usan en los dispositivos de consumo fabricados por Google y Amazon, en aplicaciones militares. "Hay una pregunta abierta sobre si, cuándo y cómo podemos desarrollar asistentes personales para combatientes y comandantes para tener ese conjunto completo de información que ayuda a eliminar la 'niebla de guerra', sin interponerse en su camino con demasiada información". él dijo.
Google contrató a Moore para supervisar los esfuerzos de inteligencia artificial dentro de Google Cloud, la unidad que ofrece los populares servicios de computación en la nube de Google, como almacenamiento de datos, computación y aprendizaje automático. Reemplaza a Li, quien ha regresado a su cátedra en Stanford.
Su contratación se produce cuando Google intenta superar la controversia que estalló cuando se conoció la participación de la empresa en el Proyecto Maven.
A principios de este año, cuando se filtró la noticia de que Google estaba ayudando a los militares a analizar imágenes de drones, miles de empleados de Google firmaron una petición exigiendo que la gerencia terminara con la participación de la empresa. Otros se negaron a trabajar en el proyecto o filtraron documentos a los periodistas que resultaron vergonzosos para la gerencia. Alrededor de una docena de empleados renunciaron en protesta.
En junio, el CEO de Google, Pichai, pareció ceder a sus demandas. Publicó una lista de siete principios que guiarían el desarrollo de IA de la empresa. Incluyeron nunca construir armas mejoradas con IA y garantizar que la IA se aplique a aplicaciones que sean socialmente beneficiosas, seguras y que no generen prejuicios injustos. La empresa no descartó trabajar con militares en servicios que no violen los principios, como el correo electrónico o el almacenamiento de datos, por ejemplo.
El sentimiento de muchos de los que se oponían a Maven dentro de Google era que la empresa no debería involucrarse de ninguna manera con el ejército. Y para al menos parte del personal de Google que participó en la protesta de Maven, así como para los ex empleados que simpatizan con su causa, la contratación de Moore generará dudas sobre el compromiso de Google con esos principios de IA.
El propio Moore ha reconocido los peligros potenciales de la IA armada.
"Así como es bueno que podamos hacer IA tan rápido", dijo durante la charla de 2017, la IA también es una "amenaza".
"Así como uno de nuestros genios estudiantes de posgrado puede pensar en algo rápidamente, también puede hacerlo alguien menos deseable. Y tenemos que estar preparados para eso en lo que estamos haciendo", dijo.
Artículos destacados sobre drones: - Leyes de drones y regulaciones de la FAA - Usos de la tecnología de drones - Principales fabricantes de drones y acciones en las que invertir - Servicios de entrega de drones - Cómo iniciar un negocio de drones - Análisis de mercado comercial de UAV - Agricultura inteligente y drones agrícolas
Leer siguiente
Leer siguiente
Leer más: Una tensa reunión interna entre el CEO de Google, Sundar Pichai, y los empleados se desvió cuando los ejecutivos abordaron los rumores sobre los planes de la compañía en China.