¿AI para la guerra?… Google dice que NO

¿Sabías que la mayoría de los avances tecnológicos que conocemos tienen su origen en la investigación militar? Triste pero cierto, internet, drones, medicinas, y la lista sigue… Pues, otros avances, como la cada vez más viral inteligencia artificial (AI como la conocemos), también tienen una connotación bélica. Esto, por supuesto, crea múltiples consideraciones y preocupaciones.


Por eso, tras la reacción violenta sobre su participación en un programa de drones militares de Estados Unidos, el CEO de Google Sundar Pichai publicó el jueves un conjunto de principios de inteligencia artificial que prometen que la compañía tecnológica nunca “diseñará ni desplegará” inteligencia artificial para ayudar a los sistemas armados y la vigilancia.


Por el contrario, dijo que sus aplicaciones ahora serían socialmente beneficiosas, evitarían prejuicios, se evaluarían en cuanto a la seguridad, tendrían fuertes protecciones de privacidad y serían responsables. “Estos incluyen seguridad cibernética, capacitación, reclutamiento militar, atención médica para veteranos y búsqueda y rescate”, continuó. “Estas colaboraciones son importantes, y buscaremos activamente más formas de aumentar el trabajo crítico de estas organizaciones y mantener seguros a los miembros del servicio y a los civiles”.

¿Por qué el alboroto?

Hace poco, cientos de académicos pidieron a la empresa de Mountain View, California, que abandonara todo el trabajo en el proyecto Maven, el cual argumentaron que eventualmente podría conducir a asesinatos selectivos (sí, al estilo de Minority Report). En abril, más de 3.000 empleados de Google presentaron una solicitud contra la posición de la empresa en la guerra ofensiva. Gizmodo, que primero informó las noticias, reveló que algunos empleados habían renunciado al respecto.

Inicialmente, Google sostuvo que el trabajo era para “fines no ofensivos”, incluso si una nota interna desde el interior del proyecto indicaba en blanco y negro que ayudaría a “mejorar la toma de decisiones militares”. Diane Greene, CEO de Google Cloud, confirmó en una publicación de blog el jueves que la compañía no buscaría contratos subsiguientes para Project Maven una vez que expire el contrato actual en 2019. Ella rechazó las llamadas para que Google cancele su trabajo de DoD inmediatamente, diciendo que necesita cumplir con sus obligaciones.

“Ha habido un enfoque público en un contrato limitado que celebramos en septiembre de 2017 que cayó bajo la iniciativa Maven del Departamento de Defensa de EE. UU.”, Escribió Greene. “Este contrato implicó imágenes de video de drones y la identificación de objetos de baja resolución utilizando AI, salvar vidas fue el objetivo general”.

La posición de la empresa


La noticia de que Google no estaba respaldando la operación militar fue bienvenida por algunos activistas. Sin embargo, un informante le dijo a Gizmodo que los principios de IA eran poco más que “una declaración hueca de relaciones públicas”. “Los jefes de Google han escuchado a su personal y han hecho lo correcto al echarse atrás del Proyecto Maven”, dijo Jennifer Gibson, experta en drones del grupo de derechos humanos Reprieve.

“Ahora están en posición de cambiar realmente las reglas del programa de drones para mejor. Google debería usar la influencia que tiene para establecer normas éticas sólidas que garanticen que el gobierno de EE. UU. No pueda explotar la tecnología que mejora la vida “. Greene también enfatizó que Google continuaría apoyando al “gobierno, el ejército y nuestros veteranos”.