Google ha realizado cambios en su política de inteligencia artificial al eliminar discretamente su compromiso de no emplear esta tecnología en aplicaciones relacionadas con armas o vigilancia. Hasta hace poco, la compañía se había mantenido firme en evitar estos usos de la IA, lo que suscitó reacciones tanto dentro como fuera de la organización.
El cambio fue detectado por diversos expertos y medios especializados, ya que Google no realizó un anuncio explícito sobre la eliminación de este compromiso. La modificación ha sido interpretada como un posible indicio de una mayor disposición de la compañía a colaborar con gobiernos y entidades militares, en un contexto donde la inteligencia artificial se está convirtiendo en un elemento clave para la seguridad y la defensa.
¿Qué reglas han cambiado para Google?
Hasta hace unos días, el documento de principios de IA de Google incluía una sección titulada «Aplicaciones que no vamos a abordar», en la que la empresa declaraba que no diseñaría ni implementaría IA para:
- Armas u otras tecnologías cuyo propósito fuera causar daño a las personas.
- Herramientas de vigilancia que violasen normas internacionales sobre derechos humanos.
- Aplicaciones que fuesen contrarias a principios ampliamente aceptados del derecho internacional.
Sin embargo, la reciente actualización eliminó esa sección por completo, dejando fuera una declaración explícita de rechazo al uso militar de la IA. En su lugar, Google ha enfatizado su compromiso con el desarrollo responsable de esta tecnología, aunque sin especificar restricciones claras en su aplicación.
Antecedentes: el caso del Proyecto Maven
Este ajuste en la política de Google recuerda el controvertido Proyecto Maven (enlace a la Wikipedia), una iniciativa del Pentágono en la que la empresa participó proporcionando tecnología de inteligencia artificial para analizar imágenes de drones utilizados en zonas de conflicto. La participación en este proyecto provocó un fuerte rechazo dentro de la empresa, con más de 4.000 empleados firmando una petición para que Google abandonara el contrato. Finalmente, la compañía decidió no renovarlo en 2018.
Desde entonces, Google ha tratado de posicionarse como un actor responsable en el desarrollo de la IA. No obstante, con la eliminación de las restricciones explícitas en su política, muchos se preguntan si la empresa está reconsiderando su postura y abriéndose nuevamente a colaboraciones en el sector defensa.
Google en panorama geopolítico cambiante
El cambio en la postura de Google llega en un momento de creciente competencia en el ámbito de la IA, donde gobiernos y empresas tecnológicas buscan posicionarse como líderes. En el comunicado oficial donde se presenta la actualización de la política, Demis Hassabis y James Manyika, responsables del desarrollo de la IA en Google, señalaron lo siguiente:
«Creemos que las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos«.
Asimismo, la empresa ha señalado que trabajará en colaboración con gobiernos y organizaciones que compartan estos valores para garantizar que la IA se utilice de manera beneficiosa para la sociedad.
¿Hacia dónde se dirige Google?
Aunque la compañía insiste en que su prioridad sigue siendo el desarrollo ético de la IA, la eliminación de su compromiso explícito contra el uso en armas y vigilancia abre nuevas preguntas sobre la dirección futura de su tecnología. Posibles contratos con el sector militar o acuerdos con gobiernos para el uso de IA en seguridad son escenarios que ahora parecen más factibles.
En los últimos años, empresas como OpenAI, Microsoft y Meta han reforzado sus inversiones en IA, creando un entorno de alta competencia que empuja a todas las grandes tecnológicas a buscar nuevas oportunidades. Sin una restricción clara, Google podría estar dejando la puerta abierta a explorar territorios que antes se había comprometido a evitar.
El debate sobre el papel de la inteligencia artificial en el ámbito militar está lejos de terminar. Mientras algunos argumentan que su uso puede mejorar la seguridad y la defensa, otros advierten sobre los riesgos de automatizar sistemas de ataque y vigilancia sin una regulación adecuada. Por ahora, lo único seguro es que Google ha cambiado las reglas del juego, y el impacto de esta decisión se verá con el tiempo.