Google elimina su compromiso de no desarrollar armas con IA

  • Google ha eliminado su compromiso de no usar IA en armas y vigilancia en su última actualización de principios éticos.
  • El cambio no fue comunicado públicamente, generando preocupación sobre futuras colaboraciones con gobiernos y militares.
  • El antecedente del Proyecto Maven muestra que Google ya ha enfrentado oposición interna por participar en proyectos militares.
  • La empresa mantiene su discurso sobre el uso responsable de la IA, pero la eliminación del compromiso deja abierta la posibilidad de nuevas aplicaciones militares.

Arma de Google con IA

Google ha realizado cambios en su política de inteligencia artificial al eliminar discretamente su compromiso de no emplear esta tecnología en aplicaciones relacionadas con armas o vigilancia. Hasta hace poco, la compañía se había mantenido firme en evitar estos usos de la IA, lo que suscitó reacciones tanto dentro como fuera de la organización.

El cambio fue detectado por diversos expertos y medios especializados, ya que Google no realizó un anuncio explícito sobre la eliminación de este compromiso. La modificación ha sido interpretada como un posible indicio de una mayor disposición de la compañía a colaborar con gobiernos y entidades militares, en un contexto donde la inteligencia artificial se está convirtiendo en un elemento clave para la seguridad y la defensa.

¿Qué reglas han cambiado para Google?

Hasta hace unos días, el documento de principios de IA de Google incluía una sección titulada «Aplicaciones que no vamos a abordar», en la que la empresa declaraba que no diseñaría ni implementaría IA para:

  • Armas u otras tecnologías cuyo propósito fuera causar daño a las personas.
  • Herramientas de vigilancia que violasen normas internacionales sobre derechos humanos.
  • Aplicaciones que fuesen contrarias a principios ampliamente aceptados del derecho internacional.

Sin embargo, la reciente actualización eliminó esa sección por completo, dejando fuera una declaración explícita de rechazo al uso militar de la IA. En su lugar, Google ha enfatizado su compromiso con el desarrollo responsable de esta tecnología, aunque sin especificar restricciones claras en su aplicación.

Antecedentes: el caso del Proyecto Maven

Este ajuste en la política de Google recuerda el controvertido Proyecto Maven (enlace a la Wikipedia), una iniciativa del Pentágono en la que la empresa participó proporcionando tecnología de inteligencia artificial para analizar imágenes de drones utilizados en zonas de conflicto. La participación en este proyecto provocó un fuerte rechazo dentro de la empresa, con más de 4.000 empleados firmando una petición para que Google abandonara el contrato. Finalmente, la compañía decidió no renovarlo en 2018.

Desde entonces, Google ha tratado de posicionarse como un actor responsable en el desarrollo de la IA. No obstante, con la eliminación de las restricciones explícitas en su política, muchos se preguntan si la empresa está reconsiderando su postura y abriéndose nuevamente a colaboraciones en el sector defensa.

Google en panorama geopolítico cambiante

El cambio en la postura de Google llega en un momento de creciente competencia en el ámbito de la IA, donde gobiernos y empresas tecnológicas buscan posicionarse como líderes. En el comunicado oficial donde se presenta la actualización de la política, Demis Hassabis y James Manyika, responsables del desarrollo de la IA en Google, señalaron lo siguiente:

«Creemos que las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos«.

Asimismo, la empresa ha señalado que trabajará en colaboración con gobiernos y organizaciones que compartan estos valores para garantizar que la IA se utilice de manera beneficiosa para la sociedad.

¿Hacia dónde se dirige Google?

Aunque la compañía insiste en que su prioridad sigue siendo el desarrollo ético de la IA, la eliminación de su compromiso explícito contra el uso en armas y vigilancia abre nuevas preguntas sobre la dirección futura de su tecnología. Posibles contratos con el sector militar o acuerdos con gobiernos para el uso de IA en seguridad son escenarios que ahora parecen más factibles.

En los últimos años, empresas como OpenAI, Microsoft y Meta han reforzado sus inversiones en IA, creando un entorno de alta competencia que empuja a todas las grandes tecnológicas a buscar nuevas oportunidades. Sin una restricción clara, Google podría estar dejando la puerta abierta a explorar territorios que antes se había comprometido a evitar.

El debate sobre el papel de la inteligencia artificial en el ámbito militar está lejos de terminar. Mientras algunos argumentan que su uso puede mejorar la seguridad y la defensa, otros advierten sobre los riesgos de automatizar sistemas de ataque y vigilancia sin una regulación adecuada. Por ahora, lo único seguro es que Google ha cambiado las reglas del juego, y el impacto de esta decisión se verá con el tiempo.


Deja tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*

*

  1. Responsable de los datos: Miguel Ángel Gatón
  2. Finalidad de los datos: Controlar el SPAM, gestión de comentarios.
  3. Legitimación: Tu consentimiento
  4. Comunicación de los datos: No se comunicarán los datos a terceros salvo por obligación legal.
  5. Almacenamiento de los datos: Base de datos alojada en Occentus Networks (UE)
  6. Derechos: En cualquier momento puedes limitar, recuperar y borrar tu información.