Cuando los directivos de Meta descubrieron que su modelo de IA había sido utilizado por el Ejército Popular de Liberación (EPL) chino, saltaron las alarmas. Cuando supieron para qué, la empresa lanzó una investigación interna. La noticia, revelada hace unos días por Reuters, sugería que el país asiático había estado utilizando la tecnología de los de Menlo Park con fines militares. No solo no sentó bien entre los desarrolladores de su modelo de lenguaje de código abierto, sino que prendió la mecha entre cientos de empleados que ya estaban hartos de una tendencia creciente en Silicon Valley: la colaboración cada vez más estrecha entre gigantes tecnológicos y el sector militar.
Cada vez más empresas de Silicon Valley buscan cerrar acuerdos con contratistas de defensa y agencias de seguridad, poniendo sus algoritmos y herramientas de IA al servicio de los mismos que fabrican misiles, drones o tanques. Y lo están haciendo, paradójicamente, con menos tapujos de los que se esperaría de un sector que hasta hace nada llevaba el estandarte de “innovación para un mundo mejor". La última revelación fue que China ha estado utilizando el modelo LLaMA de Meta como base para crear un chatbot de toma de decisiones militares llamado “ChatBIT”. Entre sus funciones destacaban el entrenamiento de estrategias de interferencia de guerra electrónica aérea y de vigilancia policial.
El director ejecutivo de Meta, Mark Zuckerberg, ante una audiencia del Comité Judicial del Senado, en Washington, EEUU. (EFE)Se da una paradoja interesante. Por un lado, Meta distribuye su IA bajo una licencia de código abierto que permite a cualquiera usarla gratuitamente. Pero lo hace con algunas restricciones. En sus términos, la empresa prohíbe que sus modelos se usen en proyectos relacionados con “la guerra, el espionaje, las armas nucleares” y un largo etcétera. También prohíben su implicación en el desarrollo de armas y contenido destinado a "incitar y promover la violencia". Pero, por otro lado, al tratarse de modelos de código abierto, Meta tiene pocas o ninguna herramienta para imponer estas restricciones. Es como si dejamos la puerta abierta, pero con un cartel que dice “prohibido entrar”.
Tras enterarse de lo ocurrido, la compañía de Mark Zuckerberg, lanzaba un comunicado declarando que cualquier uso por parte del Ejército chino no está autorizado y es contrario a sus políticas. Y orquestaba una maniobra inesperada: cambiar los términos para que sus modelos de IA sí puedan ser utilizados para fines militares, pero solo en EEUU, Reino Unido, Canadá, Australia y Nueva Zelanda (curiosamente, no en Israel).
En un tono casi patriótico, Meta argumenta que estos usos serán "responsables y éticos" y ayudarán a garantizar "la prosperidad y seguridad de EEUU". Aun así, Meta, en teoría, no tiene control sobre cómo sus usuarios (en este caso, las agencias y empresas de defensa) usarán su IA, con lo cual la responsabilidad de "usar la tecnología de manera ética" queda en manos del propio gobierno, una postura un tanto irónica. Esto contrasta con la situación Europa, donde la IA Act establece exenciones para sistemas utilizados exclusivamente con fines militares y de defensa.
Drones y bombas que 'hablan': la IA es la gran revolución militar, y nadie está al mandoJuanjo FernándezEl camino por recorrer con estas tecnologías es largo, pero se avanza a velocidad de vértigo. Hay proyectos en varios puntos del mundo, pero solo EEUU supera los 1.000 millones de inversión al año
Y claro, no han faltado compañías que han mostrado interés en subirse a esta nueva versión militarizada de la IA de Meta, con nombres que van desde Amazon Web Services y Lockheed Martin hasta Palantir y Microsoft, formando un equipo de pesos pesados en el campo de la defensa. Según The Guardian, Oracle ya está usando LlaMA para optimizar tareas de mantenimiento en aeronaves, mientras que Lockheed Martin ha comenzado a experimentar con el modelo para generar código y analizar datos.
El porqué de esta inclinación no es un misterio. Al final, la estrategia de Zuckerberg es consolidar su IA a nivel mundial y dominar la siguiente ola tecnológica. Algo así como construir la arquitectura que luego todo el mundo use. Y, por supuesto, granjearse el respaldo del gobierno estadounidense. En una conferencia sobre resultados reciente, dejó ver claramente sus ambiciones, afirmando que busca que “el sector público adopte Llama en todo el gobierno de EEUU”. Lo que da pistas de que esta colaboración es más una necesidad estratégica. Meta ha decidido que no puede quedarse fuera de un mercado tan lucrativo. Y lo de China les ha dado la excusa perfecta.
Un caza de combate Lockheed Martin F-35 de la Fuerza Aérea Australiana. (Reuters)Silicon Valley, antaño centro del tecnoliberalismo, se enfrenta a otro problema interno: en la carrera por hacer sus innovaciones accesibles al público, algunas de las mentes más brillantes del país podrían estar armando, literalmente, a sus competidores más acérrimos. Y justamente muchos empleados ya se oponen de raíz a las aplicaciones militares de sus tecnologías.
De hecho, la cuestión de hasta dónde deberían llegar las empresas tecnológicas para colaborar con agencias de defensa no es nueva y el caso de Google es uno de los ejemplos más notables. Sus trabajadores se rebelaron en 2018 contra el Proyecto Maven, una colaboración con el Pentágono para el análisis de videos de drones mediante IA. Esa oposición generó un precedente, destacando un dilema ético entre los ideales de los trabajadores y la realidad de un mercado en alza.
China crea el primer comandante militar de inteligencia artificialJesús DíazCientíficos chinos creen que es vital tener comandantes de inteligencia artificial para controlar grandes cantidades de activos militares autónomos sobre el terreno de batalla
Llega en un momento en el que los recientes cambios de política y acuerdos de las empresas tecnológicas con el Pentágono no son una anomalía, sino la regla. Microsoft, en colaboración con OpenAI, les ha suministrado herramientas a través del Comando de África de Estados Unidos, mientras que Google DeepMind mantiene acuerdos similares con el gobierno israelí. Por su parte, Anthropic, uno de los principales rivales de OpenAI, también ha permitido que su IA esté disponible para el ejército estadounidense a través de Amazon y Palantir, aunque manteniendo ciertas restricciones en el uso de armas.
Además, la presión por parte del ejército estadounidense para adoptar herramientas de IA se ha incrementado considerablemente. Desde sistemas predictivos para aeronaves hasta reconocimiento de objetivos en el campo de batalla, el potencial de la IA en materia de defensa es enorme. El conflicto de Ucrania ha puesto de relieve todas esas ventajas.
Para las empresas de IA es una espada de doble filo. Estar en la cima tecnológica del siglo XXI también implica asumir un papel en el tablero de la geopolítica global. Silicon Valley ha pasado de crear redes sociales para “conectar al mundo” a ofrecer IA para proteger y defender intereses nacionales. No hacerlo puede significar quedarse atrás en la carrera tecnológica.
elconfidencial.com