El Pentágono ha establecido un claro mensaje para las empresas de inteligencia artificial (IA): en caso de necesidad, el Estado puede reclamar el control de la IA. La empresa Anthropic, que desarrolla modelos de IA como Claude, se encuentra en el centro de esta disputa. El Pentágono ha dado a Anthropic un plazo para aceptar que sus modelos de IA se utilicen para lo que el Pentágono considere oportuno, lo que ha generado un debate sobre el uso ético de la IA y la propiedad estatal de la misma.
La Defense Production Act de 1950 otorga al presidente de Estados Unidos poderes para asegurar suministros necesarios para la defensa nacional, lo que incluye la capacidad de exigir a las empresas que prioricen contratos con el Estado y asignen materiales, servicios e instalaciones. Esta ley ha sido ampliada con el tiempo para incluir la notificación obligatoria de los propietarios de modelos de IA potentes cuando entrenen sistemas que puedan suponer un riesgo para la seguridad nacional.
El Secretario de Defensa, Pete Hegseth, ha calificado la posición de Anthropic como la de una “IA woke” y ha insinuado que la empresa puede ser castigada si no se rinde a las peticiones del Pentágono. La empresa se enfrenta a una difícil decisión, ya que su IA está profundamente integrada en los sistemas del Pentágono y no puede simplemente “irse” sin consecuencias.
Esta situación plantea una lección para las empresas europeas y de otros países que operan en el espacio de la IA y la tecnología. La dependencia de proveedores que operen bajo el paraguas estadounidense y la Defense Production Act puede ser un riesgo para la soberanía y la seguridad nacional.
🛍️ ¡Aprovecha esta tendencia!
Encuentra el Libros sobre inteligencia artificial y ética, soluciones de IA para la defensa nacional aquí:
