T
TechGamerIA
TechEngadget

IA Ética vs. Seguridad Nacional: Anthropic Desafía al Pentágono en un Pulso Tecnológico

IA Ética vs. Seguridad Nacional: Anthropic Desafía al Pentágono en un Pulso Tecnológico

En un choque sin precedentes entre la ética de la inteligencia artificial y las demandas de seguridad nacional, la empresa Anthropic ha decidido desafiar al Pentágono. A pesar de un ultimátum directo del Secretario de Defensa, Pete Hegseth, la compañía liderada por Dario Amodei ha declarado que no puede, "en buena conciencia", eliminar las barreras de seguridad de su modelo de IA, Claude. El Departamento de Defensa había amenazado con rescindir un contrato de 200 millones de dólares y clasificar a Anthropic como un "riesgo para la cadena de suministro" si no accedía a desactivar las protecciones sobre la vigilancia masiva y el desarrollo de armas autónomas.

Amodei, CEO de Anthropic, expresó en un comunicado oficial su preferencia por continuar sirviendo al Departamento de Defensa y a las tropas estadounidenses, pero siempre con sus "dos salvaguardas solicitadas en pie". "Seguimos dispuestos a continuar nuestro trabajo para apoyar la seguridad nacional de los Estados Unidos", afirmó, subrayando el compromiso de la compañía con la ética, incluso en contextos militares.

La respuesta del Pentágono no se hizo esperar. El Subsecretario de Defensa, Emil Michael, acusó a Amodei en redes sociales de intentar "controlar personalmente al ejército de EE. UU." y de "poner en riesgo la seguridad de nuestra nación". Esta confrontación se intensificó tras la exigencia del Pentágono de que Claude estuviera disponible para "todos los fines legales", incluyendo la vigilancia a gran escala y el desarrollo de armas letales autónomas capaces de operar sin supervisión humana.

La situación escaló rápidamente después de que el Pentágono estableciera un plazo estricto para que Anthropic cediera. Simultáneamente, el Departamento de Defensa inició una evaluación para determinar si etiquetaba a Anthropic como un "riesgo para la cadena de suministro", una medida normalmente reservada para empresas de naciones adversarias como China y que, según Anthropic, nunca antes se había aplicado a una compañía estadounidense.

Amodei se mantuvo firme, declarando que si el Pentágono decidía prescindir de Anthropic, la empresa "trabajará para facilitar una transición fluida a otro proveedor, evitando cualquier interrupción en la planificación militar, operaciones u otras misiones críticas". Se rumorea que otros proveedores como Grok de Elon Musk, Gemini de Google y OpenAI, están siendo considerados por el DoD.

Sin embargo, la desconexión podría no ser tan sencilla. Hasta ahora, el modelo Claude ha sido el único permitido para las tareas más sensibles del ejército en inteligencia, desarrollo de armamento y operaciones de combate. De hecho, se informa que Claude fue utilizado en la operación para exfiltrar al presidente venezolano Nicolás Maduro y a su esposa.

Este caso pone de relieve la creciente tensión entre el avance de la IA y las preocupaciones éticas. Mientras las empresas de IA enfrentan críticas por los potenciales daños a los usuarios, la aplicación de estas tecnologías a la vigilancia masiva y el armamento autónomo eleva el debate a un nuevo nivel. La postura de Anthropic se considera una prueba de fuego para su afirmación de ser la compañía de IA más centrada en la seguridad, especialmente después de haber modificado recientemente su principal compromiso de seguridad.

Fuente Original

Este contenido pertenece a Engadget. Estás viendo una versión simplificada. Para apoyar al autor y ver el contenido completo e interactivo, visita el sitio original.

Leer completo en Engadget