T
TechGamerIA
TechGizmodo

Pentágono Presiona a IA de Anthropic para Eliminar Salvaguardas Críticas

Pentágono Presiona a IA de Anthropic para Eliminar Salvaguardas Críticas

El Pentágono ha puesto el ojo en Anthropic, una de las principales compañías de inteligencia artificial del mundo, con una petición que ha encendido las alarmas en la comunidad tecnológica y ética. Según informes recientes, el Departamento de Defensa de EE. UU. ha solicitado a Anthropic que elimine las salvaguardas incorporadas en sus modelos de IA, específicamente aquellas diseñadas para prevenir el uso de la tecnología en la vigilancia masiva de ciudadanos dentro del país y en el desarrollo de armas autónomas letales.

Anthropic, conocida por su enfoque en la seguridad y la alineación ética de la IA a través de su método "Constitutional AI", se encuentra en una encrucijada. La empresa ha desarrollado salvaguardas robustas para asegurar que sus modelos no sean utilizados para fines que puedan infringir derechos humanos o comprometer la seguridad global de maneras imprevistas. La solicitud del Pentágono apunta directamente a la desactivación de estas protecciones, sugiriendo una priorización de capacidades militares sobre las consideraciones éticas y de derechos civiles.

Esta petición subraya las crecientes tensiones entre el avance tecnológico acelerado y la necesidad de un marco regulatorio y ético sólido. Mientras las naciones buscan dominar la próxima generación de tecnología militar, el debate sobre hasta dónde deben llegar las capacidades de la IA y qué límites deben imponerse se vuelve cada vez más crítico.

Fuente Original

Este contenido pertenece a Gizmodo. Estás viendo una versión simplificada. Para apoyar al autor y ver el contenido completo e interactivo, visita el sitio original.

Leer completo en Gizmodo