El Consejo de Supervisión de Meta critica la insuficiente moderación de 'deepfakes' en conflictos bélicos

El Consejo de Supervisión de Meta (Meta's Oversight Board), un órgano con cierta independencia encargado de guiar las prácticas de moderación de contenido de la compañía, ha declarado que los sistemas actuales de Meta para identificar videos e imágenes manipuladas por inteligencia artificial (IA) son "insuficientes y poco completos". Esta crítica surge en un momento crucial, dada la rápida propagación de desinformación durante conflictos armados, como el reciente conflicto en Irán.
El Consejo insta a Meta a realizar una revisión profunda de cómo detecta, etiqueta y presenta el contenido generado por IA en sus plataformas principales: Facebook, Instagram y Threads. Esta solicitud se basa en una investigación específica sobre un video falso generado por IA que mostraba supuestos daños en edificios en Israel. Aunque este incidente particular se remonta al año pasado, las recomendaciones del Consejo tienen implicaciones más amplias y urgentes para la estrategia de Meta en la gestión de la desinformación potenciada por IA.
La junta subraya la necesidad de que Meta asuma con mayor seriedad la tarea de etiquetar el contenido de IA. La falta de una estrategia clara y efectiva podría tener consecuencias graves, erosionando la confianza de los usuarios y facilitando la manipulación de la opinión pública en momentos de alta tensión social y política. La propuesta del Consejo apunta a una solución más proactiva que reactiva, buscando anticiparse a la difusión viral de contenido engañoso.
Noticias Recientes


El Lado Oscuro de la IA: Trabajadores Cualificados Luchan por Supervivencia en la Nueva Fábrica de Datos Digital
Fuente Original
Este contenido pertenece a The Verge. Estás viendo una versión simplificada. Para apoyar al autor y ver el contenido completo e interactivo, visita el sitio original.
Leer completo en The Verge