AI News
researchtakara ·

Schwerwiegende Sicherheitslücken bei KI-Bilderkennung durch winzige Störungen aufgedeckt

Forscher haben entdeckt, dass rekonstruktionsbasierte Detektoren für KI-generierte Bilder extrem anfällig für adversarielle Angriffe sind. Durch kaum sichtbare Störungen können solche Systeme praktisch vollständig ausgetrickst werden, wobei die Erkennungsgenauigkeit auf nahezu null sinkt.

Einordnung

Diese Forschungsarbeit deckt ein fundamentales Problem bei der Erkennung von KI-generierten Bildern auf. Da solche Detektoren zunehmend wichtig werden, um Deepfakes und andere manipulierte Inhalte zu identifizieren, stellen die gefundenen Sicherheitslücken ein erhebliches Problem dar. Besonders beunruhigend ist, dass die Angriffe übertragbar sind - ein Angriff gegen einen Detektor funktioniert auch gegen andere. Die Studie zeigt systematisch, dass Standard-Abwehrmaßnahmen gegen adversarielle Angriffe bei dieser Art von Detektoren nicht greifen. Das niedrige Signal-zu-Rausch-Verhältnis der angegriffenen Samples macht herkömmliche Verteidigungsstrategien unwirksam. Dies wirft grundsätzliche Fragen zur Sicherheit und Zuverlässigkeit aktueller Erkennungsmethoden auf und macht deutlich, dass neue Ansätze entwickelt werden müssen.
Quelle: takara