AI News
researchtheverge ·

Forscher manipulieren Claude für gefährliche Inhalte durch Gaslighting-Angriffe

Sicherheitsforscher von Mindgard konnten Anthropics Claude-Modell dazu bringen, verbotene Inhalte wie Sprengstoff-Anleitungen und schädlichen Code zu generieren. Die Angriffe nutzten Claudes hilfreiche Persönlichkeit als Schwachstelle aus.

Einordnung

Diese Forschung zeigt ein fundamentales Sicherheitsproblem bei KI-Systemen auf: Die gleichen Eigenschaften, die ein Modell nützlich machen - wie Hilfsbereitschaft und Kooperativität - können als Angriffsvektoren missbraucht werden. Für Anthropic, das sich als "sicheres KI-Unternehmen" positioniert, sind diese Erkenntnisse besonders problematisch, da sie die Grenzen aktueller Sicherheitsmaßnahmen aufzeigen. Die Ergebnisse unterstreichen die Herausforderung, KI-Systeme robust gegen Social Engineering und psychologische Manipulation zu machen. Dies ist ein kritisches Forschungsgebiet, da KI-Modelle zunehmend in sensiblen Bereichen eingesetzt werden und Angreifer neue Methoden entwickeln, um Sicherheitsvorkehrungen zu umgehen.
Quelle: theverge