Prompt Injection: Angriffe auf KI-Sprachmodelle
Sicherheit & Vertrauen

Prompt Injection: Angriffe auf KI-Sprachmodelle

Mit dem Aufkommen von Large Language Models (LLMs) wie ChatGPT und ihrer zunehmenden Verwendung in Softwareprodukten ergeben sich neue Sicherheitslücken. Prompt Injection ist einer der gefährlichsten Angriffe auf diese Modelle, bei dem ungeprüfte Daten unbemerkt vom Nutzer Kontrolle über das LLM und damit die Anwendung gewinnen können. In der Demo zeigen wir realistische Bedrohungsszenarien und ordnen diese in den Gesamtrahmen der Cybersicherheit ein.

Interessen

Künstliche Intelligenz

IT-Sicherheit

Datenschutz