Lektionen aus der Entwicklung einer unsicheren KI-Anwendung
Im Zuge unserer Auseinandersetzung mit KI-Sicherheit, besonders in Bezug auf Large Language Models (LLMs) haben wir eine bewusst unsichere KI-Anwendung entwickelt. Diese haben wir auf GitHub veröffentlicht und nutzen Sie, um unseren Kunden Risiken und mögliche Schwachstellen beim Einsatz von KI-Anwendungen aufzuzeigen. Das fertige Projekt zum selbst Testen findet sich hier auf GitHub: https://github.com/NSIDE-ATTACK-LOGIC/Professional-Secure-AI-Bot
Die App sieht so aus:
Neben den Schwachstellen, welche die Applikation verdeutlicht, gab es auch bei der Entwicklung selbst einige spannende Erkenntnisse, welche ich in diesem Blog kurz zusammen fassen möchte.
KI kann alles außer zuhören
Um Schwachstellen zu demonstrieren, müssen (unzureichende) Sicherheitsmaßnahmen in die Anwendung eingebaut werden, welche im Anschluss überwunden werden. Da LLMs mit menschlicher Sprache funktionieren, ist es verlockend, diesen Modellen klare (so denkt man) Anweisungen in menschlicher Sprache […]
