Künstliche Intelligenz (KI) und besonders Large Language Models (LLM) kommen in immer mehr Unternehmen zum Einsatz. Ihre Anwendung verspricht durch ihre einfache Bedienbarkeit und Vielseitigkeit viele Vorteile. Um einen maximalen Mehrwert zu bringen, brauchen sie jedoch Zugang zu unternehmensinternen Informationen und Tools.

Aber diese Technologien bringen neue Arten von Schwachstellen mit sich. Diese können durch den Einsatz von KI in sensiblen Funktionen immensen Schaden anrichten. Insbesondere bei der Entwicklung und dem Betrieb interner Chatbots oder LLMs ist es besonders wichtig, von Anfang an Sicherheit zu denken. Da es fast unmöglich ist, ein LLM einmal gelerntes wieder vergessen zu lassen, können so durch falsche Trainingsdaten hohe Kosten für das erneute Trainieren von Modellen entstehen.

Während zum Beispiel in der Webentwicklung eine immer größer werdende Awareness der Entwickler für potenzielle Schwachstellen existiert, ist dies bei LLMs und ihren Schwachstellen eher weniger der Fall. Weil Sie mit einer Kombination aus menschlicher Sprache und Computerlogik betrieben werden, können Schwachstellen hier besonders schwer zu finden sein.

Die NSIDE unterstützt Sie gerne von Anfang bis Ende bei der Planung und Umsetzung Ihres KI-Projektes mit den folgenden Services:

  • Beratung zur Konzeption des Projektes
  • Analyse der geplanten Trainingsdaten
  • Penetrationtests gegen KI-Applikationen und Chatbots
  • Awareness-Schulungen zum sicheren Umgang mit KI

OFFENSIVE CYBER SECURITY

Kontaktieren Sie uns, um Ihre Sicherheitslücken zu finden und zu schließen.