LLMFort
Ihre KI-Sicherheitslösung – Befehle überwachen, Risiken managen.
Sicherheit von LLMs?
Große Sprachmodelle (LLMs) revolutionieren die Geschäftswelt und schaffen gleichzeitig eine neue Angriffsfläche für die Sicherheitsarchitekturen von Unternehmen.

Herkömmliche Sicherheitswerkzeuge reichen nicht aus, um sprach- und kontextmanipulationsbasierte Bedrohungen wie beispielsweise Prompt-Injection zu erkennen. Daher ist eine fortschrittliche Verteidigungsebene erforderlich, die die gesamte Interaktion zwischen Benutzer und Modell überwacht und potenziell schädliche Befehle analysiert und blockiert, bevor diese das Modell erreichen. Die LLM-Firewall gewährleistet diese Interaktion sicher, nachvollziehbar und kontrollierbar.

5 wichtige LLM-Fälle
1. Samsung und ChatGPT (Datenleck): Mitarbeiter gaben sensible Unternehmensdaten preis, indem sie vertraulichen Quellcode und Besprechungsnotizen direkt in ChatGPT einfügten, um Hilfe anzufordern.
2. OpenAI und ChatGPT (Leck persönlicher Daten): Ein Fehler in der Plattform ermöglichte es einigen Nutzern, Chatverläufe einzusehen und Zahlungsinformationen von Plus-Abonnenten preiszugeben (Leck persönlicher Daten).
3. Microsoft Copilot (Indirekte Einschleusung): Schadcode, der in E-Mails versteckt war, verleitete Copilot dazu, Unternehmensdaten zu verarbeiten und an die URL eines Angreifers zu senden.
4. Google NotebookLM (RAG-Leak): Ein schädliches Dokument deckte eine Schwachstelle in RAG-Systemen (externe Daten) auf, indem es Informationen aus anderen vertraulichen Dokumenten im Speicher des Modells stahl.
5. Allgemeiner Jailbreak-Fall (Entsperrung von Systembefehlen): Jailbreak-Techniken wie „DAN“ ermöglichten es großen Modellen, Sicherheitsfilter zu umgehen und versteckte Systembefehle offenzulegen, die ihr Verhalten steuern.

Was ist LLMFort?
LLMFort ist ein intelligenter Sicherheitsschutz, der die Nutzung von KI in Unternehmen absichert.
Durch die zentrale Überwachung aller Benutzer- und Anwendungsinteraktionen verhindert es das sofortige Einschleusen von Daten, Datenlecks und Richtlinienverstöße, bevor diese das Modell erreichen.
LLMFort beseitigt das unkontrollierte Risiko, das von KI ausgeht, und ermöglicht es Ihrem Unternehmen, sein Innovationspotenzial unbesorgt zu entfalten.
Hauptmerkmale von LLMFort
01
LLM Discovery
02
Inline-/Out-Band-Promptsteuerung
03
04
EnterpriseChat-Benutzeroberfläche
05
Aktueller LLM-Bestand
06
Regex-/Schlüsselwortregeln
07
OWAPS Top 10 GENAI
08
Erweiterte Integrationen
Wie schützt LLMFort?
1. Erfasst und analysiert Kommunikation: Es fungiert als zentrale Schnittstelle für alle LLM-Anfragen von Benutzern (Chat) oder Anwendungen (API) und initiiert den Sicherheitsauditprozess.
2. Führt mehrschichtige Sicherheitsprüfungen durch: Es wendet sofort vordefinierte Unternehmensrichtlinien an. Es durchsucht Eingabeaufforderungen in einem mehrstufigen Prozess mithilfe fortschrittlicher Keyword-, Regex- und semantischer Analyse-Engines.
3. Erkennt Risiken und Sicherheitslücken: Der Scan identifiziert sofort Risiken und Schwachstellen wie Prompt-Injection, Datenlecks (personenbezogene Daten, Geschäftsgeheimnisse), Verstöße gegen Unternehmensrichtlinien oder schädliche Inhalte.
4. Reagiert umgehend gemäß den Regeln: Es wendet sofort die in der Regel definierte Aktion (Blockieren, Maskieren oder Verweigern) entsprechend dem erkannten Risiko an. Dadurch wird die Bedrohung eliminiert, bevor sie das LLM-Modell erreicht.
LLMFort-Architektur – Inline-Firewall

LLMFort Architektur - Out-Band


Lokale Stärke, globale Vision
LLMFort ist eine Sicherheitsplattform von LLM, die zu 100 % mit inländischer Technologie entwickelt wurde.
Vollständige Einhaltung von Gesetzen und DSGVO: Die inländische Infrastruktur gewährleistet die Einhaltung aller Vorschriften.
Lokaler Support und Service: Schnelle Reaktionszeiten, effektive Kommunikation ohne Sprachbarrieren und nachhaltige Servicequalität.
Flexible Entwicklung und individuelle Anpassung: Schnelle Reaktion auf sich ändernde Bedürfnisse, anpassbare Architektur.
Datensicherheit: Alle Daten werden inländisch gehostet; externe Abhängigkeiten und das Risiko von Datenlecks werden minimiert.
Schnelle Beschaffungs- und Projektprozesse: Zeitnahe Installation, Integration und Support.
STEIGEN
-
Rapid7 InsightConnect
-
Splunk Phantom
-
Cortex XSOAR (Demsto)
Messaging-Apps
-
Slack
-
MS Teams
-
Telegramm
SIEM
-
Splunk SIEM
-
Splunk Phantom
-
Cortex XSOAR (Demisto)
Universelle Integration
-
Allgemeine WebHooks
-
Öffentliche APIs
-
Atlassian Jira
DevOps-Tools
-
PagerDuty
-
Atlassian OpsGenie
-
Jenkins
-
Azure DevOps
