top of page

LLMFort
Ihre KI-Sicherheitslösung – Befehle überwachen, Risiken managen.

Sicherheit von LLMs?

Große Sprachmodelle (LLMs) revolutionieren die Geschäftswelt und schaffen gleichzeitig eine neue Angriffsfläche für die Sicherheitsarchitekturen von Unternehmen.

LLMFort

Herkömmliche Sicherheitswerkzeuge reichen nicht aus, um sprach- und kontextmanipulationsbasierte Bedrohungen wie beispielsweise Prompt-Injection zu erkennen. Daher ist eine fortschrittliche Verteidigungsebene erforderlich, die die gesamte Interaktion zwischen Benutzer und Modell überwacht und potenziell schädliche Befehle analysiert und blockiert, bevor diese das Modell erreichen. Die LLM-Firewall gewährleistet diese Interaktion sicher, nachvollziehbar und kontrollierbar.

LLM Sicherheit

5 wichtige LLM-Fälle

1. Samsung und ChatGPT (Datenleck): Mitarbeiter gaben sensible Unternehmensdaten preis, indem sie vertraulichen Quellcode und Besprechungsnotizen direkt in ChatGPT einfügten, um Hilfe anzufordern.

2. OpenAI und ChatGPT (Leck persönlicher Daten): Ein Fehler in der Plattform ermöglichte es einigen Nutzern, Chatverläufe einzusehen und Zahlungsinformationen von Plus-Abonnenten preiszugeben (Leck persönlicher Daten).

3. Microsoft Copilot (Indirekte Einschleusung): Schadcode, der in E-Mails versteckt war, verleitete Copilot dazu, Unternehmensdaten zu verarbeiten und an die URL eines Angreifers zu senden.

4. Google NotebookLM (RAG-Leak): Ein schädliches Dokument deckte eine Schwachstelle in RAG-Systemen (externe Daten) auf, indem es Informationen aus anderen vertraulichen Dokumenten im Speicher des Modells stahl.

5. Allgemeiner Jailbreak-Fall (Entsperrung von Systembefehlen): Jailbreak-Techniken wie „DAN“ ermöglichten es großen Modellen, Sicherheitsfilter zu umgehen und versteckte Systembefehle offenzulegen, die ihr Verhalten steuern.

Was ist LLMFort?

Was ist LLMFort?

LLMFort ist ein intelligenter Sicherheitsschutz, der die Nutzung von KI in Unternehmen absichert.

Durch die zentrale Überwachung aller Benutzer- und Anwendungsinteraktionen verhindert es das sofortige Einschleusen von Daten, Datenlecks und Richtlinienverstöße, bevor diese das Modell erreichen.

LLMFort beseitigt das unkontrollierte Risiko, das von KI ausgeht, und ermöglicht es Ihrem Unternehmen, sein Innovationspotenzial unbesorgt zu entfalten.

Hauptmerkmale von LLMFort

01

LLM Discovery

02

Inline-/Out-Band-Promptsteuerung

03

04

EnterpriseChat-Benutzeroberfläche

05

Aktueller LLM-Bestand

06

Regex-/Schlüsselwortregeln

07

OWAPS Top 10 GENAI

08

Erweiterte Integrationen

Wie schützt LLMFort?

1. Erfasst und analysiert Kommunikation: Es fungiert als zentrale Schnittstelle für alle LLM-Anfragen von Benutzern (Chat) oder Anwendungen (API) und initiiert den Sicherheitsauditprozess.

2. Führt mehrschichtige Sicherheitsprüfungen durch: Es wendet sofort vordefinierte Unternehmensrichtlinien an. Es durchsucht Eingabeaufforderungen in einem mehrstufigen Prozess mithilfe fortschrittlicher Keyword-, Regex- und semantischer Analyse-Engines.

3. Erkennt Risiken und Sicherheitslücken: Der Scan identifiziert sofort Risiken und Schwachstellen wie Prompt-Injection, Datenlecks (personenbezogene Daten, Geschäftsgeheimnisse), Verstöße gegen Unternehmensrichtlinien oder schädliche Inhalte.

4. Reagiert umgehend gemäß den Regeln: Es wendet sofort die in der Regel definierte Aktion (Blockieren, Maskieren oder Verweigern) entsprechend dem erkannten Risiko an. Dadurch wird die Bedrohung eliminiert, bevor sie das LLM-Modell erreicht.

LLMFort-Architektur – Inline-Firewall

LLMFort Firewall

LLMFort Architektur - Out-Band

LLMFort Hauptmerkmale
LLMFort-Chat

Lokale Stärke, globale Vision
LLMFort ist eine Sicherheitsplattform von LLM, die zu 100 % mit inländischer Technologie entwickelt wurde.

Vollständige Einhaltung von Gesetzen und DSGVO: Die inländische Infrastruktur gewährleistet die Einhaltung aller Vorschriften.

Lokaler Support und Service: Schnelle Reaktionszeiten, effektive Kommunikation ohne Sprachbarrieren und nachhaltige Servicequalität.

Flexible Entwicklung und individuelle Anpassung: Schnelle Reaktion auf sich ändernde Bedürfnisse, anpassbare Architektur.

Datensicherheit: Alle Daten werden inländisch gehostet; externe Abhängigkeiten und das Risiko von Datenlecks werden minimiert.

Schnelle Beschaffungs- und Projektprozesse: Zeitnahe Installation, Integration und Support.

STEIGEN

  • Rapid7 InsightConnect

  • Splunk Phantom

  • Cortex XSOAR (Demsto)

Messaging-Apps

  • Slack

  • MS Teams

  • Telegramm

SIEM

  • Splunk SIEM

  • Splunk Phantom

  • Cortex XSOAR (Demisto)

Universelle Integration

  • Allgemeine WebHooks

  • Öffentliche APIs

  • Atlassian Jira

DevOps-Tools

  • PagerDuty

  • Atlassian OpsGenie

  • Jenkins

  • Azure DevOps

< Zurück

Esenyali Mah. Yanyol Cad. Varyap Plaza Nr. 16 Innentür Nr.: 247 Pendik / Istanbul

Alle Rechte vorbehalten – © Cyberport Bilisim. 2023

Datenschutz | Datenschutzerklärung | Informationen zur Informationssicherheit

bottom of page