AI solutions intro

Sichere AI-Prompts

Nutzung künstlicher Intelligenz auf verschlüsselten Daten


Mit Hilfe von Confidential Computing lassen sich KI-Anwendungen wie Chatbots auf verschlüsselten Daten ausführen. So können Datenlecks ausgeschlossen und selbst sensible Daten effizient verarbeitet werden.

Das Problem: Ihre Prompts sind ungeschützt


Moderne Sprachmodelle (LLMs) wie jene von OpenAI, Mistral oder Aleph Alpha ermöglichen vielfältige neue Anwendungen und erhebliche Effizienzsteigerungen in Betriebsprozessen. Anforderungen an Datenschutz und Datensicherheit verhindern jedoch häufig die Verwendung derartiger Angebote in Unternehmen. Zwar existieren Lösungen wie ChatGPT Enterprise oder Langdock, aber auch bei diesen landen Daten zwangsläufig im Klartext bei verschiednen externen Unternehmen.

Secure AI problem

Aktuelle Vorfälle betonen die Notwendigkeit starker Schutzmaßnahmen

Samsung logo

Samsung-Mitarbeiter haben versehentlich Geschäftsgeheimnisse an ChatGPT (OpenAI) weitergegeben.

Leftoverlocals logo

Hardware-Schwachstellen, wie LeftOverLocals, können Ihre Daten an den Service- und Infrastrukturanbieter weitergeben.

Die Lösung: Confidential Computing


Confidential Computing löst Datenschutz- und Compliance-Probleme, indem es Ihre Daten vor allen beteiligten Parteien verschlüsselt. Confidential Computing ist eine neue Technologie, die es ermöglicht, Daten nicht nur im Ruhezustand oder bei der Übertragung, sondern auch während der Verarbeitung zu verschlüsseln. Unterstützt wird dies durch die neuesten CPUs von Intel und AMD. Diese Prozessoren, ausgestattet mit Trusted Execution Environments (TEEs), gewährleisten, dass alle Daten während der Laufzeit im Speicher verschlüsselt bleiben.

 

Darüber hinaus ermöglicht Confidential Computing die Überprüfung der Integrität von Arbeitslasten durch Remote Attestation unter Verwendung kryptografischer Zertifikaten. Diese Kombination aus Verschlüsselung zur Laufzeit und Remote-Attestation sichert die Datenverarbeitung, auch auf externer Infrastruktur.

Secure AI prompts

Warum nicht on-prem?

1.

Nichtverfügbarkeit von GPU-Hardware

Die neuesten GPU-Generationen sind teuer und ihre Beschaffung dauert für die meisten Unternehmen lange.

2.

Sie verlieren die Vorteile der Cloud

On-prem-Infrastrukturen sind kostspielig, schwer skalierbar und benötigt viele Ressourcen für IT-Operationen.

3.

Administratoren können auf Ihre Daten zugreifen

Mit herkömmlicher Infrastruktur hat Ihr Systemadministrator Zugriff auf Ihre Daten zur Laufzeit über unverschlüsselten Speicher.

4.

Schlechteres Service-Erlebnis

Dienstanbieter optimieren ihre Architektur und AI Inference, um relevantere und schnellere Antworten zu liefern.

Haben Sie noch Fragen?


Interessiert, mehr über Confidential AI, enterprise-ready ChatGPT und den Schutz von Prompts und Gewichten von GenAI-Modellen zu erfahren? Kontaktieren Sie uns, um mit unseren Experten zu sprechen.