Wie man in Zeiten von KI ein Höchstmaß an Cybersicherheit gewährleistet – praktische Tipps vom Experten

Finden Sie heraus, wie Hicron eine sichere und transparente KI-Umgebung für fortschrittliche Unternehmen schafft. Lesen Sie die praktischen Tipps unserer SAP-Experten zum wirksamen Schutz von Implementierungen der Künstlichen Intelligenz.

Von der diesjährigen SAP NOW sind nicht nur Inspirationen geblieben, sondern auch konkrete Ratschläge, von denen die gesamte SAP-Community profitieren kann. Eines der wichtigsten Themen der Veranstaltung war die Künstliche Intelligenz – auch beim Vortrag unseres Experten Szymon Włochowicz, COO von Hicron. Seine Präsentation über die sichere Implementierung und Nutzung von KI-Tools stieß auf großes Interesse, weshalb wir diesen Artikel auf der Grundlage der Kernaussagen zusammengestellt haben.

Möchten Sie mehr darüber erfahren, wie Sie Ihr Unternehmen im Zeitalter der KI schützen und das Potential neuer Technologien effektiv nutzen können? Dann lesen Sie den Text und profitieren Sie so von den praktischen Empfehlungen unseres Experten!

Professionelle Vorbereitung als erster Schritt hinzu einer wirksamen Sicherheitslösung

Künstliche Intelligenz ist längst zu einem zentralen Bestandteil der Geschäftsstrategien moderner Unternehmen geworden. Im Streben nach Innovationen und Effizienz werden jedoch oft grundlegende Fragen im Zusammenhang mit der Cybersicherheit übersehen. Die Einführung und Nutzung von KI-Tools ohne eine entsprechend ausgearbeitete Sicherheitsstrategie kann zu schwerwiegenden Datenschutzverletzungen, dem Verlust von Geschäftsgeheimnissen und der Gefährdung durch hochentwickelte Cyberangriffe führen.

KI erfordert mehr als nur die herkömmlichen Schutzmechanismen, sondern vielmehr einen ganzheitlichen Ansatz, mit dem die spezifischen Risiken im Zusammenhang mit Maschinellem Lernen, der Datenverarbeitung durch Sprachmodelle und der Integration Künstlicher Intelligenz in die bestehende IT-Infrastruktur berücksichtigt werden. Jede KI-Implementierung bringt neue Angriffsvektoren und Schwachstellen mit sich, deren Absicherung dedizierte Maßnahmen und einen strategischen Ansatz voraussetzt.

Eine wirksame Absicherung der KI-Implementierung erfordert eine umfassende Strategie, die Risikomanagement, Datenschutzrichtlinien, Zugriffskontrollmechanismen und kontinuierliche Überwachung mit einschließt. Es muss unbedingt betont werden, dass es sich bei der Gewährleistung der Cybersicherheit im Zusammenhang mit KI um einen dynamischen Prozess handelt, der eine ständige Anpassung an neue Technologien und sich entwickelnde Bedrohungen erfordert.

Die Entwicklung des Begriffs KI

  • Maschinelles Lernen (Machine Learning)

Dabei handelt es sich um eine Technologie, die es Computersystemen ermöglicht, anhand von Daten zu lernen, ohne dass sie eigens dafür programmiert werden müssen. Algorithmen analysieren Muster in Daten, um Entscheidungen zu treffen oder Ergebnisse vorherzusagen. Dies ist die Grundlage der modernen Künstlichen Intelligenz, die in Bereichen wie Datenanalyse, Bilderkennung oder Prognosen zur Anwendung kommt.

  • Generative KI auf Basis von LLM (Large Language Models)

Bei Generativer KI handelt es sich um Systeme, die in der Lage sind, auf der Grundlage vorhandener Daten neue Inhalte wie Texte, Bilder oder Klänge zu erzeugen. LLM-Modelle wie Chat GPT sind auf die Verarbeitung natürlicher Sprache ausgerichtet und generieren Antworten, die der menschlichen Kommunikation ähneln. Zu ihren Anwendungsbereichen zählen Chatbots, Sprachübersetzungen und die Erstellung von Marketinginhalten.

  • Agentic AI

Bei Agentic AI handelt es sich um eine fortgeschrittenere Form der KI, die autonom funktioniert, Entscheidungen trifft und Aufgaben auf eine Art und Weise ausführt, die einer menschlichen Initiative ähnelt. Solche Tools können selbstständig planen, lernen und sich an wandelnde Bedingungen anpassen. Dies ist ein Schritt in Richtung autonomerer Systeme, die den Benutzern die Möglichkeit bieten, auch komplexe Geschäftsprozesse zu unterstützen.

  • Künstliche Allgemeine Intelligenz (Artificial General Intelligence = AGI)

Bei AGI handelt es sich um eine Vision von Künstlicher Intelligenz, die den intellektuellen Fähigkeiten des Menschen ebenbürtig ist und in der Lage ist, vielfältige Probleme in verschiedenen Bereichen zu lösen. Im Gegensatz zu spezialisierten Systemen verfügt AGI über die Eigenschaft, sich anpassen und universell lernen zu können. Obwohl dies ein langfristiges Ziel darstellt, bleibt AGI weitgehend ein theoretisches Konzept, das noch technologische Durchbrüche erfordert.

Generative KI stellt den der nächsten Schritt in der Entwicklung von Künstlicher Intelligenz dar. Es handelt sich um eine völlig andere Klasse von Systemen als es bei den bisherigen Lösungen der Fall war, die auf Machine-Learning-Technologie basieren. Einerseits sind Generative-KI-Tools Systeme, die überwiegend online und cloudbasiert funktionieren. Andererseits handelt es sich dabei um Systeme, die mit sehr großen Datenmengen arbeiten und weder einem maschinellen Lernsystem noch einem Standardsystem ähneln. Aus diesem Grund erfordert ihre Nutzung einen völlig anderen Ansatz in Hinblick auf die Unternehmenssicherheit und eine andere Art der Verwaltung dieser Systeme in der Unternehmensarchitektur, um einen ausreichenden Schutz zu gewährleisten. Da Generative-KI-Tools Merkmale der Nachahmung menschlicher Intelligenz mit Cloud-Lösungen und großen Datenmengen verbinden, stellen sie ein völlig neues Konstrukt dar, das einen innovativen Blick auf die Sicherheit erfordert. Diese Veränderung der Standards für den Schutz von Unternehmen wird sich im Zuge der Evolution der KI-Tools weiterentwickeln. Sowohl Agentic-KI-Lösungen als auch Künstliche Allgemeine Intelligenz (Artificial General Intelligence = AGI) setzen einen unterschiedlichen Ansatz voraus, da sie beide ein völlig neues Konzept mit sich bringen.
Szymon Wlochowicz
Szymon Wlochowicz
COO Hicron

Die wichtigsten unternehmerischen Cybersicherheitsrisiken bei der Implementierung von KI

Während seines Vortrags auf der diesjährigen SAP Now stellte Szymon Włochowicz eine Liste der wichtigsten Unternehmensrisiken im Zusammenhang mit der Nutzung von KI-Modellen vor. Diese Liste wurde von einem Team von Hicron-Experten zusammengestellt, die sich auf die Entwicklung von Künstlicher Intelligenz spezialisiert haben. Von den acht ermittelten Risikobereichen wurden drei von unserem Vertreter während der Präsentation eingehend erörtert.

Nicht-autorisierte KI-Tools (Shadow AI)

Eine der größten Herausforderungen stellt die sogenannte Shadow AI dar. Damit wird die Situation bezeichnet, bei der Mitarbeiter öffentlich zugängliche KI-Tools ohne Wissen und Zustimmung der IT- oder Sicherheitsabteilungen nutzen. Diese Vorgehensweise führt dazu, dass sensible Unternehmensdaten von Systemen Dritter unkontrolliert verarbeitet werden und die Kontrolle darüber verloren geht.

Im Falle von Shadow AI sind Unternehmen dem Risiko ausgesetzt, dass Mitarbeiter unwissentlich vertrauliche Informationen an KI-Modelle übermitteln, die diese dann zum Training nutzen oder sogar an andere Nutzer der Tools weitergeben können.

Mangelnde Auditierbarkeit

Datenleck durch Prompts

Jede Anfrage (Prompt), die ein Benutzer an das KI-System richtet, birgt das Risiko, dass sensible Unternehmensdaten offengelegt werden. Insbesondere detaillierte Prompts können Unternehmensgeheimnisse beinhalten, die, ähnlich wie bei Shadow AI, zum Trainieren von Modellen und zur Weitergabe vertraulicher Informationen an andere Nutzer der KI-Modelle verwendet werden können. Die in Prompts übermittelten Daten können von KI-Anbietern auch auf unbestimmte Zeit gespeichert werden, was das Risiko einer Verletzung der Vertraulichkeit und Sicherheit von Informationen noch erhöht.

Situation, in der die Nutzung des KI-Tools ein solches Risiko hervorrufen kann:

BESCHREIBUNG DER NUTZUNG DES TOOLS: Der Nutzer sendet einen Befehl an die KI, dessen Inhalt ein Betriebsgeheimnis enthält, beispielsweise: „Bereite eine Präsentation für das Vorstandstreffen vor, in der du den folgenden chemischen Prozess vorstellst …“

RISIKO: Die Daten, die der Nutzer in seinem Befehl an die KI-Lösung gesendet hat, können vom Tool zum Trainieren und Entwickeln eines LLM-Modells (Large Language Model) genutzt werden. Dadurch können diese Informationen potentiell dazu verwendet werden, Antworten für andere Unternehmen zu generieren und so Daten weiterzugeben, die Betriebsgeheimnisse sind.

RISIKOPRÄVENTION: Um dieses Risiko zu vermeiden, sollten Sie das Bewusstsein der Nutzer für die Gefahren bei der Nutzung von KI-Tools schärfen, KI-Governance-Richtlinien in Ihrem Unternehmen einführen und nur KI-Tools von bewährten Anbietern einsetzen.

Grenzüberschreitende Datenübertragungen

Wenn Unternehmen KI-Tools einsetzen, kommt es manchmal zu Datenlecks außerhalb der Gerichtsbarkeit der Organisation. Dies birgt das Risiko einer Nichteinhaltung der DSGVO-Vorschriften und des Verlusts der Kontrolle über die Kundendaten. KI-Modelle werden häufig in anderen Ländern als dem Standort der ursprünglichen Systeme des Unternehmens gehostet und unterliegen daher gesonderten gesetzlichen Bestimmungen. Dieser Aspekt erfordert besondere Aufmerksamkeit bei der Auswahl und Integration von KI-Tools.

Situation, in der die Nutzung des KI-Tools ein solches Risiko hervorrufen kann:

BESCHREIBUNG DER NUTZUNG DES TOOLS: Um Empfehlungen für Vertriebsmitarbeiter zum Kundenkontakt zu erstellen, nutzt das Unternehmen externe KI-Tools, die wiederum Zugriff auf Unternehmensdaten haben. Dabei werden diese Daten an LLM-Modelle in anderen Ländern weitergeleitet, die anderen Rechtssystemen unterliegen.

RISIKO: Die Übermittlung von Daten an LLM-Modelle in anderen Rechtsgebieten kann zu Verstößen gegen Datenschutzbestimmungen wie der DSGVO und zum Verlust der Kontrolle über Kundendaten führen. Ein weiteres Risiko besteht in der Möglichkeit einer fehlerhaften Konfiguration der Datenmodelle, was das Risiko von Datenlecks oder unbefugtem Zugriff erhöhen kann.

RISIKOPRÄVENTION: Um das Risiko zu minimieren, sollten die genutzten Tools in rechtlicher Hinsicht abgesichert werden und nur KI-Technologien von bewährten Anbietern zum Einsatz kommen.

Eskalation von Berechtigungen in KI-Systemen

Bei unzureichender Sicherung von Unternehmen kommt es auch zu Situationen, in denen KI-Systeme unbeabsichtigt personenbezogene Daten an Unbefugte weitergeben. Dies geschieht sowohl durch Mechanismen zur Aggregation und Zusammenfassung von Daten als auch durch gezielte Cyberangriffe unter Einsatz von prompt-bezogenen Missbrauchstechniken.

Situation, in der die Nutzung des KI-Tools ein solches Risiko hervorrufen kann:

BESCHREIBUNG DER NUTZUNG DES TOOLS: Ein Mitarbeiter der mittleren Führungsebene ersucht das interne KI-System, eine Präsentation mit Daten zu den Gehaltsspannen der Führungskräfte zu erstellen, oder er fragt nach historischen Gehaltsdaten, auf die er keinen Zugriff haben sollte.

RISIKO: Eine falsch konfigurierte KI, die in das HR-System integriert ist, kann vertrauliche Informationen an unbefugte Personen weitergeben, ohne die Berechtigungsstufen für den Zugriff zu berücksichtigen. Eine zusätzliche Gefahr besteht in Versuchen, die Sicherheitsvorkehrungen durch entsprechend formulierte Anfragen (Prompt Hacking) zu umgehen, beispielsweise indem man sich als berechtigte Person ausgibt. Eine weitere Komplikation kann in diesem Fall darin bestehen, dass Benutzer um die Bereitstellung von Datenaggregaten (Berichte, Analysen, Zusammenfassungen) ersuchen. Das Problem kann sich noch vervielfachen, wenn versucht wird, Angriffstechniken auf LLM-Modelle anzuwenden.

RISIKOPRÄVENTION: Es sollte eine präzise Klassifizierung von Dokumenten und Zugriffsebenen sowie Mechanismen zur Kontrolle der Berechtigungen auf KI-Ebene implementiert werden. Das System sollte auch gegen Techniken zur Erzwingung von Informationen durch Prompts resistent sein und die Nutzung von KI-Tools sollte nur durch renommierte Anbieter erfolgen.

Zehn grundlegende technische Risiken von KI-Systemen

Bei der Implementierung eines neuen Tools mit Künstlicher Intelligenz in die Strukturen einer Organisation sollten unbedingt die potentiellen Gefahren analysiert werden, die mit dessen Nutzung einhergehen können. Bei Hicron haben wir ein Team von Spezialisten zusammengestellt, das für die Arbeit an KI-Lösungen und ihre Integration in SAP zuständig ist. Die Mitglieder dieses Teams verfolgen jedoch einen breiteren Ansatz, der zur Ermittlung potentieller Risiken im Zusammenhang mit der Implementierung von KI-Tools gedacht ist. Während seines Vortrags stellte unser Experte eine vom vorgenannten Team erstellte Checkliste vor.

Sie zeigt die folgenden zehn wichtigen technischen Risiken auf, die bei der Entwicklung und Implementierung von KI-Lösungen in Unternehmen berücksichtigt werden müssen:

  1. Unbegrenzter Ressourcenverbrauch 
  2. Eingabeanweisung-Injektion (Prompt Injection) 
  3. Enthüllung vertraulicher Informationen 
  4. Unsachgemäße Verwaltung von Ausgangsdaten 
  5. Schwächen bei Vektoren und Einbettungen 
  6. Fehlerhafte Informationen 
  7. Lecks von System-Prompts 
  8. Übermäßige Wirksamkeit 
  9. Verfälschung des Datenmodells 
  10. Kontrolle der Lieferkette 

AI Governance Framework als Fundament der Sicherheit

Angesichts der vielen ernsthaften Risiken, die sich aus dem unbedachten Einsatz von KI-Tools ergeben, erwägen Unternehmen in zunehmendem Maße Möglichkeiten, sich dagegen zu schützen. Daher entscheiden sich immer mehr von ihnen für die Einführung eines AI-Governance-Frameworks. Dieses bildet die Grundlage für ein effektives Sicherheitsmanagement von Systemen der Künstlichen Intelligenz. Es besteht aus formellen Dokumenten, in denen die Art und Weise der Implementierung von KI-Tools klar festgelegt ist.

Dieses Framework umfasst die folgenden Schlüsselbereiche: 

Daten-Governance 

Dabei geht es um die präzise Klassifizierung von Daten, die Implementierung von Zugriffskontrollmechanismen und die Überwachung des Datenflusses durch KI-Systeme. Es weist auch auf die Notwendigkeit hin, Richtlinien anzuwenden, die eindeutig festlegen, welche Daten von KI-Tools genutzt werden dürfen.

Risikomanagement 

Dieser Ansatz sieht regelmäßige Sicherheitsaudits, Penetrationstests und die Entwicklung von Verfahren zur Reaktion auf Vorfälle im Umfeld der KI vor. In diesem Zusammenhang wird auch die Implementierung von Mechanismen zur automatischen Abschaltung von Systemen bei Erkennung von Anomalien empfohlen.

Rechtliche Aspekte 

Dieser Teil der Strategie befasst sich mit den rechtlichen Rahmenbedingungen für die Implementierung von KI, wie beispielsweise den Anforderungen der DSGVO, der Transparenz von Algorithmen und der besonderen Berücksichtigung von Fragen des geistigen Eigentums im Zusammenhang mit generativen Modellen.

Integration & Akzeptanz 

Dieser Aspekt setzt die sichere Integration von KI in bestehende Systeme und systematische Schulungen der Nutzer voraus, die als entscheidende Schritte für eine wirksame Sicherheitsstrategie angesehen werden.

Bei der Ausarbeitung von KI-Governance-Richtlinien handelt es sich um keinen einfachen Prozess, aber es ist zu beachten, dass Technologieanbieter in diesem Bereich oft umfassende Unterstützung bieten. Auch SAP bietet eine solche Unterstützung an. Auf der Webseite des Herstellers zu SAP Lean IX finden Sie den AI Governance Hub. Dort finden Sie Informationen und Empfehlungen zur Erstellung von KI-Governance-Sicherheitsvorkehrungen in Ihrem Unternehmen sowie eine Sammlung von Links zu externen Materialien, in denen dieses Konzept ausführlich beschrieben und vorgestellt wird.
Szymon Wlochowicz
Szymon Wlochowicz
COO Hicron

Die Rolle von Enterprise-Architektur-Tools für die Sicherheit von KI

Die Präsentation von Szymon Włochowicz zeigte detailliert auf, wie Enterprise-Architektur-Lösungen wie SAP LeanIX das Fundament einer effektiven Sicherheitsstrategie für KI-Implementierungen bilden können. Dieses Tool bietet nicht nur die Möglichkeit einer zentralen Inventarisierung aller Komponenten der IT-Umgebung, sondern ermöglicht auch eine dynamische Verwaltung der Systemarchitektur auf Organisationsebene.

Umfassende Inventarisierung der KI-Tools

SAP LeanIX ermöglicht eine präzise Katalogisierung von KI-Tools und ‑Modellen, und zwar sowohl von proprietären als auch von externen. Dadurch erhält das Unternehmen eine vollständige, aktuelle Übersicht über die im Unternehmen eingesetzten KI-Lösungen, was in der Praxis das Risiko von Shadow AI und nicht autorisierten Implementierungen verringert.

Erweiterte Abbildung der Abhängigkeiten zwischen KI und Organisationssystemen

Das System ermöglicht die Visualisierung der Verbindungen zwischen KI-Tools und der bestehenden Infrastruktur und Prozessen. Dadurch lassen sich potentielle Schwachstellen schnell aufdecken – beispielsweise kritische Schnittstellen für den Datenaustausch oder unzureichend gesicherte Integrationen. SAP LeanIX bietet auch die Möglichkeit, KI-Ressourcen bestimmten Eigentümern zuzuordnen, was die Verantwortlichkeit für ihre Sicherheit stärkt.

Überwachung und Kontrolle des Zugriffs von KI auf Unternehmensdaten

SAP LeanIX unterstützt die kontinuierliche Überwachung des Datenflusses durch die Erfassung und Analyse von Zugriffen auf und Berechtigungen für KI-Tools. Dieser Ansatz führt zu einer Verringerung des Risikos eines unbefugten Zugriffs auf kritische Daten.

Planung der Transformation und Weiterentwicklung von KI

Mit Hilfe von SAP LeanIX ist es nicht nur möglich, die aktuelle Architektur zu dokumentieren, sondern auch die Entwicklung der KI in Bezug auf Sicherheitsaspekte zu konzipieren. Die Plattform ermöglicht es, Implementierungszeitpläne zu erstellen, die Vollständigkeit der Schutzmechanismen zu überprüfen und die Auswirkungen architektonischer Änderungen auf die gesamte Organisation zu simulieren.

Unterstützung für Compliance- und Auditprozesse

SAP LeanIX liefert zentrale Berichte für Audit- und Compliance-Zwecke, beispielsweise im Hinblick auf die DSGVO (GDPR). Das Tool ermöglicht es, Datenverarbeitungswege nachzuverfolgen und Kontrollmaßnahmen zu dokumentieren, was die Transparenz erheblich erhöht und die Vorbereitung auf obligatorische Sicherheitsaudits deutlich erleichtert.

SAP LeanIX leistet einen unschätzbaren Beitrag zum Aufbau einer sicheren, transparenten und regelkonformen KI-Umgebung in Unternehmen mit hohem technologischen Reifegrad.

Implementierung von sicherer KI mit Hicron

Die sichere Implementierung von Künstlicher Intelligenz erfordert nicht nur technologisches Know-how, sondern vor allem einen strategischen Ansatz und tiefgreifendes Fachwissen. Bei Hicron verfügen wir über das bereits erwähnte dedizierte Team von KI-Spezialisten, das tagtäglich alle in diesem Artikel aufgeführten Praktiken anwendet und unseren Kunden so ein Höchstmaß an Sicherheit garantiert. Dieses Team arbeitet bereits aktiv mit SAP-KI-Tools bei unseren Kunden und setzt anspruchsvolle Implementierungsprojekte um. Ein Beispiel für unsere Kompetenzen ist das umfassende Testen des Tools SAP Joule, bei dem wir dessen Sicherheit in allen Anwendungsbereichen der SAP-SuccessFactors-Module genauestens überprüft haben. Mit diesem Ansatz erweist sich Hicron als vertrauenswürdiger Partner, der nicht nur innovative Lösungen liefert, sondern auch deren sichere, kontrollierte und den höchsten Unternehmensstandards entsprechende Implementierung durchführt.

Wenn Sie beabsichtigen, KI-Technologien in Ihrer SAP-Umgebung aufzubauen und nach einer Strategie suchen, mit der die vollständige Sicherheit Ihrer Infrastruktur gewährleistet wird, sollten Sie das Wissen und die Erfahrung der Experten von Hicron nutzen. Kontaktieren Sie einfach unser Team, um gemeinsam die Entwicklung von KI auf sichere, gesetzeskonforme und auf die individuellen Anforderungen Ihres Unternehmens zugeschnittene Art und Weise zu planen und umzusetzen!

Diese Seite verwendet Cookies. Durch die weitere Nutzung dieser Website stimmen Sie unserer Datenschutzerklärung zu.

Ok, ich stimme zu