
AI-Vorschriften und LLM-Vorschriften: Vergangenheit, Gegenwart und Zukunft
- 9 minutes to read
Inhaltsverzeichnis
Was sind KI-Vorschriften?
KI-Vorschriften umfassen Richtlinien und Regeln, die die Entwicklung, Anwendung und Auswirkungen von Technologien der künstlichen Intelligenz (KI) regeln. Diese Vorschriften sind unerlässlich, um sicherzustellen, dass KI verantwortungsvoll und ethisch eingesetzt wird und keine Gefahr für die Gesellschaft darstellt. Sie decken eine Reihe von Themen ab, von Datenschutz und -sicherheit über ethische Überlegungen bis hin zu Fragen der nationalen Sicherheit.
KI ist ein sich rasant entwickelndes Feld, und ihre breite Verbreitung wirft eine Vielzahl komplexer rechtlicher, ethischer und gesellschaftlicher Fragen auf. Dazu gehören Datenschutzbedenken, potenzielle Arbeitsplatzverluste durch Automatisierung, das Risiko KI-gestützter Cyberangriffe und sogar existenzielle Risiken für die Menschheit. Bei der Regulierung von KI geht es daher nicht nur um die Kontrolle der Technologie selbst, sondern auch um die Bewältigung ihrer Auswirkungen auf Gesellschaft und Einzelne.
Ohne entsprechende Regulierung besteht die Gefahr, dass KI missbraucht wird und negative Folgen hat. So könnte KI beispielsweise zur Verbreitung von Desinformation oder Propaganda eingesetzt werden, was zu gesellschaftlichen Unruhen führen könnte. Sie könnte auch für Cyberangriffe oder zur Verletzung der Privatsphäre eingesetzt werden. Im schlimmsten Fall könnte unkontrollierte KI sogar eine existenzielle Gefahr für die Menschheit darstellen.
Dieser Inhalt ist Teil einer Serie überKI-Technologie.
Sollte KI reguliert werden?
Die Frage, ob KI reguliert werden sollte, ist umstritten. Einerseits argumentieren einige, Regulierung sei notwendig, um Missbrauch der Technologie zu verhindern und sicherzustellen, dass sie ethisch vertretbar entwickelt und genutzt wird. Andere wiederum befürchten, dass zu viel Regulierung Innovationen ersticken und das Wachstum der KI-Branche behindern könnte.
Es besteht ein wachsender Konsens, der von führenden Technologieunternehmen wie OpenAI, Google und Microsoft unterstützt wird, dass Regulierung notwendig ist. Diese sollte jedoch sorgfältig gestaltet werden, um die Weiterentwicklung von KI-Technologien zu ermöglichen und die Dynamik und Unvorhersehbarkeit des Bereichs zu berücksichtigen.
Regulierung kann einen Rahmen für den verantwortungsvollen Einsatz von KI schaffen und sicherstellen, dass diese ethisch und fair eingesetzt wird und der Gesellschaft nicht schadet. Sie kann auch Schutz vor potenziellem Missbrauch der Technologie bieten. Es ist jedoch wichtig, dass die Regulierung nicht zu restriktiv wird, da dies den gesellschaftlichen und wirtschaftlichen Wert von KI-Innovationen beeinträchtigen könnte.
Tipps vom Experten

Steve Moore ist Vice President und Chief Security Strategist bei Exabeam. Er entwickelt Lösungen zur Bedrohungserkennung und berät Kunden zu Sicherheitsprogrammen und der Reaktion auf Sicherheitsverletzungen. Er ist Moderator des „The New CISO Podcast“, Mitglied des Forbes Tech Council und Mitbegründer von TEN18 bei Exabeam.
Meiner Erfahrung nach gibt es hier Tipps zur Verbesserung der Compliance und zur Optimierung von Ansätzen im Hinblick auf KI-Vorschriften:
Entwickeln Sie eine klare Erklärungsrichtlinie für alle KI-Systeme
Stellen Sie sicher, dass Ihr Unternehmen über interne Protokolle verfügt, um die Entscheidungsfindung von KI-Modellen zu dokumentieren. Nutzen Sie Frameworks wie Explainable AI (XAI), um Stakeholdern und Aufsichtsbehörden klare und verständliche Ergebnisse zu liefern.
Führen Sie präventive Compliance-Audits durch
Bewerten Sie KI-Systeme regelmäßig anhand neuer globaler Vorschriften, auch wenn diese in Ihrem Land noch nicht durchsetzbar sind. So vermeiden Sie kostspielige Anpassungen, wenn die Einhaltung verpflichtend wird.
Einführung von KI-Ethics-by-Design-Frameworks
Integrieren Sie ethische Grundsätze in jede Phase der KI-Entwicklung, vom Konzept bis zur Bereitstellung. Dazu gehören Fairness, Rechenschaftspflicht und Datenschutz. So stellen Sie sicher, dass die Systeme den regulatorischen Erwartungen entsprechen.
Richten Sie ein multidisziplinäres KI-Governance-Team ein
Bilden Sie Teams aus Rechtsexperten, Ethikern, Ingenieuren und fachspezifischen Fachleuten, um die Einhaltung der Vorschriften sicherzustellen und gleichzeitig betriebliche und ethische Standards einzuhalten.
Investieren Sie in eine kontinuierliche Überwachung auf Voreingenommenheit und Diskriminierung
Implementieren Sie Tools, die Verzerrungen in Echtzeit erkennen und messen. Dies ist besonders wichtig für LLMs und risikoreiche KI-Anwendungen, um Fairness zu gewährleisten und den sich entwickelnden regulatorischen Transparenzanforderungen gerecht zu werden.
Wichtige Parameter, die die Regulierung und ihre Ergebnisse beeinflussen
Transparenz, Fairness und Erklärbarkeit
Die Grundsätze der Transparenz, Fairness und Erklärbarkeit sind von grundlegender Bedeutung, um sicherzustellen, dass KI verantwortungsvoll und ethisch eingesetzt wird:
- Transparenz bezieht sich auf die Fähigkeit, zu verstehen, wie ein KI-System Entscheidungen trifft. Dies ist wichtig, da es den Nutzern ermöglicht, zu verstehen, warum ein System bestimmte Entscheidungen trifft, und es kann dazu beitragen, Vertrauen in die Technologie aufzubauen.
- Fairness bedeutet, sicherzustellen, dass KI-Systeme bestimmte Gruppen oder Einzelpersonen nicht diskriminieren. Dies ist entscheidend, um den Missbrauch von KI für böswillige Zwecke zu verhindern und sicherzustellen, dass die Vorteile der KI der gesamten Gesellschaft gleichermaßen zugutekommen.
- Erklärbarkeit bezieht sich auf die Fähigkeit, die Funktionsweise eines KI-Systems zu erklären. Dies ist wichtig, um Vertrauen in die Technologie aufzubauen und sicherzustellen, dass die Nutzer verstehen, wie Entscheidungen getroffen werden.
Risikobasierter Ansatz
Ein risikobasierter Ansatz zur KI-Regulierung umfasst die Bewertung der potenziellen Risiken von KI-Technologien und die Entwicklung von Regelungen zur Risikominimierung. Dieser Ansatz ermöglicht einen differenzierten und flexiblen Regulierungsrahmen, der sich an die rasante Entwicklung der KI-Technologie anpassen kann.
Der risikobasierte Ansatz umfasst:
- Identifizierung potenzieller Risiken
- Bewertung ihrer Wahrscheinlichkeit und potenziellen Auswirkungen
- Identifizieren, wie sich Risiken bei verschiedenen Arten von KI-Technologien manifestieren können
- Entwicklung von Strategien zur Bewältigung dieser Risiken in bestimmten Kontexten
Umgang mit Sicherheitsrisiken und böswilligen Akteuren
Während sich der risikobasierte Ansatz allgemeiner auf alle Risiken konzentriert, die sich aus der KI-Technologie ergeben, betont der Sicherheitsaspekt der KI-Regulierung insbesondere den potenziellen Missbrauch der KI-Technologie und ihre potenzielle Verwendung bei Cyberangriffen.
Zur Minderung von Sicherheitsrisiken gehören Maßnahmen wie die Verbesserung der Sicherheit von KI-Systemen, die Umsetzung ethischer Richtlinien und die Einrichtung von Mechanismen zur Rechenschaftspflicht und Wiedergutmachung.
Um gegen böswillige Akteure vorzugehen, ist eine Zusammenarbeit mit dem privaten Sektor, Cybersicherheitsforschern und Strafverfolgungsbehörden erforderlich, um sicherzustellen, dass sowohl der private als auch der öffentliche Sektor über die Mittel verfügen, Cyberkriminalität mithilfe von KI-Technologie zu bekämpfen.
Institutioneller Ansatz
Ein institutioneller Ansatz zur KI-Regulierung beinhaltet die Einrichtung spezieller Institutionen oder Gremien, die die Entwicklung und Nutzung von KI überwachen. Diese Institutionen wären für die Durchsetzung der Vorschriften, die Überwachung ihrer Einhaltung und die Behandlung auftretender Probleme und Bedenken verantwortlich.
Ein institutioneller Ansatz kann einen robusteren und wirksameren Regulierungsrahmen schaffen, da er eine koordiniertere und umfassendere Aufsicht über KI ermöglicht. Er kann zudem eine Plattform für Dialog und Zusammenarbeit zwischen verschiedenen Interessengruppen wie Regierung, Industrie, Wissenschaft und Zivilgesellschaft bieten.
Internationale Harmonisierung
Unter internationaler Harmonisierung versteht man die Angleichung von KI-Vorschriften in verschiedenen Ländern oder Regionen. Dies kann dazu beitragen, gleiche Wettbewerbsbedingungen für die Entwicklung und Nutzung von KI zu gewährleisten und regulatorische Arbitrage zu verhindern, bei der Unternehmen in Länder mit weniger strengen Vorschriften abwandern.
Internationale Harmonisierung kann auch die Zusammenarbeit zwischen Ländern fördern und dazu beitragen, dass Nutzen und Risiken von KI global gehandhabt werden. Aufgrund unterschiedlicher Rechtssysteme, kultureller Normen und politischer Systeme kann die internationale Harmonisierung jedoch eine Herausforderung darstellen.
Die Notwendigkeit einer internationalen Harmonisierung wird immer dringlicher, da KI-Technologien zunehmend globaler werden. Da KI-Systeme grenzüberschreitend entwickelt und eingesetzt werden, bedarf es eines koordinierten globalen Ansatzes zur Bewältigung der Risiken und Vorteile dieser Technologie.
Geschichte der KI-Vorschriften und -Gesetze weltweit
Vereinigte Staaten von Amerika
In den USA gibt es derzeit keine umfassende Bundesgesetzgebung zur Regulierung des KI-Einsatzes. Im Oktober 2022 veröffentlichte die Biden-Regierung einen Vorschlag für eine KI-Bill of Rights, der Bestimmungen zu Datenschutz, Hinweisen und Erläuterungen, Schutz vor algorithmischer Diskriminierung, Sicherheit und Wirksamkeit sowie menschlichen Alternativen und Ausweichmöglichkeiten enthält. Im Juni 2023 brachten US-Gesetzgeber den National AI Commission Act ein, um eine Bundeskommission zu schaffen, die den Ansatz der USA zur KI-Regulierung überprüfen soll.
Im Oktober 2023 verkündete das Weiße Haus die Executive Order zur künstlichen Intelligenz (KI), auch bekannt als EO 14110. Sie bietet einen Rahmen für die Entwicklung, den Einsatz und die Steuerung von Technologien der künstlichen Intelligenz (KI) in Bundesbehörden und im ganzen Land. Ziel ist es, KI-Innovationen zu fördern und gleichzeitig sicherzustellen, dass die KI-Entwicklung ethisch und sicher ist und die Privatsphäre und Bürgerrechte respektiert.
Vereinigtes Königreich
Großbritannien hat proaktive Schritte unternommen, um ein regulatorisches Umfeld zu schaffen, das die ethische Entwicklung von KI-Technologien unterstützt. Die britische KI-Strategie konzentriert sich darauf, die Stärken des Landes in den Bereichen Governance, Ethik und Innovation zu nutzen. Eine wichtige Entwicklung ist die Gründung des Centre for Data Ethics and Innovation (CDEI), das die Regierung in Fragen der KI und Daten-Governance berät.
Das CDEI arbeitet an der Entwicklung von Rahmenbedingungen und Richtlinien, um einen verantwortungsvollen Einsatz von KI-Technologien zu gewährleisten. Darüber hinaus betont Großbritannien die Bedeutung von Innovationen im öffentlichen Sektor, ethischen Standards und dem Aufbau qualifizierter Arbeitskräfte, um seine Führungsrolle im KI-Bereich zu behaupten.
EU
Die Europäische Union ist Vorreiter bei der Schaffung umfassender Regelungen für künstliche Intelligenz. Der vorgeschlagene KI-Gesetzentwurf unterstreicht ihr Engagement für eine sichere und ethische KI-Entwicklung. Diese bahnbrechende Verordnung zielt darauf ab, einen ausgewogenen Rahmen zu schaffen, der Innovationen fördert und gleichzeitig die Rechte der Bürger schützt. Sie kategorisiert KI-Systeme nach ihrem Risiko und legt strengere Anforderungen für risikoreiche Anwendungen in Bereichen wie Beschäftigung, Bildung und Strafverfolgung fest.
Der Fokus des KI-Gesetzes auf Transparenz, Rechenschaftspflicht und Datenverwaltung setzt einen Präzedenzfall für Regulierungsansätze weltweit. Darüber hinaus unterstreicht die Einrichtung eines Europäischen Ausschusses für Künstliche Intelligenz das Engagement der EU, die KI-Vorschriften in allen Mitgliedstaaten zu harmonisieren und so einen einheitlichen und effektiven Ansatz für die KI-Verwaltung zu gewährleisten.
Japan
Japans KI-Strategie legt den Schwerpunkt auf die Integration von KI-Technologien in Gesellschaft und Wirtschaft, fördert Innovationen und berücksichtigt gleichzeitig ethische und sicherheitsrelevante Aspekte. Die Regierung hat Initiativen zur Förderung von KI-Forschung und -Entwicklung gestartet, um Japans Wettbewerbsfähigkeit auf dem globalen KI-Markt zu stärken.
Japan konzentriert sich auf die Schaffung eines Umfelds, das die Zusammenarbeit zwischen Industrie, Wissenschaft und Regierung fördert, um KI-Anwendungen in verschiedenen Sektoren, darunter Gesundheitswesen, Fertigung und Transport, voranzutreiben. Darüber hinaus arbeitet Japan an der Festlegung von Richtlinien für die KI-Ethik, wobei Transparenz, Nutzerdatenschutz und Sicherheit im Mittelpunkt stehen, um einen verantwortungsvollen Einsatz von KI-Technologien zu gewährleisten.
Australien
Australiens Ansatz zur KI-Regulierung zielt darauf ab, ein innovationsförderndes Umfeld zu schaffen und gleichzeitig eine ethische und verantwortungsvolle Entwicklung sicherzustellen. Die australische Regierung hat eine nationale KI-Strategie vorgestellt, die ihre Vision für Australien als führendes Land bei der Entwicklung und Anwendung verantwortungsvoller KI skizziert. Diese Strategie umfasst Investitionen in KI-Forschung und -Entwicklung, die Schaffung ethischer Rahmenbedingungen für den KI-Einsatz und die Förderung der internationalen Zusammenarbeit.
Australien konzentriert sich außerdem darauf, das Vertrauen der Öffentlichkeit in KI-Technologien zu stärken, indem es Transparenz, Verantwortlichkeit und Inklusivität bei KI-Anwendungen betont und sicherstellt, dass diese einen positiven Beitrag zur Gesellschaft und zur Wirtschaft leisten.
Kanada
Kanada ist für seine bedeutenden Beiträge zur KI-Forschung bekannt und arbeitet aktiv an Rahmenbedingungen für die ethische Entwicklung und den Einsatz von KI-Technologien. Die kanadische Regierung hat Strategien eingeführt, die Kanada als weltweit führendes Ziel für KI-Innovationen positionieren sollen.
Diese Strategien legen den Schwerpunkt auf eine ethische KI-Entwicklung, die Unterstützung hochwertiger Forschung und die Förderung des Wirtschaftswachstums durch KI-Technologien. Kanadas Ansatz umfasst Initiativen zur Förderung qualifizierter KI-Arbeitskräfte und zur Etablierung kooperativer Partnerschaften zwischen Regierung, Wissenschaft und Industrie, um KI für soziale und wirtschaftliche Vorteile zu nutzen.
Brasilien
Brasilien unternimmt Schritte, um KI in seine wirtschaftliche und soziale Entwicklung zu integrieren, und erkennt das Potenzial von KI-Technologien zur Förderung von Innovationen an. Die brasilianische Regierung hat Diskussionen über KI-politische Rahmenbedingungen angestoßen, wobei ethische Richtlinien, Innovationsförderung und die Entwicklung von KI-Kompetenzen in der Belegschaft im Mittelpunkt stehen.
Brasilien will KI nutzen, um nationale Herausforderungen wie Gesundheit, Bildung und ökologische Nachhaltigkeit zu bewältigen. Das Land strebt zudem internationale Zusammenarbeit an, um sicherzustellen, dass es bei der Entwicklung und Nutzung von KI-Technologien den globalen Standards und Praktiken entspricht.
China
China hat die kühne Vision formuliert, bis 2030 weltweit führend im Bereich KI zu werden, und untermauert dieses Ziel mit erheblichen Investitionen in KI-Forschung und -Entwicklung. Der Ansatz der chinesischen Regierung zur KI-Regulierung setzt auf staatlich gesteuerte Koordination mit dem Ziel, das Potenzial der KI zu nutzen, um Wirtschaftswachstum und technologische Innovationen voranzutreiben und gleichzeitig die soziale Stabilität zu wahren.
Chinas KI-Strategie umfasst die Entwicklung neuer KI-Technologien, -Anwendungen und -Branchen und wird durch politische Maßnahmen unterstützt, die die Zusammenarbeit zwischen Regierung, Industrie und Wissenschaft fördern. Darüber hinaus legt China seinen Schwerpunkt auf die Schaffung ethischer Standards für KI, um Fragen des Datenschutzes, der Sicherheit und der Fairness zu berücksichtigen.
Welche Vorschriften entstehen zur Überwachung großer Sprachmodelle (LLMs)?
LLMs wie ChatGPT von OpenAI, Google Gemini und Meta LLaMA haben sich im Mainstream etabliert und ihre Fähigkeiten entwickeln sich rasant weiter. KI-Experten, Regierungen und sogar einige der Organisationen, die diese Modelle entwickeln, äußern Bedenken hinsichtlich der potenziellen Risiken für die Gesellschaft. Angesichts dieser Bedenken werden derzeit spezifische Regelungen für den weltweiten Einsatz von LLMs entwickelt.
US-amerikanischer Algorithmic Accountability Act (AAA)
Der in den USA eingeführte Algorithmic Accountability Act soll Verbrauchern mehr Transparenz und Kontrolle über die automatisierten Entscheidungssysteme geben, die ihr Leben beeinflussen. Sollte er verabschiedet werden, müssten Unternehmen Folgenabschätzungen ihrer KI-Systeme, einschließlich LL.M., durchführen, um:
- Voreingenommenheit und Diskriminierung: Sicherstellen, dass Systeme keine unfaire Voreingenommenheit oder Diskriminierung aufrechterhalten.
- Datenschutz: Untersuchen, wie personenbezogene Daten verwendet und geschützt werden.
- Algorithmische Rechenschaftspflicht: Unternehmen müssten offenlegen, wie ihre LLMs Entscheidungen treffen, welche Daten sie verwenden und welche potenziellen Auswirkungen dies auf die Verbraucher hat.
US-Gesetz zur Nationalen Initiative für künstliche Intelligenz
Der National Artificial Intelligence Initiative Act ist ein umfassendes nationales Programm in den USA zur Beschleunigung der KI-Forschung und -Anwendung, einschließlich LL.M. Dieses Gesetz konzentriert sich auf:
- Unterstützung der KI-Forschung: Förderung der Entwicklung von KI, einschließlich LLMs, durch Zuschüsse und Initiativen.
- Ethische Standards und Richtlinien: Das Gesetz fördert die Schaffung ethischer Standards und Richtlinien für KI und hat möglicherweise Einfluss auf die Ausbildung und den Einsatz von LLMs.
- Internationale Zusammenarbeit: Ziel ist es, Richtlinien für die internationale Zusammenarbeit in der KI-Forschung festzulegen, die die Entwicklung und Verwaltung von LLMs weltweit beeinflussen könnten.
KI-Gesetz der Europäischen Union
Der EU-KI-Act ist ein Verordnungsvorschlag, der einen der ersten großen Rechtsrahmen speziell für KI-Systeme darstellt. Ziel ist es, sicherzustellen, dass KI-Systeme sicher sind, die EU-Gesetze zum Schutz der Privatsphäre und des Datenschutzes einhalten und so implementiert werden, dass Diskriminierung verhindert wird.
Hier sind die möglichen Auswirkungen des EU-KI-Gesetzes auf LLM-Systeme:
- Risikobewertung: LLMs können anhand des Risikos kategorisiert werden, das sie für Rechte und Sicherheit darstellen. Hochrisikoanwendungen, beispielsweise solche, die kritische Infrastrukturen, Arbeitsplätze oder personenbezogene Daten betreffen, werden einer strengeren Prüfung unterzogen.
- Transparenzanforderungen: Für LLMs kann es Vorschriften geben, offenzulegen, wenn Personen mit einer KI und nicht mit einem Menschen interagieren, um Transparenz in der Kommunikation zu gewährleisten.
- Qualität und Datenverwaltung: Das Gesetz könnte eine strenge Datenverwaltung erzwingen, um Verzerrungen in der KI-Ausgabe zu verhindern, was insbesondere für LLMs, die mit riesigen Datensätzen trainiert wurden, von entscheidender Bedeutung ist.
Leitlinien der Europäischen Kommission für vertrauenswürdige KI
Im Jahr 2019 veröffentlichte die hochrangige Expertengruppe für künstliche Intelligenz der Europäischen Kommission ein Dokument mit dem Titel „Ethische Leitlinien für vertrauenswürdige KI“, das einen Rahmen für die Erreichung vertrauenswürdiger KI schafft. In diesem Rahmen werden LLMs ausdrücklich erwähnt und folgende Punkte hervorgehoben:
- Menschliche Handlungsfähigkeit und Aufsicht: KI sollte die menschliche Autonomie und Entscheidungsfindung unterstützen, wie in den Richtlinien vorgeschrieben.
- Robustheit und Sicherheit: LLMs müssen sicher und zuverlässig sein und ohne unbeabsichtigte Schäden funktionieren.
- Datenschutz und Datenverwaltung: Die Richtlinien konzentrieren sich stark auf den Schutz personenbezogener Daten, ein kritischer Aspekt angesichts der datenintensiven Natur von LLMs.
- Transparenz: Die Richtlinien betonen die Bedeutung der Erklärbarkeit, d. h., LLMs sollten sowohl für Experten als auch für Laien verständlich sein.
Lesen Sie unsere ausführliche Erklärung zur LLM-Sicherheit.
Exabeam Fusion: Das führende KI-gestützte SIEM
Exabeam bietet ein KI-gestütztes Erlebnis über den gesamten TDIR-Workflow. Eine Kombination aus Mustervergleichsregeln und ML-basierten Verhaltensmodellen erkennt automatisch potenzielle Sicherheitsbedrohungen wie Anmeldeinformationsangriffe, Insider-Bedrohungen und Ransomware-Aktivitäten, indem sie risikoreiche Benutzer- und Entitätsaktivitäten identifiziert. Die branchenführende Benutzer- und Entitätsverhaltensanalyse (UEBA) ermittelt die normale Aktivität aller Benutzer und Entitäten und stellt alle wichtigen Ereignisse chronologisch dar.
Smart Timelines heben das mit jedem Ereignis verbundene Risiko hervor und ersparen Analysten das Schreiben von Hunderten von Abfragen. Maschinelles Lernen automatisiert den Warnmeldungs-Triage-Workflow und fügt UEBA-Kontext hinzu, um Warnmeldungen, die die größte Aufmerksamkeit erfordern, dynamisch zu identifizieren, zu priorisieren und zu eskalieren.
Die Exabeam Plattform kann wiederkehrende Workflows für über 100 Drittanbieterprodukte mit Aktionen und Vorgängen orchestrieren und automatisieren – von halb- bis vollautomatischen Aktivitäten. Der Exabeam Outcomes Navigator ordnet die Quellen der Feeds, die in Exabeam-Produkte eingehen, den gängigsten Sicherheitsanwendungsfällen zu und schlägt Möglichkeiten zur Verbesserung der Abdeckung vor.
Entdecken Sie die KI-gestützten Sicherheitslösungen von Exabeam.
Weitere Erklärungen zur KI-Cybersicherheit
Erfahren Sie mehr über Exabeam
Informieren Sie sich über die Exabeam-Plattform und erweitern Sie Ihr Wissen zur Informationssicherheit mit unserer Sammlung von Whitepapers, Podcasts, Webinaren und mehr.
-
Der Blog
Ihre SIEM-Regeln können nicht mithalten. Es ist Zeit für eine verhaltensbasierte Verteidigung.
-
Webinar
Vom Menschen zum Hybrid: Wie KI und die Analyselücke das Insiderrisiko erhöhen