Check Point Software Technologies Ltd. (NASDAQ: CHKP), ein Anbieter von Cyber-Sicherheitslösungen, hat auf seiner Engage-Veranstaltung in Bern seinen ersten AI Security Report veröffentlicht.
Der Bericht, der von Check Point Research (CPR) entwickelt wurde, bietet eine der bisher umfassendsten Analysen darüber, wie Cyberkriminelle künstliche Intelligenz ausnutzen. Er zeigt einen dramatischen Anstieg von KI-gesteuerten Angriffen wie Deepfakes, Data Poisoning, kriminelle KI-as-a-Service und das Aufkommen von «Dark LLMs».
Der von Lotem Finkelstein, Director of Threat Intelligence & Research bei Check Point, vorgestellte Bericht unterstreicht eine dringende Realität: KI ist nicht mehr nur ein Werkzeug für Innovationen, sondern auch eine Waffe für Angreifer. Von gehackten generativen KI-Konten, die im Darknet gehandelt werden, bis hin zu Desinformationskampagnen, die KI-Systeme vergiften, zeigen die Ergebnisse, wie Bedrohungsakteure die traditionellen Sicherheitsmassnahmen übertreffen.
Cyberattacken steigen in der Schweiz um 113 %
Die Veranstaltung findet zu einem Zeitpunkt statt, an dem der Global Cyber Attack Report von Check Point einen Anstieg der Cyberangriffe in der Schweiz um 113% im ersten Quartal 2025 zeigt – mehr als doppelt so viel wie der weltweite Durchschnitt. Im Durchschnitt waren Schweizer Unternehmen in den letzten sechs Monaten mit 1’256 Angriffen pro Woche konfrontiert, was ein deutliches Zeichen für die sich verändernde Cyber-Bedrohungslandschaft ist.
Mehr als 150 Cybersecurity-Experten, Partner und Vordenker trafen sich in Bern zur lokalen Engage-Konferenz, um die neuesten Trends, Strategien und Innovationen der Branche zu diskutieren. Roi Karo, der neue Head of Strategy von Check Point, stellte den „Open Garden Approach“ des Unternehmens vor, der eine hybride Mesh-Architektur und die SASE-Technologie nutzt, um die Sicherheit über Cloud-, On-Premise- und Remote-Umgebungen hinweg zu vereinheitlichen – und damit das Rückgrat der Infinity Platform von Check Point bildet.
Erkenntnisse aus dem AI Security Report 2025
KI als zweischneidiges Schwert in der Wirtschaft: 51 % der Unternehmen nutzen inzwischen monatlich KI-Tools – aber 1 von 80 Prompts in Unternehmensnetzwerken enthält hochsensible Daten und 7,5 % der KI-Interaktionen beinhalten potenziell sensible Inhalte, was zu Compliance- und Datenleck-Risiken führt.
Cyberkriminalität wird mit „AI-as-a-Service“ intelligenter: Im Dark Web integrieren Dienste für Phishing, wie GoMailPro mit ChatGPT, kosten 500 USD/Monat und KI-Tools für Sprachbetrug kosten bis zu 20’000 USD, während Deepfake-Imitationen in Echtzeit verfügbar sind und interaktiv werden.
Markt für gestohlene KI-Zugänge boomt: Zugangsdaten für KI-Tools wie ChatGPT werden zunehmend über Phishing und Infostealer gestohlen, um Malware zu generieren oder Inhaltsbeschränkungen zu umgehen.
Desinformation und KI-Poisoning: Eine russische Kampagne erstellte im Jahr 2024 3,6 Millionen Desinformationsartikel, um Chatbot-Ausgaben zu manipulieren. Diese vergifteten Artikel tauchten in 33 % der KI-Chatbot-Antworten auf, was systemische Schwachstellen in LLMs offenbart.
Autonome Erstellung von Malware: Bedrohungsgruppen wie FunkSec nutzen KI für 20 % ihrer Operationen, einschliesslich der Erstellung von DDoS-Skripten und der Analyse gestohlener Daten und KI-gestützte Tools filtern jetzt gestohlene Zugangsdaten für den Weiterverkauf und verbessern so die Zielgruppenansprache und Monetarisierung.
Aufstieg der Dark LLMs: Gehackte oder speziell geschulte Modelle wie HackerGPT, FraudGPT und GhostGPT wurden entwickelt, um ethische KI-Schutzmechanismen zu umgehen und diese Tools werden über Dark-Web-Marktplätze verkauft und bieten Abonnementmodelle, Benutzerhandbücher und umfassenden Support.
Auswirkungen
«Der Einsatz von KI in der Cyberkriminalität geht über die Theorie hinaus – er verändert die Angriffsstrategien auf allen Ebenen», so Lotem Finkelstein. «Sicherheitsteams müssen jetzt KI-gestützte Erkennung und mehrschichtige Identitätsüberprüfung integrieren, um sich gegen Deepfake-Täuschung und Modellmanipulation zu schützen. Informiert zu sein, ist der erste Schritt, um sicher zu bleiben.»
Während Länder wie die Türkei (68 %) und Österreich (66 %) bei der Nutzung von KI in Unternehmen führend sind, rangiert die Schweiz mit nur 39 % am unteren Ende der Skala – womit sowohl die Produktivität als auch die Auswirkungen von KI auf die Bedrohungslage unterschätzt werden könnten.
Der AI Security Report 2025 steht ab sofort zum Download bereit. Er bietet wichtige Anhaltspunkte für Sicherheitsverantwortliche, die mit einem sich schnell entwickelnden digitalen ‘Schlachtfeld’ konfrontiert sind.






















