GenAI zur Beschleunigung interner und externer Risiken für Unternehmen

Generative KI (GenAI) erhöht laut neuem Verizon-Bericht zu Datenschutzverletzungen 2025 das Risiko von Datenschutzverletzungen. Der Bericht, in dem über 20.000 reale Vorfälle analysiert wurden, ergab, dass nicht nur Bedrohungsakteure GenAI für ihre Angriffe nutzen, sondern auch Mitarbeitende GenAI ohne Absicherung verwenden.
Bei dem Bericht werden viele Themen aus dem Bereich Sicherheits behandelt. Allerdings sind die Erkenntnisse zu GenAI und deren Auswirkungen auf die Bedrohungslandschaft besonders aufschlussreich.
Die Technologie befindet sich noch in der Entwicklung, sodass die meisten Unternehmen nicht wissen, wie sie sich vor GenAI-gestützten Risiken schützen können. Jetzt liegen uns neue Daten vor, die Unternehmen dabei helfen sollen, die ihnen bevorstehenden Bedrohungen zu verstehen.
Die Verwendung von GenAI durch Mitarbeitende setzt Unternehmen Risiken aus
Laut einer kürzlich von Dashlane durchgeführten Umfrage sind 60 % der Mitarbeitenden zwar der Meinung, dass KI ein erhöhtes Sicherheitsrisiko darstellt, was sie jedoch nicht davon abhält, GenAI-Tools bei der Arbeit zu verwenden.
Der Bericht zu Datenschutzverletzungen ergab:
- 14 % der Mitarbeitenden greifen über ihre Unternehmensgeräte regelmäßig auf GenAI-Systeme zu.
- Von diesen 14 % geben fast drei Viertel (72 %) eine private E-Mail-Adresse für ihr Konto an und 17 % nutzten ihre dienstliche E-Mail-Adresse ohne integriertes Authentifizierungssystem wie SSO.
Schatten-IT ist natürlich nichts Neues. Wir wissen bereits, dass sich dadurch die Angriffsfläche eines Unternehmens vergrößert und dass SSO und MFA keinen Schutz dagegen bieten.
Diese von GenAI unterstützte Schatten-IT ist jedoch besonders besorgniserregend, weil „die häufigsten Einsatzbereiche von GenAI-Tools – wie Unterstützung bei Zusammenfassungen oder Codierungen – den Benutzer oft dazu veranlassen, vertrauliche Dokumente und Codegrundlagen hochzuladen, um ihre Ziele zu erreichen“, so der Bericht.
Und mit der Integration von GenAI in die Betriebssysteme einiger neuer mobiler Geräte besteht eine noch größere Gefahr, dass Mitarbeitende versehentlich sensible Daten preiszugeben. Kernfunktionen wie Sprachassistenten und Messaging-Apps nutzen GenAI.
Zusätzlich wird die Situation dadurch verschärft, dass einige dieser Funktionen standardmäßig aktiviert sind, sodass Benutzer oder ein zentrales Verwaltungssystem für mobile Geräte diese aktiv deaktivieren müssten. Für Unternehmen mit BYOD-Richtlinien ist dies besonders gefährlich.
GenAI verursacht auch mehr externe Risiken
All diese sensiblen Daten, die an GenAI-Tools übergeben werden, können jederzeit geleakt werden. Erst im letzten Januar wurde entdeckt, dass das beliebte GenAI-Tool DeepSeek den Chatverlauf und andere sensible Daten ungesichert weitergegeben hat.
Und auch wenn keine Daten durch GenAI-Tools geleakt wurden, nutzen Bedrohungsakteure diese Technologie für intelligentere und personalisiertere Cyberangriffe, die schwieriger zu erkennen sind. Da der Missbrauch von Anmeldedaten der häufigste (22 %) und Phishing der dritthäufigste Einstiegspunkt (16 %) ist, sehen wir uns diese Punkte genauer an.

Ein Bedrohungsakteur braucht nicht mehr als eine Minute und ein bisschen Prompting, um mithilfe von GenAI und Daten von Datenbrokern oder dem Dark-Web Tausende von realistischen, fehlerfreien Phishing-E-Mails für seine Zielgruppe zu erstellen. Diese Nachrichten sehen häufig so echt aus, dass selbst erfahrene Cybersicherheitsexperten - die es gewohnt sind, dass Phishing-E-Mails eher allgemein gehalten werden und gefälschte Hyperlinks sowie Tippfehler enthalten - sie nicht als falsch einordnen.
So werden Mitarbeitende dazu gebracht, Anmeldedaten und andere sensible Daten weiterzugeben, was die Sicherheitsteams erst erfahren, wenn es zu spät ist.
Tatsächlich hat sich der Prozentsatz der KI-gestützten bösartigen E-Mails dem Bericht zufolge von rund 5 Prozent im Jahr 2022 auf rund 10 Prozent im Jahr 2025 verdoppelt. Und viele Sicherheitsexperten erwarten, dass dieser Prozentsatz weiter ansteigen wird.
Auch staatlich geförderte Akteure greifen auf GenAI-Tools zurück, wobei sowohl OpenAI als auch Google davon berichten, dass staatlich geförderter Akteure versuchen, ihre GenAI-Tools zu missbrauchen. Die Versuche scheinen jedoch bisher nicht erfolgreich gewesen zu sein.
Lesen Sie den Untersuchungsbericht zu Datenschutzverletzungen 2025 von Verizon und erfahren Sie, wie sich die Sicherheitslandschaft weiterentwickelt.
Es ist dringend ein intelligenterer Ansatzes gefragt
GenAI bringt Unternehmen durch intelligentere Bedrohungen schneller in Gefahr. Sicherheitsverantwortliche in Unternehmen benötigen:
- Proaktive Risikointelligenz: Ständig aktive Intelligenz in Verbindung mit gezielten Maßnahmen, damit die größte Verletzungsbedrohung bekämpft wird: der menschliche Faktor.
- Reaktion in Echtzeit: Intelligente, kontextbezogene Warnungen, die Mitarbeitende dazu veranlassen, Maßnahmen gegen Bedrohungen durch Phishing und Anmeldedaten zu ergreifen, um Sicherheitslücken zu schließen.
- Geschützter Mitarbeiterzugriff: Die Möglichkeit, die Kontrolle über Schatten-IT zu behalten und gleichzeitig alle Mitarbeitenden mit einem sicheren, browserbasierten Tresor für ihre Anmeldedaten auszustatten.
Um diesem Bedarf gerecht zu werden, hat Dashlane kürzlich Dashlane Omnix™ auf den Markt gebracht, eine KI-beschleunigte Plattform, über die Unternehmen die Risiken im Zusammenhang mit Anmeldedaten erkennen und IT- und Sicherheitsverantwortlichen proaktiv gegen Bedrohungen vorgehen können, um sie zu stoppen, bevor sie eskalieren.
Sie stellt Erkenntnisse zu Risiken im Zusammenhang mit Anmeldedaten, kontextbezogene Warnungen und erweiterte Bereitstellungsoptionen für Unternehmen bereit – alles auf einer einheitlichen Plattform.
Melden Sie sich an, um Neuigkeiten und Updates zu Dashlane zu erhalten