Nach Jahrzehnten, in denen er Unternehmen vor Cyberangriffen geschützt hat, ist Jörg Asma, Partner und Leiter für Cybersicherheit bei PwC Deutschland, ein Experte in Sachen Informationssicherheit. Hier erörtert er, warum künstliche Intelligenz das Leben leichter macht, uns aber auch bisher ungeahnten Risiken aussetzt.

 

Es ist nicht zu bestreiten, dass künstliche Intelligenz (KI) den Alltag der Menschen grundlegend verbessern kann. Jedes Programm mit dem Potenzial, Aufgaben zu automatisieren, befreit Menschen von zeitaufwendigen Aufgaben, damit sie sich auf die wirklich wichtige Arbeit konzentrieren können. Und viele Unternehmen haben bereits erkannt, dass KI einem Unternehmen auch einen kommerziellen Vorteil verschaffen kann; fast zwei Drittel der deutschen Unternehmen arbeiten bereits damit. KI kann Geschäftsprozesse automatisieren und rationalisieren, die Entwicklung neuer Produkte und Services beschleunigen und Lieferketten sowie Bestellsysteme verwalten. Aber dystopische Science-Fiction-Filme und Romane haben mit einer Sache recht: Die Technologie kann auch für schlimme Dinge eingesetzt werden.

 

KI stellt komplexe Risiken für die Cybersicherheit dar. Zunächst einmal können Hacker und skrupellose Mitwettbewerber die Schwachstellen des KI-Systems eines Unternehmens ausnutzen. Fast jeder Wirtschaftszweig, von der Finanzbranche über die Automobilindustrie bis hin zur IT, setzt KI-Technologie ein. Das bedeutet natürlich auch, dass er anfälliger für Cyberangriff e ist. Da die KI eines Unternehmens automatisierte Entscheidungen basierend auf maschinellem Lernen, komplizierten Algorithmen und einem riesigen Datenvolumen trifft, können die Muster des Programms für die Menschen, die es überwachen, völlig undurchsichtig sein, was die Erkennung eines Angriffs erschwert.

 

Wie KI die Gefahr von Hacking exponentiell erhöht

 

Eine gefährlichere Bedrohung ist jedoch die Art und Weise, wie KI für den Angriff eingesetzt werden kann. Cybersicherheit wird nach wie vor größtenteils von Menschen betrieben, die etwa 17 oder 18 verschiedene Arten von Angriff en erkennen können. Doch diese Erkennung kann leicht von der KI überlistet werden, da sie in schneller Abfolge bis zu 30 verschiedene Arten von Cyberangriff en starten kann. Darüber hinaus kann KI-gesteuerte Malware „lernen“, welche Methoden am erfolgreichsten sind und das von ihnen infiltrierte Netzwerk oder sogar menschliches Verhalten nachahmen, um die Erkennung zu vermeiden.

 

Das Ausmaß der KI-Angriffe entwickelt sich ständig weiter. Noch vor fünf Jahren konzentrierte sich Cyberkriminalität auf Datenspionage und auf die Erpressung Einzelner. Doch mittlerweile hat sich der Einsatz erhöht und es geht um die vollständige Vernichtung von Daten und Geräten. Angreifer können eine ganze Industrie offline stellen, Roboter und Anlagen beschädigen und die Hardware zerstören, die zur Verwaltung des Produktionsprozesses verwendet wird. Das Sicherheitssystem eines Unternehmens ist nur so stark wie sein schwächstes Glied, und KI-Angriffe zielen häufig auf kritische Infrastrukturen wie Lieferketten ab.

 

Warum Fortschritte in der KI von Unternehmen verlangen, mehr für die Verteidigung gegen Cyberangriffe auszugeben

Aus diesem Grund ist die KI eine so mächtige Waffe für Hacker, Aktivisten, Kriminelle und skrupellose Unternehmen, die sich einen unfairen Vorteil gegenüber ihren Mitwettbewerbern verschaff en wollen. KI ist auch ein großes Geschäft für Malware- und Ransomware-Entwickler und eine kosteneffiziente Waffe für ein kleines Land, das sich Vorteile verschaffen will. Wenn ein Kampfflugzeug bis zu 80 Millionen Euro kosten kann, stellt eine destabilisierende, nicht rückverfolgbare Malware für 8,9 Millionen Euro eine hervorragende Investitionsrendite dar.

 

Wir können sicher sein, dass KI-basierte Angriffe dramatisch zunehmen und Unternehmen darauf reagieren müssen. Das wird ein harter und teurer Kampf, aber Behörden und private Unternehmen entwickeln jetzt schon KI-gesteuerte Sicherheitstools, um sich zu verteidigen. KI kann zum Beispiel zur Überwachung von IT-Systemen und zur Erkennung von Anomalien eingesetzt werden, um zu unterscheiden, ob unregelmäßige Ereignisse durch die unternehmenseigenen automatisierten Systeme oder als Ergebnis eines Cyberangriff s verursacht werden. Und wo technische Verteidigungssysteme manchmal falschen Alarm auslösen können, die das gesamte Cyber-Response-Team eines Unternehmens beschäftigen, gibt es KI-Tools, die speziell ausgebildet wurden, um einen falschen Alarm zu erkennen und zu verhindern, dass das interne System eines Unternehmens unnötig Alarm schlägt.

 

Warum Unternehmen bei der Integration von KI in ihre Systeme vorsichtig vorgehen müssen

 

Es ist wichtig, die Risiken und Vorteile der Einführung autonomer Systeme in Ihrem Unternehmen abzuwägen. Aus kommerzieller Sicht ist die Implementierung eines KI-Systems, das elektronische Daten klassifiziert, von unschätzbarem Wert. Die „lernende“ KI-Technologie ist in der Lage, ein riesiges Volumen an semantischem Text in einer Geschwindigkeit durchzugehen, zu speichern und zu löschen, die kein Mensch erreichen kann. Allerdings können selbstlernende Systeme auch Verhaltensweisen entwickeln, die wir weder vorhersehen, noch beabsichtigen. Nehmen Sie ein harmloses Beispiel, wie z. B. die Verwendung eines KI-Programms zum Sortieren von E-Mails. Im Laufe der Zeit lernt es zu unterscheiden, welche Nachrichten Sie archivieren und welche Sie löschen möchten. Doch wenn Sie eine Nachricht, die Sie archivieren wollten, versehentlich löschen, dann lernt Ihr KI-System von Ihnen und zerstört möglicherweise alle zukünftigen E-Mail-Nachrichten desselben Absenders – bevor Sie die Möglichkeit haben, diese E-Mail zu sehen.

 

Autonome KI-Angriff e können unbeabsichtigten Schaden anrichten, so wie das maschinelle Lernen gegen Sie eingesetzt werden kann. KI stellt sowohl eine enorme Chance für eine Organisation als auch eine ernste Bedrohung für ihre Sicherheit dar. Überwiegen ihre Risiken die Vorteile? Nicht für die meisten Unternehmen, die sich bei der Verwaltung ihrer Geschäftsprozesse und der Stärkung ihrer Cybersicherheitssysteme auf KI verlassen. Die beste Vorgehensweise für ein Unternehmen ist es, sich mit den KI-Tools, die das Geschäft verbessern sollen, vertraut zu machen und dann Wege zu entwickeln, um diese Tools vorteilhaft zu nutzen. Aber kein Unternehmen sollte seine selbstlernenden Maschinen sich selbst überlassen. Für eine erfolgreiche Partnerschaft müssen Menschen die Aufsicht über ihre KI behalten. Wir müssen die Maschinen kontrollieren, nicht anders herum.

 

 

Jörg Asma ist Partner bei PwC Deutschland und dessen Cyber Security Leader..



Dieser Artikel erschien erstmals in der Mai-Ausgabe 2019 von WERTE, dem Kundenmagazin der Deutschen Bank Wealth Management.

 

Mehr ansehen

×