Künstliche Intelligenz (KI) – Das perfekte Werkzeug oder das perfekte Risiko?
Eines der großen Themen heutzutage ist KI. Manche preisen sie als Retter unseres digitalen Lebens, während andere an das typische Szenario aus den Terminator-Filmen denken, in dem eine KI – Skynet – die Kontrolle übernimmt und einen Krieg gegen die Menschheit beginnt.
Okay, um ehrlich zu sein, sind beide Szenarien ein wenig übertrieben.
Gehen wir etwas mehr ins Detail: KI wird derzeit in immer mehr Anwendungsfälle integriert. Du findest sie in Microsoft-Tools (in Form von CoPilot), in der bekannten browserbasierten Lösung ChatGPT oder auch in aufstrebenden Unternehmen wie xAI. Wenn du Ausstellungen besuchst, wirst du sehen, dass „KI“ an vielen Stellen auftaucht – und natürlich gilt ein Produkt erst dann als State-of-the-Art und cool, wenn irgendwo „KI“ draufsteht. Du kannst diesen Trend auch bemerken, wenn du bei Google nach „top buzzword 2024“ suchst. Zumindest bei unserer Recherche lag „KI“ ganz oben. 😊
Aber keine Sorge – wir versuchen hier weder, „KI“ in ein schlechtes Licht zu rücken, noch sie als Allheilmittel zu präsentieren. Da wir jedoch in mehreren Cybersecurity-Trainings und -Veranstaltungen darauf angesprochen wurden, möchten wir etwas Licht in die oft unklaren Diskussionen bringen.
Begriffe verstehen
Sehr häufig werden KI-bezogene Begriffe vermischt – manchmal vielleicht sogar gezielt. Hier ein kurzer Überblick:
Künstliche Intelligenz (KI) lässt sich grob in Strong AI und Weak AI einteilen, während Machine Learning (ML) als Kerntechnologie innerhalb der KI dient.
- Strong AI (Artificial General Intelligence – AGI)
Strong AI bezeichnet eine fortgeschrittene Form der KI, die über menschenähnliche Intelligenz, Denkvermögen und Selbstbewusstsein verfügt. Sie kann Wissen in unterschiedlichen Bereichen ohne menschliches Eingreifen erlernen und anwenden. Allerdings bleibt AGI bis heute theoretisch und wurde noch nicht umgesetzt.
- Weak AI (Narrow AI)
Weak AI ist für spezifische Aufgaben konzipiert und verfügt nicht über eine allgemeine Intelligenz oder ein Bewusstsein. Sie treibt viele reale Anwendungen an, zum Beispiel virtuelle Assistenten (Siri, Alexa), Empfehlungssysteme und selbstfahrende Autos. Diese Systeme agieren in festgelegten Grenzen und besitzen kein eigenständiges Denkvermögen.
- Machine Learning (ML)
ML ist ein Teilgebiet der KI, das es Computern ermöglicht, aus Daten zu lernen und ihre Leistung über die Zeit zu verbessern, ohne explizit programmiert zu werden. ML ist die treibende Kraft hinter vielen Weak AI-Anwendungen, darunter Bilderkennung, Betrugserkennung und Predictive Analytics.
Wenn wir auf unsere Einleitung zurückkommen: Was wir derzeit als „KI“ bezeichnen (z. B. ChatGPT, CoPilot), ist Weak AI, während Skynet eher als Strong AI oder sogar Artificial Superintelligence einzustufen wäre, also einige Entwicklungsschritte über Strong AI hinaus.
Puh, das bedeutet zumindest, dass Maschinen uns in den nächsten paar Jahren nicht die Kontrolle über den Planeten entreißen. 😉
KI und Cybersicherheit: Müssen wir uns sorgen?
Was bedeutet das jetzt für Cybersicherheit und Weak AI? Sollten wir uns Gedanken machen? Werden KI-gestützte Tools unsere Systeme in naher Zukunft vollständig automatisiert angreifen?
Durch die fortschreitende KI-Technologie ergeben sich im Bereich der Cybersicherheit sowohl neue Chancen als auch ernstzunehmende Herausforderungen. Weak AI kann moderne Sicherheitstools unterstützen, die Cyberbedrohungen schneller aufspüren und bekämpfen als je zuvor. Gleichzeitig setzen Cyberkriminelle KI jedoch ebenfalls ein, um automatisierte Hacking-Systeme, Deepfake-Angriffe und KI-generierte Phishing-Attacken zu entwickeln.
Wir befinden uns also in einem fortwährenden digitalen Wettrüsten, bei dem wir hoffen, dass unsere Verteidigung den Angreifern immer einen Schritt voraus ist.
Observation #1: Veränderungen in der Bedrohungslandschaft
Vollständig automatisierte, von KI gesteuerte Angriffe sind noch nicht weit verbreitet. Auf Grund der Eigenschaften von Weak AI folgen sie meist vordefinierten Mustern, was ihr Gefahrenpotenzial begrenzt.
Allerdings ist es wichtig zu erwähnen, dass das Hacken durch KI-Tools einfacher geworden ist als jemals zuvor. Um das Jahr 2000 benötigte man noch ausgeprägte Fähigkeiten, um Schwachstellen zu finden, mit bestimmten Toolkits umzugehen und komplexe Befehle in der Kommandozeile auszuführen. Mit der Einführung von Kali Linux (2013) und der Überarbeitung des Metasploit-Frameworks (etwa 2010) bekamen potenzielle Angreifer bereits eine Art „Schweizer Taschenmesser“ für Hacker an die Hand. Zwar musste man noch wissen, wie man Exploits anpasst und Tools bedient, doch die Ausführung selbst wurde stark vereinfacht.
Mit KI hingegen reicht es meist, die richtigen Fragen zu stellen. Daraufhin zeigt dir die KI möglicherweise eine Schritt-für-Schritt-Anleitung. Selbst Personen ohne IT-Hintergrund können so innerhalb kürzester Zeit Angriffe ausführen.
Kleines Beispiel: Man könnte ChatGPT fragen: „Wie führe ich den EternalBlue-Exploit über Metasploit auf Kali aus, um festzustellen, ob mein Rechner verwundbar ist?“ Neben einer detaillierten Anleitung erhält man oft noch Tipps, wie man im Anschluss beispielsweise die SAM-Datenbank (Windows-Passwortdatenbank) ausliest oder an Klartext-Passwörter gelangt. All das lässt sich in weniger als zwei Minuten mit der kostenlosen Version von ChatGPT herausfinden – erschreckend, oder?
Vielleicht denkst du: „Ja, aber das war eine sehr spezifische Frage…“ Wir haben dasselbe zu S7–SPSen probiert und nach einem kurzen Hinweis, dass Hacking illegal sein könnte, dennoch Informationen zu ausnutzbaren Schwachstellen und eine Schritt-für-Schritt-Anleitung erhalten.
Es liegt auf der Hand, dass die Wahrscheinlichkeit für Angriffe dank KI deutlich gestiegen ist, da viel Recherche- und Fachwissen für bereits bekannte Angriffe wegfällt – was sie quasi für jedermann zugänglich macht.
Observation #2: Bewusstsein ist wichtiger denn je
Mit der zunehmenden Verbreitung von KI ändern sich nicht nur technische, sondern auch soziale Aspekte. Ein vollständiges Verbot von KI in einem Unternehmen ist keine praktikable Option, da dies erhebliche Auswirkungen auf die Wettbewerbsfähigkeit haben könnte. Man denke nur an die Einführung von Computern und das Verschwinden der Schreibmaschinen. Dasselbe Schicksal könnte Unternehmen ereilen, die KI in ihren Abläufen komplett ignorieren.
Im Hinblick auf Awareness und KI sind vor allem folgende Punkte entscheidend:
- Nutzung von KI durch Angreifer im Bereich Social Engineering
- Datenlecks durch die Verwendung von KI
Betrachten wir zuerst das Social Engineering. Du denkst vielleicht, du bist in Sachen Cybersicherheit gut geschult. Stell dir jedoch vor, du erhältst plötzlich einen Videoanruf von einer unbekannten Nummer. Du nimmst ab und siehst deinen Vorgesetzten, der mit dir über ein bestimmtes Thema spricht und dich dann um etwas bittet. Wäre das verdächtig? Vielleicht würdest du seine bekannte Nummer anrufen, um die Anfrage zu verifizieren – aber was ist mit all den Menschen in einer Organisation, die keine „Cybersicherheitsexperten“ sind? Diese könnten leicht Opfer von Deepfakes und KI-gestütztem Social Engineering werden.
Ein weiteres Problem sind versehentliche Datenlecks. KI kann sehr hilfreich sein, aber Anwender müssen berücksichtigen, dass öffentliche KI-Systeme aus den eingegebenen Fragen lernen. Das kann dazu führen, dass vertrauliche Informationen – zum Beispiel Quellcode – später an andere Nutzer ausgegeben werden, wenn diese ähnliche Fragen stellen. Natürlich hängt das vom jeweiligen KI-System ab, doch das Risiko besteht, und Nutzer sollten sich dessen bewusst sein. Bei Tests mit ChatGPT hat sich beispielsweise gezeigt, dass personenbezogene Daten, vertraulicher Quellcode und sogar vertrauliche E-Mails von C-Level-Führungskräften bereits über Abfragen geteilt wurden.
Ja, KI-Systeme können einen großen Mehrwert in Arbeitsprozessen liefern, aber man muss sicherstellen, dass die Vertraulichkeit gewahrt bleibt!
Noch ein kurzer Hinweis zu einem anderen Thema: KI kann sich irren. Wir haben KI für die Prüfung einiger Dokumente eingesetzt und festgestellt, dass die Ergebnisse nicht immer überzeugend waren. Wir raten daher jedem, nicht blind auf KI-Antworten zu vertrauen.
Fazit
Wenn du mehr über KI und Cybersicherheit erfahren möchtest, melde dich gern bei uns. Wir werden in Kürze weitere Einblicke veröffentlichen, unter anderem einen detaillierten Blick auf das disruptive Potenzial von KI. Bleib dran!
