23-0328/
Blog
Jeder hat davon mittlerweile gehört: ChatGPT. Der Hype um den AI Chatbot schwirrt schon seit geraumer Zeit durch das Internet, und auch Cyberangreifer haben mit dem Open AI-Trend das Tempo angezogen. Die Cyberkriminellen haben nun einen Weg gefunden, den ChatGPT-AI-Chatbot zu übernehmen und ihn mit ihren Befehlen zu überschwemmen.
Seit der Einführung von ChatGPT sind Diskussionen über Cyber-Kriminelle, die die Möglichkeiten von Open AI zur Generierung von Malware nutzen, in aller Munde. Wie von Experten vorhergesagt, haben die Forscher von Checkpoint einige Cyberangreifer entdeckt, die versuchen, die ChatGPT-Schutzmaßnahmen zu umgehen. Trotz der von den Entwicklern der KI-Chatbots eingerichteten Missbrauchsschutzmaßnahmen haben Hacker schnell genug einen Weg gefunden, diese zu umgehen.
Die Forscher von Check Point Software Technologies untersuchten das Dark Web, um Spuren von bösartigen Aktivitäten zu finden. Sie fanden mehrere Fälle, in denen Cyberkriminelle die Fähigkeiten von ChatGPT nutzten, um ihre Malware-Codes zu verbessern. Anschließend testeten die Forscher die Fähigkeiten von ChatGPT zur Verbesserung der Malware-Codes.
Die Forscher schlossen ihre Untersuchung mit der Feststellung ab, dass ChatGPT zwar keine komplexe Kodierung ermöglicht, aber auf jeden Fall dazu beitragen kann, den Kodierungsprozess für Hacker zu vereinfachen und ihre Codes bei Bedarf zu improvisieren.
Was sind die Vorteile der Open AI und wann kann sie gefährlich werden?
Obwohl es künstliche Intelligenz in der Cyberlandschaft schon seit Jahrzehnten gibt, hat sich ihre Wahrnehmung im modernen digitalen Zeitalter rasch gewandelt. Heute sind KI-Enthusiasten verrückt nach algorithmenbasiertem maschinellem Lernen, auch bekannt als Knowledge Engineering. Open AI wurde erstmals 2015 von den Tech-Mogulen Sam Altman und Elon Musk ins Leben gerufen. Die Grundidee bestand darin, ein künstliches Intelligenzsystem zu entwickeln, das über menschenähnliche Fähigkeiten verfügt, um zu denken und so seine Fähigkeiten zur Lösung unbekannter Situationen einzusetzen.
Laut Elon Musk, dem Gründer von Open AI, zielt die Plattform darauf ab, „künstliche Intelligenz zu entwickeln und sie für [OpenAIs] wichtige Ziele einzusetzen, wie z. B. Nutzen für die gesamte Menschheit zu bringen und nicht an die Erfordernisse des finanziellen Gewinns gebunden zu sein.“
Die Popkultur ist randvoll mit Darstellungen der Kräfte der künstlichen Intelligenz, wobei der typische Schwerpunkt eher auf dem apokalyptischen Untergang der KI als auf ihren nützlichen Fähigkeiten liegt. Es gibt zwar viele Gründe, die uns angesichts der KI-Mächte in der Zukunft beunruhigen, aber eine menschenähnliche künstliche Intelligenz kann auch für die Menschheit erstaunliche Vorteile haben. Werfen wir einen Blick auf einige der Sektoren, die von der Open AI-Plattform immens profitieren können:
-
Gesundheitswesen:
Auch wenn diese Facette der KI noch entwickelt und erforscht werden muss, ist das Potenzial der offenen KI-Plattform für die genaue Diagnose von Krankheiten und die Entdeckung neuer Medikamente nicht unbemerkt geblieben. Darüber hinaus erforschen Experten auch das Potenzial von KI bei der Patientenüberwachung und der Analyse von Krankenhausdaten. -
Bildung:
Künstliche Intelligenz hat das Potenzial, die globale Bildung zu neuen Höhen zu führen. Mit dem Einzug von KI in den Bildungssektor können Verwaltungsaufgaben vereinfacht und Lehrern und Schülern ein personalisierteres Lernerlebnis geboten werden. -
Verkehr:
Autonome Autos wie Tesla sind schon seit einiger Zeit ein Fanliebling. Der Trend zu selbstfahrenden Autos ist zu einem Schlagwort in der Automobilbranche geworden. Angesichts des geringeren Risikos von Zusammenstößen auf der Straße und der besseren Fahreffizienz kann man mit Sicherheit sagen, dass solche selbstfahrenden Autos, die von künstlicher Intelligenz angetrieben werden, das Gesicht des Verkehrswesens wirklich verändern können. -
Kundenservice:
Eines der populärsten Beispiele für künstliche Intelligenz, die uns im Alltag begegnen, sind intelligente Heimassistenten. Von Ok Google bis Alexa arbeiten die Tech-Mogule Tag und Nacht daran, künstliche Intelligenz in den Bereich der Kundenbetreuung zu integrieren.
Auch wenn die künstliche Intelligenz ein bahnbrechender Katalysator ist, der in Zukunft unzählige Innovationen ermöglichen wird, muss ihre Macht mit großer Sensibilität und Vorsicht behandelt werden. Experten sind der Meinung, dass künstliche Intelligenz extreme Risiken birgt, die unsere Existenz gefährden könnten. Einige der potenziellen Gefahren der offenen KI-Plattform sind: - Eingriff in die Privatsphäre:
Aufgrund der immensen technologischen Fortschritte in der heutigen modernen KI-Ära kann man die Handlungen jeder Person auf dieser Erde anhand ihrer Online-Aktivitäten verfolgen. Mehrere identitätsbasierte Algorithmen werden täglich um uns herum eingesetzt, was es für die KI einfacher macht, herauszufinden, wer Sie sind. -
Autonome Waffen:
Wenn künstliche Intelligenz so programmiert werden kann, dass sie der Menschheit Schaden zufügt, dann ist dies ein sicheres Rezept für eine Katastrophe. Experten haben behauptet, dass künstliche Intelligenz verwendet werden kann, um selbstfeuernde Waffen zu entwickeln, was die Bedrohung durch autonome Waffen weltweit einführen könnte.Diskriminierung:Wie bereits erwähnt, kann künstliche Intelligenz eine Menge Informationen über Sie aus den riesigen Datenquellen der heutigen Welt extrahieren. Besorgniserregend ist, dass die KI dieselben Informationen auch gegen Sie verwenden kann. Während Maschinen, die mit Algorithmen der künstlichen Intelligenz arbeiten, so konzipiert sind, dass sie selbst lernen, tragen die Menschen hinter solchen Maschinen ihre Ideologien und Vorurteile in sich.
Wie können Hacker ChatGPT missbrauchen?
Die Versuche, auf die Schwachstellen des auf Open AI basierenden ChatGPT-Modells hinzuweisen, begannen im Dezember 2022, als einige Reddit-Nutzer begannen, über Möglichkeiten zu diskutieren, die ChatGPT-Defence zu umgehen. Die Forscher von Check Point haben drei Wege aufgezeigt, auf denen Cyberkriminelle ChatGPT zur Generierung von Malware nutzen.
Am 21. Dezember 2022 gab ein Cyberkrimineller unter dem Benutzernamen USDoD bekannt, dass er mit ChatGPT ein Skript erstellen kann, das als Ransomware-Modell verwendet werden kann. Besorgniserregend ist dabei, dass die Plattform es selbst Personen ohne technische Kenntnisse ermöglicht, Malware zu generieren, die der Gesellschaft erheblichen Schaden zufügen könnte. ChatGPT ist zwar nicht in der Lage, eigenständig vollwertige Ransomware zu generieren, aber es ist für jedermann ein möglich, ein verschlüsseltes Skript mit Hilfe eines Python-Tools mit mehrschichtiger Verschlüsselung anzufordern, das dann zur Erfüllung der eigenen böswilligen Absichten verwendet werden kann.
In einem anderen Bericht behaupteten Check Point-Forscher, dass ein Hacker ChatGPT auch verwendet hat, um einen Python-basierten Informationsdiebstahl-Code zu erstellen, den der Hacker verwenden könnte, um wichtige Dateien und Dokumente zu exfiltrieren. Derselbe Hacker teilte auch mit, wie ein Java-Code mit PowerShell verwendet werden kann, um einen PuTTY-Software-Client herunterzuladen und dann mehrere Programme zu bedienen.
Experten haben auch behauptet, dass ChatGPT eine bedeutende Rolle auf dem Dark-Web-Marktplatz spielt und dass die Einschränkungen in seiner Benutzeroberfläche etwas schwach sind. Cyberkriminelle können diese Barrieren im Alleingang umgehen, indem sie bestimmte Phrasen verwenden, um die ChatGPT-Beschränkungen zu umgehen.
Wie weit können Cyberkriminelle mit ChatGPT hacken?
Die dunkle Seite von ChatGPT ermöglicht es selbst unerfahrenen Cyberkriminellen, sich zu hacken, indem sie sehr überzeugende Phishing-E-Mails in der von ihnen gewählten Zielsprache erstellen. Werfen wir einen Blick auf die verschiedenen Möglichkeiten, wie ChatGPT gehackt werden kann:
-
Cyber-Kriminelle lehren, Ihre Schwachstellen auszunutzen
ChatGPT kann Cyberkriminelle lehren, die TLS 1.1-Schwachstellen einer Website auszunutzen. Die Plattform bietet eine Liste realer Schwachstellen und wertvolle Informationen über die Tools, die zur Ausnutzung dieser Schwachstellen benötigt werden. Diese Fähigkeit von ChatGPT eröffnet unerfahrenen Hackern die Möglichkeit, ihren Lernbereich zu erweitern und sich zu qualifizierten Hackern zu entwickeln. Daher macht die Plattform das Hacken zu einem erreichbaren Ziel für Personen, die sonst keine Möglichkeit haben, die Techniken zu erlernen, die für einen Angriff auf das Online-Eigentum einer anderen Person erforderlich sind.
-
Schreiben Sie brandneue Malware
Wenn Sie ChatGPT die richtige Eingabeaufforderung zukommen lassen, kann es auch gleich einen kompletten Ransomware-Code für Sie schreiben. Dies könnte zu einer höheren Anzahl von Cyberangriffen mit einem noch nie dagewesenen Anstieg der möglichen negativen Auswirkungen solcher Angriffe führen.
-
Generieren Sie überzeugende Phishing-E-Mails
Zu den verräterischen Anzeichen einer Phishing-E-Mail gehören grammatikalische Fehler, Zeichensetzungsfehler und Rechtschreibfehler. Aber was wäre, wenn all diese Anzeichen korrigiert würden? ChatGPT kann nicht nur grammatikalisch korrekte Phishing-E-Mails erstellen, sondern auch Eingaben aus sozialen Medien nutzen, um sie weiter zu verfeinern. Außerdem können Cyberangreifer Phishing-E-Mails in jeder beliebigen Sprache erstellen, solange ChatGPT diese unterstützt.
-
Praxis der Social Engineering-Angriffe
ChatGPT ermöglicht es Cyber-Angreifern auch, durch intensive Recherche anspruchsvollere Cyber-Angriffe durchzuführen. ChatGPT ermöglicht es Hackern, eine Interaktion mit einem Helpdesk zum Zurücksetzen von Passwörtern nachzuspielen und sich auf eine erwartete Reihe von Fragen vorzubereiten. Auf diese Weise können Hacker solche Fragen lange üben und jede Art von Information extrahieren, die sie wollen. Letztendlich würde dies den Hackern helfen, sich Gegenargumente auszudenken und geeignete Schutzmaßnahmen zu ergreifen.
Kann eine gewöhnliche Person ChatGPT verwenden, um Cyberangriffe durchzuführen?
Normalerweise verfügt ChatGPT über spezifische Sicherheitseinstellungen, die verhindern, dass es Antworten auf bösartige Codes und E-Mails liefert. Wenn jedoch ein bösartiger Code die reguläre Kodierung von ChatGPT außer Kraft setzen kann, können Hacker weiterhin Phishing-E-Mails generieren.
Der Leiter der Threat Intelligence Group bei Check Point, Sergey Shykevich, bekräftigte, dass man keine Programmierkenntnisse braucht, um mit ChatGPT Malware zu schreiben. Alles, was Sie brauchen, ist etwas Wissen über die Funktionalität der Malware, und ChatGPT erledigt den Rest, indem es den Code für Sie schreibt. In der heutigen technisch versierten Welt ist es daher wirklich besorgniserregend, dass ChatGPT es selbst den wenigsten Cyberangreifern ermöglicht, Malware zu erstellen.
Sergey Shykevich fügte hinzu, dass auf lange Sicht anspruchsvollere Cyber-Kriminelle mit dem Trend Schritt halten und die Open AI-Plattform nutzen werden, um Lücken in ihren Codes zu schließen.
Wenn man die Dinge aus der Perspektive eines Angreifers betrachtet, dann ist ChatGPT das perfekte Tool, um Programmiervorlagen für die eigenen Ziele zu erstellen und eventuelle Kompetenzlücken zu schließen.
Was tut ChatGPT dagegen?
Im Bewusstsein der Notwendigkeit, mehr Sicherheitsbarrieren zu errichten, arbeiten die Hersteller von Open AI ständig daran, ihre Technologie zu verbessern und ihren Missbrauch langfristig einzuschränken. Zum jetzigen Zeitpunkt ist ChatGPT jedoch zweifelsohne eine fehlerhafte und anfällige Entwicklung, die selbst von unerfahrenen Hackern leicht manipuliert werden kann.
Ein weiterer wichtiger Punkt ist, dass diese ChatGPT-aktivierten Cyberangriffe nicht besonders neu sind. Wenn überhaupt, kann man sie als Ableger der alten Cyberangriffe bezeichnen, für die viele kompetente Hacker ausgebildet sind. Das Problem ist jedoch, dass ChatGPT Tausenden weiterer potenzieller Hacker die Türen geöffnet hat, und das bedeutet, dass wir alle auf raffiniertere Cyberangriffe vorbereitet sein müssen.
Um den Missbrauch von KI-Technologien durch Cyberkriminelle langfristig zu erschweren, müssen die Entwickler der Verbesserung von KI-Engines und dem Training ihrer Kreationen zur Erkennung bösartiger Eingabeaufforderungen große Aufmerksamkeit schenken. Laut Shykevich kann ein solcher Missbrauch in Zukunft auch dadurch verhindert werden, dass Autorisierungsanforderungen für die Nutzung der OpenAI-Plattform eingeführt werden.
Sie können auch einige zusätzliche Maßnahmen ergreifen, um Ihre Organisation besser auf zukünftige Cyberangriffe vorzubereiten. Dazu gehören die Ausarbeitung von Governance-Richtlinien, die Durchführung von Kampagnen zur Sensibilisierung für das Thema Cyberangriffe im Unternehmen, das Testen dieser Sensibilisierung und Schulung durch Phishing-Tests und die Vermittlung von Grundkenntnissen über Cyberangriffe an Ihre Mitarbeiter, Freunde und Familienmitglieder. Glauben Sie uns: Sie werden froh sein, dass Sie diese Maßnahmen ergriffen haben.