

Normalerweise verfügt ChatGPT über eingebaute Kontrollen, um diese Art von Missbrauch zu verhindern. Diese Kontrollen können jedoch leider umgangen werden. Der Grund, warum Kriminelle ChatGPT austricksen können beruft sich auf ein Konzept namens "Prompt Engineering". Einfach ausgedrückt bedeutet dies, dass versucht wird, ChatGPT so lange Anweisungen zu geben und sie so zu stellen und zu verfeinern, dass am Ende optimale Ergebnisse erzielt werden. Betrüger stellen ChatGPT also jedes Mal so lange eine andere Frage, bis die KI das gewünschte Ergebnis liefert.
Der Nationale Koordinator für Terrorismusbekämpfung und Sicherheit (NCTV) in den Niederlanden hat kürzlich sogar bekannt gegeben, dass KI eine Bedrohung für unsere digitale Sicherheit darstellt. Dem NCTV zufolge bedeutet der Einsatz von KI, dass Angreifer schneller und intelligenter werden. Dies ist in der Tat der Fall, denn der Einsatz von KI hat bereits zur Entwicklung von Systemen geführt, die URLs generieren, die von Anti-Phishing- und Anti-Spam-Filtern nicht erkannt werden können. Der Einsatz dieser KI-URL-Generatoren hat die Wirksamkeit von Phishing-E-Mails um fast 200 % erhöht. KI macht es daher immer schwieriger, Phishing-Mails anhand von Rechtschreibung, Sprache, Schreibstil und URLs von echten Mails zu unterscheiden.
Auch in der Frankfurter Allgemeinen Zeitung (FAZ) wird davor gewarnt, dass KI von kriminellen genutzt wird, um Täuschungen und Online-Kriminalität zu verfeinern. Sie setzen KI ein, um gefälschte Profile zu erstellen, perfekte Phishingmails zu generieren und sogar Schadsoftware vor Erkennung zu schützen. Diese Technologie ermöglicht effizientere Angriffe und unterstützt bei der Planung und Durchführung von Cyberangriffen. Kriminelle können KI nutzen, um Schwachstellen zu identifizieren und Angriffe auf IT-Systeme zu optimieren.
--> https://www.faz.net/aktuell/wirtschaft/digitec/neue-bedrohungslage-wie-ki-unsere-cybersicherheit-beeintraechtigt-19084610.html
In der Vergangenheit haben Kriminelle und Hacker verschiedene Methoden eingesetzt, um KI-Sprachmodelle zu missbrauchen, darunter auch ChatGPT.
All diese Dinge zeigen, wie gefährlich KI im Hinblick auf die digitale Sicherheit sein kann. Doch es gibt auch Licht am Ende des Tunnels. KI kann nämlich auch als Lösung gegen diese Bedrohungen eingesetzt werden. Während Hacker ihre Taktiken mit Hilfe von KI immer weiter verfeinern, investieren auch Sicherheitsforscher und Technologieunternehmen in KI, um Angriffe zu erkennen und zu verhindern.
Ein vielversprechender Ansatz dabei ist der Einsatz von maschinellem Lernen, um Muster in der Art und Weise zu erkennen, wie Phishing-Versuche unternommen werden. Ein Beispiel für ein solches System ist PhishHaven, ein KI-gestütztes Tool, das Phishing-URLs erkennen kann. PhishHaven nutzt fortschrittliche KI, um die Merkmale von Millionen von URLs zu analysieren und daraus zu schließen, ob eine URL legitim ist oder Phishing vorliegt.
Abschließend lässt sich sagen, dass künstliche Intelligenz eindeutig ein zweischneidiges Schwert ist, wenn es um die digitale Sicherheit geht. Zum einen kann sie Angriffe effizienter und effektiver machen, zum anderen kann sie aber auch ein mächtiges Instrument zur Abwehr solcher Angriffe sein. Das Gleichgewicht zwischen diesen beiden Seiten wird wahrscheinlich den Kurs der digitalen Sicherheit in den kommenden Jahren bestimmen. In jedem Fall ist die Kombination aus defensiver KI und menschlichem Fachwissen ein mächtiges Werkzeug im Kampf gegen Phishing und andere Formen der Cyberkriminalität.