Cybersicherheitsexperten warnen weiterhin davor, dass fortschrittliche Chatbots wie ChatGPT es Cyberkriminellen leichter machen, Phishing-E-Mails mit makelloser Rechtschreibung und Grammatik zu verfassen.
Corey Thomas, CEO von Rapid7, erklärte: "Jeder Hacker kann jetzt KI einsetzen, die alle Rechtschreib- und Grammatikfehler beseitigt. Die Vorstellung, dass man sich auf die Suche nach schlechter Grammatik oder Rechtschreibung verlassen kann, um eine Phishing-Attacke zu erkennen, ist nicht mehr zutreffend.
In einem Beratungsbericht von Europol wird auf ähnliche potenzielle Probleme hingewiesen, die durch den Aufstieg von KI-Chatbots verursacht werden. Darunter Betrug und Social Engineering, Desinformation und Cyberkriminalität. Die Systeme sind auch nützlich, um Möchtegern-Kriminelle durch die tatsächlichen Schritte zu führen, die erforderlich sind, um anderen zu schaden.
Max Heinemeyer, Chief Product Officer bei Darktrace, sagte, dass die KI-Technologie besonders bei Spear-Phishing-E-Mails nützlich sein wird.
"Selbst wenn jemand sagen würde: 'Mach dir keine Sorgen um ChatGPT, es wird kommerzialisiert', nun, der Geist ist aus der Flasche", sagte Heinemeyer. "Wir sind der Meinung, dass sich diese Art von Technologie unmittelbar auf die Bedrohungslandschaft auswirkt, da sie für besseres und skalierbareres Social Engineering eingesetzt wird: KI ermöglicht es, mit sehr geringem Aufwand sehr glaubwürdige 'Spear-Phishing'-E-Mails und andere schriftliche Kommunikation zu erstellen, vor allem im Vergleich zu dem, was man vorher tun musste."
Heinemeyer fügte hinzu: "Ich kann einfach Ihre sozialen Medien durchforsten und sie an GPT weitergeben, und es erstellt eine sehr glaubwürdige, maßgeschneiderte E-Mail.
Weitere Informationen, und was Sie dagegen tun können, unter: Security Awareness Training & Simulated Phishing Platform (csf.ch)
Comentarios