In unserer KnowledgeBase finden Sie einfache Anleitungen sowie Lösungen rund um Ihre META10 Secure Cloud.
Direkt zur KnowledgeBase
Möchten Sie auf dem Laufenden bleiben? Melden Sie sich hier für unsere E-News an.
Das Bundesamt für Cybersicherheit BACS (vormals Nationales Zentrum für Cybersicherheit NCSC) stellt fest: Cyberkriminelle setzen für Pishing- und Betrugsversuche zunehmend Künstliche Intelligenz (KI) ein. Die Kriminellen perfektionieren damit ihre Angriffswaffen wie Phishingmails und Phishingseiten, gefälschte Videos von Prominenten, gefälschte Nacktbilder oder Bilder von heiklen Situationen, gefälschte Stimmen. Lesen Sie Einzelheiten dazu sowie Empfehlungen, wie man nicht in die gestellten Cyberfallen tappt.
Die Phishingmails, die uns tagtäglich belästigen, haben bislang meist drei Mängel, mit denen man sie rasch entlarven kann: eine komische Mailadresse des Absenders, einen suspekten Link sowie eine schlechte sprachliche und formale Ausgestaltung der Nachricht. Mittels Künstlicher Intelligenz können die Cyberkriminellen den dritten Mangel elegant ausmerzen. Zwar hat beispielsweise ChatGPT Mechanismen eingebaut, um das Erzeugen von betrügerischen Vorlagen zu verhindern. Aber im Darknet kann problemlos der Zugang zu spezialisierten KI-Sprachmodellen erworben werden. Damit lassen sich tadellos aussehende und sprachlich perfekt formulierte Phishingmails und Phishingseiten erstellen. Zum Glück für uns Phishingmailempfänger: Die komische Mailadresse des Absenders sowie die suspekten Links, die man anklicken soll, lassen sich derzeit mit der Künstlichen Intelligenz noch nicht beseitigen.
Mit Künstlicher Intelligenz lassen sich problemlos Bilder und Videos erstellen, die nur schwer als Fälschung zu entlarven sind. Das wird von den Cyberkriminellen für ihre Machenschaften eifrig genutzt. Zum Beispiel:
Mit aufgezeichneten Stimmproben einer Zielperson, den «voice samples», die auch über Telefonanrufe gewonnen werden können, lassen sich KI-Modelle dazu bringen, geschriebenen Text oder gesprochene Sprache so zu wiedergeben, dass die Stimme einer Zielperson zum Verwechseln ähnelt. Solche Stimmen werden dann beispielsweise für Schockanrufe verwendet. Dabei ruft ein angeblicher Polizist an und erklärt, dass der Sohn oder die Tochter in einen Unfall verwickelt sei und man eine Kaution bezahlen müsse. Als Beweis und Druckmittel wird eine fabrizierte Aufzeichnung abgespielt, in welcher die Person mit einer für das Opfer erkennbaren Stimme dramatisch um Hilfe bittet.
Suchen Sie...