Schutz vor Betrugsversuchen in der Ära der Künstlichen Intelligenz: Unternehmen auf der Hut

Betrügerische Anrufe und E-Mails haben UnternehmerInnen schon seit Jahren im Visier, doch die fortschreitende Entwicklung künstlicher Intelligenz (KI) verschärft die Problematik erheblich.

Voice Cloning als perfide Betrugsmethode

Ein brandaktuelles Beispiel für perfide Betrugsversuche ist die „Voice Cloning“-Methode, bei der Angreifer mithilfe von KI Stimmen von Personen aus dem Unternehmen imitieren. Dies ermöglicht es Betrügern, emotional aufgeladene Szenarien zu inszenieren, um ihre Opfer zu täuschen. Unsere IT-Experten haben herausgefunden, dass heutzutage nur wenige Worte als Tonaufnahme einer Person benötigt werden, um diese dann alles sagen zu lassen, was Betrüger möchten.

Der Zugang zu Stimmen erfolgt oft über soziale Medien wie TikTok, YouTube, Facebook und Instagram, wo Menschen persönliche Informationen teilen. Aber auch vorausgehende SCAM Anrufe werden oftmals genutzt, um an die Stimmdaten zu kommen.

„Voice Cloning“ ist mittlerweile keine Seltenheit mehr, und Betrüger nutzen diese Taktik vermehrt für Erpressung und hochentwickelte Social-Engineering-Angriffe gegen Unternehmen.

KI im Dienste des Phishings

Neben „Voice Cloning“ wird auch KI vermehrt bei Phishing-Kampagnen eingesetzt. Phishing ist der Versuch, durch gefälschte Webseiten, E-Mails oder Kurznachrichten als vertrauenswürdiger Kommunikationspartner aufzutreten, um an persönliche Daten zu gelangen. KI-Tools ermöglichen es den Betrügern, ihre Angriffe präziser auf potenzielle Opfer zuzuschneiden und effizientere Phishing-Texte zu formulieren.

E-Mail-Provider wie Outlook und GMX berichten von einem Anstieg von 40 Prozent bei Spam-Angriffen, der auf den Einsatz von KI zurückgeführt wird. Die Qualität von Phishing-Nachrichten hat sich verbessert, und sie sind weniger offensichtlich als Spam erkennbar.

Schutzmaßnahmen für Unternehmen und Verbraucher

Unternehmen stehen vor der Herausforderung, sich vor den raffinierten Methoden der Betrüger zu schützen. KI-gestützte Filtersysteme werden verstärkt eingesetzt, um Spam-Muster frühzeitig zu erkennen. Dennoch sollten auch Verbraucher selbst aktiv werden, um sich vor KI-generierten E-Mails und „Voice Cloning“-Attacken zu schützen.

Wir empfehlen, in verdächtigen Situationen Ruhe zu bewahren und nicht sofort zu handeln. Besondere Vorsicht ist bei Anfragen nach Geld oder persönlichen Informationen geboten. Bei Anrufen, die vertraut klingen, könnte ein geheimes Codewort als zusätzliche Sicherheitsmaßnahme vereinbart werden. Dieses soll nicht zuvor online kommuniziert werden, sondern in Person festgelegt werden.

Technisch ist es schwierig, eine KI-generierte Stimme zu erkennen, aber Unnatürlichkeiten im Dialog könnten Hinweise darauf geben. Die Verwendung eines vereinbarten Codeworts kann zur Verifizierung dienen.

In der Ära der KI ist es entscheidend, dass Unternehmen wachsam bleiben und proaktiv Schutzmaßnahmen ergreifen, um sich vor den raffinierten Methoden der Betrüger zu schützen.

Unsere IT Abteilung bietet mittlerweile auch Awarenesstrainings für diese Thematiken an. Sollten Sie Interesse an einem einstündigen Training für Ihre MitarbeiterInnen haben, kontaktieren Sie bitte office@icosense.com