Hände liegen auf einer Computer-Tastatur, vor dem Bildschirm ist der Umriss eines Kopfes illustriert.
Zum Schutz vor Angriffen nutzen Banken und Finanzinstitute immer öfter Künstliche Intelligenz. Doch auch die Betrüger setzen verstärkt auf KI und schaffen es so, die Sicherheitsbarrieren zu durchbrechen.
IMAGO/Piero Nigro

Wien – Die unendlichen Weiten des Internets und die Schnelllebigkeit unserer Zeit machen es Finanzbetrügern immer einfacher. Einmal nicht aufgepasst bei einer E-Mail, die beim Aussteigen aus der U-Bahn noch schnell gelesen wird, ein Anhang geöffnet – schon kann ein Betrug oder Cyberangriff seinen Lauf nehmen. Hinzu kommt, dass Künstliche Intelligenz (KI) auch den Finanzbetrügern hilft.

Cyberkriminelle nutzen KI und können bessere, umfassendere und erfolgreichere Betrugsversuche bei Banken und der Finanzbranche durchführen als bisher. Dafür benötigen sie kaum Bankexpertise oder technisches Know-how, heißt es in einem Bericht von Biocatch über Betrug und Finanzkriminalität mit Schwerpunkt auf KI. Biocatch beschäftigt sich mit digitaler Betrugserkennung anhand menschlichen Verhaltens. Fast 70 Prozent der vom Unternehmen befragten 600 Experten in elf Ländern auf vier Kontinenten geben an, dass die Angreifer KI geschickter einsetzen als Banken ihrerseits bei der Bekämpfung der Attacken. Ebenso besorgniserregend ist, dass etwa die Hälfte der Befragten mehr Angriffe im vergangenen Jahr festgestellt haben oder für 2024 erwarten.

"Künstliche Intelligenz optimiert jeden erdenklichen Betrug", teilt Tom Peacock, Director of Global Fraud Intelligence bei Biocatch, via Aussendung mit. "Sie lokalisiert Sprache und Eigennamen perfekt, sodass für jedes Opfer personalisierte Betrugsversuche entstehen – mit Bildern, Videos oder Audio-Inhalten. Damit ermöglicht KI grenzenlose Betrügereien." Das wiederum erfordere neue Strategien und Technologien der Finanzinstitute, um Kunden zu schützen.

Synthetische Identitäten

91 Prozent der Befragten geben an, dass ihr Unternehmen bei wichtigen Kunden die Sprachverifizierung überdenkt. Der Grund hierfür ist die Stimmerzeugung durch KI. 70 Prozent der Finanzinstitute haben im vergangenen Jahr die Verwendung synthetischer Identitäten bei der Neukundenakquise identifiziert. Die US-Notenbank Federal Reserve (Fed) schätzt, dass bisher eingesetzte Betrugsmodelle bis zu 95 Prozent der synthetischen Identitäten nicht erkennen, die für die Beantragung neuer Konten verwendet werden. Demnach wächst die Finanzbetrugszahl durch synthetische Identitäten am schnellsten in den USA, und sie kostet Unternehmen jedes Jahr Milliarden von Dollar.

"Wir dürfen uns nicht mehr nur auf unsere Sinne verlassen, um digitale Identitäten zu überprüfen", erklärt Jonathan Daly, CMO von Biocatch, in einer Aussendung. "Das KI-Zeitalter erfordert neue Methoden zur Authentifizierung. Bei unserer Arbeit haben wir gesehen, dass wir Signale der Verhaltensintention nutzen sollten." Dieser Ansatz helfe Finanzinstituten dabei, Deepfakes und Stimmklone in Echtzeit zu erkennen. So ließe sich das Geld der Kunden besser schützen.

Teure Bedrohung

Es zeigt sich in Summe, dass KI eine teure Bedrohung darstellt. Mehr als die Hälfte der befragten Banken geben an, im Jahr 2023 zwischen fünf und 25 Millionen Dollar durch KI-gestützte Angriffe verloren zu haben. Finanzinstitute nutzen jedoch ebenfalls KI – zur Abwehr diverser Angriffe. Bei drei Viertel der Befragten verwendet der Arbeitgeber bereits KI zur Erkennung von Betrug oder Finanzkriminalität. 87 Prozent berichten, dass die Technologie die Reaktionsgeschwindigkeit auf potenzielle Bedrohungen erhöht hat.

Es zeichnet sich aber dennoch ab, dass trotz aller technischer Tools die Kommunikation essenziell ist. Mehr als 40 Prozent der Befragten geben an, dass ihr Unternehmen Betrug und Finanzkriminalität in getrennten Abteilungen behandelt und diese nicht zusammenarbeiten. 90 Prozent der Befragten sind der Meinung, dass Finanzinstitute und Regierungsbehörden mehr Informationen austauschen müssen, um Betrug und Finanzkriminalität zu bekämpfen. Fast jeder Befragte vermutet, dass er in den nächsten zwölf Monaten KI einsetzen wird, um Informationen über Hochrisikopersonen zwischen Banken auszutauschen.

"Heutzutage sind Betrüger organisiert und clever", sagt Gadi Mazor, CEO von Biocatch. Sie arbeiten zusammen und tauschen Informationen aus. Fraud-Fighter – einschließlich Banken, Regulierungs- sowie Strafverfolgungsbehörden und Lösungsanbietern – müssen genauso handeln. "Nur so können wir die steigenden Betrugszahlen weltweit wieder umkehren", sagt Mazor. (bpf, 25.4.2024)