banner
Nachrichtenzentrum
Umfangreiches Wissen in Vertrieb und Produktion

Verbesserung der Betrugserkennung mit generativer KI

Jun 01, 2023

Die möglichen Anwendungen generativer KI wurden in den letzten Wochen von vielen untersucht. Ein wichtiges Thema, das jedoch noch nicht vollständig erforscht wurde, ist die Frage, wie durch generative KI erstellte Daten zur Erweiterung und Verbesserung von Betrugserkennungsstrategien genutzt werden könnten und welche Auswirkungen die Verwendung synthetischer Daten hat Daten zum Trainieren von Betrugsmodellen und zur Verbesserung der Erkennungsraten.

In Kreisen der Datenwissenschaft ist bekannt, dass die Qualität der Daten, die einem Modell für maschinelles Lernen präsentiert werden, über das Endergebnis entscheidet, und dies gilt insbesondere für die Betrugserkennung. Viele maschinelle Lerntools, die zur Betrugserkennung eingesetzt werden, basieren auf einem starken Betrugssignal – typischerweise weniger als 0,5 % der Daten – was es schwierig macht, jedes Modell effektiv zu trainieren. Bei einer idealen Data-Science-Übung würden die Daten, die zum Trainieren eines KI-Modells verwendet werden, eine 50/50-Mischung aus Betrugs-/Nicht-Betrugsproben enthalten. Dies ist jedoch schwierig zu erreichen und daher für viele möglicherweise unrealistisch. Zwar gibt es viele Methoden, mit diesem (Klassen-)Ungleichgewicht umzugehen, wie z. B. Clustering, Filterung oder Überabtastung, sie gleichen jedoch ein extremes Datenungleichgewicht zwischen echten und betrügerischen Datensätzen nicht vollständig aus.

Generative KI, die Anwendung transformatorischer tiefer neuronaler Netze wie ChatGPT von OpenAI, ist darauf ausgelegt, Datensequenzen als Ausgabe zu erzeugen und muss mithilfe sequenzieller Daten, wie beispielsweise Sätzen und Zahlungsverläufen, trainiert werden. Dies unterscheidet sich von vielen anderen Methoden, die einzelne „Klassifizierungen“ (Betrug/kein Betrug) auf der Grundlage der präsentierten Eingabe- und Trainingsdaten erstellen, die dem Modell in beliebiger Reihenfolge präsentiert werden können; Die Ausgabe einer generativen KI kann unbegrenzt fortgesetzt werden, während Klassifizierungsmethoden dazu neigen, einzelne Ausgaben zu erzeugen.

Generative KI ist daher das ideale Werkzeug zur synthetischen Generierung von Daten, die auf realen Daten basieren, und die Weiterentwicklung dieser Technologie wird wichtige Anwendungen im Bereich der Betrugserkennung haben, wo, wie bereits hervorgehoben, die Menge an brauchbaren Betrugsproben sehr gering ist und Es ist für maschinelles Lernen schwierig, effektiv daraus zu lernen. Mit generativer KI kann ein Modell vorhandene Muster nutzen und neue, synthetische Stichproben generieren, die „echten“ Betrugsstichproben ähneln, wodurch das Betrugssignal für zentrale Tools für maschinelles Lernen zur Betrugserkennung verstärkt wird.

Ein typisches Betrugssignal ist eine Kombination aus echten und betrügerischen Daten. Die echten Daten stehen (normalerweise) an erster Stelle in der Abfolge der Ereignisse und enthalten echte Verhaltensaktivitäten eines Karteninhabers, beispielsweise mit betrügerischen Zahlungen, sobald die Karte/andere Zahlungsmethode kompromittiert wurde. Generative KI kann ähnliche Zahlungsabläufe erzeugen und einen Betrugsangriff auf eine Karte simulieren, der dann zu Trainingsdaten hinzugefügt werden kann, um die maschinellen Lerntools zur Betrugserkennung zu unterstützen und ihnen zu einer besseren Leistung zu verhelfen.

Einer der größten Kritikpunkte an ChatGPT von OpenAI ist, dass die heutigen Modelle ungenaue oder „halluzinogene“ Ergebnisse liefern können – ein Fehler, über den sich viele im Zahlungs- und Betrugsbereich zu Recht Sorgen machen, da sie nicht möchten, dass ihre öffentlichen Tools, wie etwa Kundenservice-Chatbots, präsentieren falsche oder erfundene Informationen. Wir können diesen „Fehler“ jedoch bei der Generierung synthetischer Betrugsdaten ausnutzen, da synthetische Variationen in der synthetisierten Ausgabe völlig einzigartige Betrugsmuster erzeugen können, was die Betrugserkennungsleistung des End-Betrugsabwehrmodells verbessert.

Wie viele wissen werden, verbessern wiederholte Beispiele desselben Betrugssignals die Erkennung nicht effektiv, da die meisten Methoden des maschinellen Lernens nur sehr wenige Instanzen jedes einzelnen zum Lernen benötigen. Die Variation der generierten Ausgaben des generativen Modells erhöht die Robustheit des Endbetrugsmodells und ermöglicht es ihm, nicht nur die in den Daten vorhandenen Betrugsmuster zu erkennen, sondern auch ähnliche Angriffe zu erkennen, die mit einem herkömmlichen Verfahren leicht übersehen werden können.

Dies mag für Karteninhaber und Betrugsmanager etwas besorgniserregend sein – sie fragen sich zu Recht, wie ein auf erfundenen Daten trainiertes Betrugsmodell zur Verbesserung der Betrugserkennung beitragen kann und welche Vorteile dies haben könnte. Was ihnen möglicherweise nicht bewusst ist, ist, dass jedes Modell, bevor es für Live-Zahlungen verwendet wird, strenge Evaluierungsübungen durchläuft, um die erwartete Leistung sicherzustellen. Wenn das Modell die erwarteten extrem hohen Standards nicht erfüllt, wird es verworfen und es werden Ersatzmodelle trainiert, bis ein geeignetes Modell gefunden ist. Dabei handelt es sich um einen Standardprozess, der bei allen erstellten Machine-Learning-Modellen befolgt wird, da selbst Modelle, die auf authentischen Daten trainiert wurden, in der Evaluierungsphase zu minderwertigen Ergebnissen führen können.

Generative KI ist ein faszinierendes Werkzeug mit vielen Anwendungen in einer Vielzahl von Branchen, aber die heutigen Iterationen, so clever sie auch sein mögen, haben ihre Probleme. Glücklicherweise sind die Merkmale, die für einige Branchen als sehr ernste Probleme angesehen werden, für andere wichtige Merkmale, aber die Forderung nach strenger Regulierung und Governance bleibt bestehen. Der zukünftige Einsatz generativer KI erfordert eine vollständige Überprüfung der Art und Weise, wie Modelle verwendet werden, die auf teilweise generierten Daten trainiert werden, und die Governance-Prozesse sollten entsprechend verschärft werden, um sicherzustellen, dass das erforderliche Verhalten und die Leistung der Tools ständig erfüllt werden.

Oliver Tearle ist Head of Innovation Technology bei The ai Corporation (ai), einem Spezialisten für Online-Zahlungsbetrugsprävention. ai genießt auf der ganzen Welt Vertrauen bei der Entwicklung innovativer Betrugs- und Zahlungstechnologien, die es Kunden ermöglichen, vorhersehbare Erfolge zu erzielen und profitabel zu wachsen.

FinTech LIVE London – die führende Veranstaltung in den Bereichen Fintech, Bankwesen und Finanzdienstleistungen – ist zurück mit einigen Top-Rednern und einem actiongeladenen Programm …

Das FinTech Magazine spricht mit Glory Eromosele von Techstars darüber, wie Sie Ihren Pitch bei Investoren verfeinern und wie sich das Fundraising-Umfeld für Startups verändert …

Die Gründerin und CEO der Starling Bank, Anne Boden, ist von ihrer Position als CEO zurückgetreten, um Interessenkonflikten vorzubeugen …