logo_blanc
Rechercher

TRIBUNE | « Mon client est-il un humain ? »: les banques doivent s’appuyer sur l’IA pour démasquer la fraude automatisée

Michèle Hallak, Directrice Régionale France de Feedzai.Michèle Hallak, Directrice Régionale France de Feedzai.

Dans cette tribune exclusive pour Forbes France, Michèle Hallak, Directrice Régionale France de Feedzai, nous explique comment l’IA générative est utilisée à des fins de criminalité financière et comment les banques peuvent se défendre contre cette fraude automatisée. 

L’IA générative (GenAI) change la donne pour les entreprises et devient le nouvel outil des fraudeurs. Réglementer l’IA et élargir le rôle d’identificateurs des acteurs technologiques dans le secteur des services financiers est essentiel pour parvenir à freiner l’évolution de l’escroquerie.

Selon le Global Financial Crime Report du Nasdaq de 2024, les escroqueries et les fraudes bancaires ont entraîné des pertes de 485,6 milliards de dollars à l’échelle mondiale en 2023. Ces pertes considérables montrent qu’il est plus important que jamais pour les banques de garder une longueur d’avance sur les criminels. Il faut aider les banques à passer de la réaction à la fraude à la prévention de la fraude.

L’IA générative ouvre la voie à la fraude automatisée et à la criminalité financière

Avec des tactiques existantes comme l’ingénierie sociale, l’accès à des informations sensibles publiées sur le dark web à la suite de violations de données, les réseaux sociaux et les données bancaires volées, les fraudeurs peuvent améliorer massivement leurs arnaques.

Non seulement les escrocs peuvent créer de nouvelles identités plus rapidement, mais la GenAI confère également à ces identités une plus grande crédibilité. La capacité de créer de fausses images, de fausses vidéos ou même de faux enregistrements vocaux permet de construire un personnage avec sa propre identité, de toute pièce.

Avec la capacité de passer des contrôles d’authentification, l’IA générative se transforme en un formidable outil pour la criminalité financière. Dans ce contexte, tout porte à croire que les banques seront tentées de remettre en question l’authenticité de chaque interaction à mesure que ces outils deviendront plus répandus et plus avancés.

La fraude en tant que service gagne du terrain

Grâce à l’IA générative, les centres d’appels peuvent désormais recueillir rapidement des informations sur leurs cibles, apprendre les opérations d’organisation et adapter les attaques à des banques spécifiques. Ce phénomène est particulièrement inquiétant pour les fraudes aux nouveaux comptes et aux demandes d’ouverture de comptes.

Les criminels peuvent utiliser les outils de GenAI pour apprendre les différentes dispositions et étapes des écrans des banques. Grâce à cette connaissance du fonctionnement des différentes organisations, les criminels peuvent écrire des scripts pour remplir rapidement les formulaires et créer des identités d’apparence crédible pour commettre des fraudes à l’ouverture de compte. Les banques ne devront plus seulement répondre à la question « Est-ce la bonne personne ? » mais aussi à la question « Mon client est-il un humain ou une IA ? »

Le partage de la responsabilité en matière de fraude prend forme

Au Royaume-Uni, la réglementation du Payment System Regulator (PSR) devrait entrer en vigueur l’année prochaine. Le modèle de responsabilité partagée de la PSR pour les escroqueries répartira la responsabilité des escroqueries à parts égales entre les banques émettrices et les banques réceptrices.

Cette répartition équitable de la responsabilité crée un précédent mondial qui exige que toutes les personnes concernées par la fraude et les escroqueries acceptent un certain niveau de responsabilité. Ce changement incitera également les banques à modifier leur approche traditionnelle des pertes dues aux escroqueries.

Au lieu de détecter les escroqueries une fois qu’elles ont eu lieu, les banques doivent s’efforcer de les prévenir dès le départ. Cela les incite à adopter des stratégies de surveillance et de prévention en temps réel, dépassant ainsi l’approche réactive traditionnelle.

Cette modification de la responsabilité ne restera pas longtemps une question propre au Royaume-Uni. La pression continue de monter dans d’autres juridictions, telles que les États-Unis et l’Australie, où les demandes en faveur d’une meilleure protection des consommateurs s’intensifient de jour en jour.

Adopter la puissance de l’IA est nécessaire

Les entreprises ont besoin d’outils avancés de prévention de la fraude pour se protéger contre les menaces induites par l’IA. Les systèmes de détection de la fraude alimentés par l’IA permettent aux organisations d’analyser des quantités massives de données de transaction en temps réel, en découvrant des modèles cachés et des signaux d’alerte que les méthodes traditionnelles pourraient manquer.

Les alertes générées par l’IA devraient inclure des explications claires afin que les analystes humains puissent comprendre le raisonnement derrière les problèmes potentiels et prendre des décisions éclairées. Les algorithmes d’IA peuvent être biaisés et nécessitent une surveillance et une amélioration constantes. C’est pourquoi l’expertise humaine reste un élément essentiel de la prise de décision basée sur l’IA.

Les banques peuvent utiliser l’IA pour passer à des mesures proactives en prédisant les risques futurs à l’aide de l’évaluation des risques. Cependant, les banques qui l’utilisent pour l’évaluation du crédit ou la détection des fraudes, entre autres applications, devront veiller à ce que leurs systèmes soient efficaces, mais aussi éthiques, transparents et responsables.

S’attendre à plus de collaboration FinServe

La collaboration devient le mot d’ordre, car les banques unissent de plus en plus leurs forces à celles d’autres institutions financières, y compris les fintechs et les regtechs. L’objectif est de partager des données et des connaissances afin de renforcer les défenses contre les systèmes de fraude transfrontaliers. Cependant, les banques hésitent à partager des informations si elles craignent de s’exposer à des problèmes juridiques.

Pour améliorer le partage des données et la collaboration, les régulateurs doivent clarifier ou assouplir leur position à l’égard des banques. L’objectif est la collaboration, mais une plus grande clarté est nécessaire au plus haut niveau pour s’assurer que les données sont partagées correctement.

Les institutions financières peuvent également optimiser l’allocation des ressources grâce à des informations basées sur des données, en concentrant leur attention sur les cas à haut risque. Cela réduit la nécessité de mener des enquêtes manuelles approfondies sur chaque transaction, ce qui permet aux équipes de hiérarchiser leurs efforts de manière efficace. En conséquence, l’organisation peut améliorer son efficacité et réduire ses coûts en déjouant les cas de fraude les plus importants.

L’IA et l’apprentissage automatique: Un bouclier contre la fraude

Les banques ont besoin de l’IA et de l’apprentissage automatique pour détecter et prévenir la fraude en temps réel. L’analyse de la fraude permet non seulement de réduire les pertes potentielles liées à celle-ci, mais aussi de renforcer la confiance des clients dans leurs banques.

L’analyse de la fraude combine l’intelligence artificielle (IA), l’apprentissage automatique et l’analyse prédictive pour une analyse avancée des données, ce qui permet aux banques d’examiner de grands volumes de données et d’en tirer rapidement des enseignements afin de réagir en temps réel en cas de suspicion de fraude.

D’après notre expérience avec les banques britanniques, celles-ci parviennent aujourd’hui à détecter la moitié des transactions potentiellement frauduleuses, mais l’utilisation de l’intelligence artificielle et de l’apprentissage automatique a permis de détecter 30 % des fraudes, évitant ainsi des millions de pertes potentielles liées à la fraude. En outre, les capacités de la GenIA ont permis de réduire de 40 % les faux positifs. Cela a permis aux banques d’offrir une expérience client plus transparente et sans friction.

À l’ère du big data, les banques ne peuvent plus compter uniquement sur les systèmes traditionnels basés sur des règles pour détecter les transactions frauduleuses. Les fraudeurs apprennent rapidement les règles d’une banque et trouvent des moyens de commettre des fraudes sans être détectés. Chaque nouvelle tactique de fraude induit un nouvel enseignement, poussant les banques dans un jeu du chat et de la souris sans fin.

Pour les banques et les institutions financières, l’évolution du paysage réglementaire autour de l’IA présente à la fois des défis et des opportunités. D’une part, les institutions doivent faire preuve d’agilité dans la mise à jour de leurs processus pilotés par l’IA afin de se conformer aux nouvelles directives tout en tenant compte des responsabilités potentielles. D’autre part, le respect de ces principes peut renforcer la confiance des clients et des parties prenantes, très précieuse dans le monde de la finance.

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC