-
21:46
-
21:34
-
21:00
-
20:34
-
20:10
-
19:44
-
19:36
-
19:00
-
18:34
-
18:09
-
17:30
-
17:09
-
16:31
-
16:01
-
16:00
-
15:48
-
15:37
-
15:15
-
14:47
-
14:30
-
14:13
-
14:00
-
13:43
-
13:34
-
13:33
-
13:02
-
13:00
-
12:44
-
12:31
-
12:00
-
11:44
-
11:43
-
11:31
-
11:21
-
11:00
-
10:51
-
10:50
-
10:49
-
10:45
-
10:39
-
10:34
-
10:07
-
10:00
-
09:45
-
09:35
-
09:00
-
08:55
-
08:45
-
08:30
-
08:26
-
08:14
-
08:00
-
07:50
-
07:50
-
07:45
-
07:30
-
07:09
Suivez-nous sur Facebook
Attijariwafa bank alerte contre une usurpation d’identité numérique impliquant son PDG
Attijariwafa bank a publié ce vendredi 7 novembre 2025 un communiqué officiel pour dénoncer la diffusion d’une vidéo frauduleuse circulant sur internet et les réseaux sociaux. Le contenu, présenté sous la forme d’un faux reportage audiovisuel, utilise illégalement l’image, la voix et le nom du Président Directeur Général du groupe bancaire afin de tromper les internautes et de les rediriger vers une plateforme d’investissement fictive.
Imitant les codes visuels et éditoriaux d’un média national reconnu, cette vidéo a été conçue pour renforcer sa crédibilité auprès du grand public. Selon Attijariwafa bank, les éléments visuels et sonores ont été générés ou altérés à l’aide de technologies d’intelligence artificielle, illustrant une nouvelle forme de manipulation numérique, dite deepfake.
L’objectif de cette opération malveillante serait de faire croire à une initiative d’investissement soutenue par la banque, promettant des rendements irréalistes. Dans son communiqué, Attijariwafa bank dément catégoriquement toute implication dans ce projet et met en garde les internautes contre ce type de contenu trompeur.
L’établissement financier affirme également qu’il se réserve le droit d’entreprendre toutes les actions légales nécessaires pour protéger son image et celle de son Président Directeur Général. Il rappelle à ses clients et au grand public de faire preuve de vigilance face à la multiplication des arnaques numériques, notamment celles exploitant l’intelligence artificielle pour créer de fausses informations.
Cette affaire met en lumière les dérives potentielles des technologies de synthèse d’images et de voix, et souligne l’importance de renforcer la sensibilisation à la cybersécurité dans un contexte où la frontière entre le vrai et le faux devient de plus en plus floue sur les réseaux.