-
19:00
-
18:44
-
18:31
-
18:10
-
18:00
-
17:49
-
17:44
-
17:30
-
17:07
-
16:45
-
16:31
-
16:14
-
16:12
-
16:06
-
16:00
-
15:45
-
15:38
-
15:34
-
15:00
-
14:44
-
14:30
-
14:15
-
14:14
-
14:00
-
13:42
-
13:33
-
13:32
-
13:28
-
13:24
-
13:20
-
13:13
-
13:10
-
13:00
-
12:51
-
12:44
-
12:31
-
12:00
-
11:50
-
11:44
-
11:39
-
11:31
-
11:00
-
10:55
-
10:44
-
10:37
-
10:27
-
10:20
-
10:09
-
09:55
-
09:44
-
09:41
-
09:36
-
09:30
-
09:25
-
09:10
-
08:56
-
08:40
-
08:33
-
08:30
-
08:23
-
08:07
-
08:00
-
07:50
-
07:30
-
07:20
-
07:09
-
22:44
-
22:34
-
22:10
-
21:41
-
21:12
-
20:44
-
20:12
-
19:33
-
19:10
Suivez-nous sur Facebook
Agents IA : la nouvelle porte d’entrée des cyberattaques
L’essor fulgurant des assistants d’intelligence artificielle ouvre un nouveau front dans la cybersécurité. Selon plusieurs experts, ces outils, désormais intégrés aux navigateurs et systèmes d’entreprise, deviennent des cibles privilégiées pour une forme d’attaque émergente : l’injection de requête. Cette technique consiste à dissimuler des instructions malveillantes dans des pages web, courriels ou images, que l’IA exécute ensuite à l’insu de l’utilisateur.
Baptisée prompt injection, cette menace est considérée par Meta comme une simple “vulnérabilité”, tandis que le directeur de la sécurité d’OpenAI, Dane Stuckey, y voit “un problème de sécurité encore non résolu”.
De l’assistant à l’agent autonome
Apparu il y a trois ans, le concept restait jusqu’ici marginal, les chatbots n’ayant qu’un rôle passif de génération de texte ou de code. Mais l’arrivée des agents IA autonomes, capables d’agir seuls en ligne, change radicalement la donne.
Ces programmes peuvent désormais naviguer sur internet, accéder à des bases de données ou interagir avec d’autres systèmes informatiques — autant d’opportunités pour les cybercriminels.
“Pour la première fois depuis des décennies, de nouveaux vecteurs d’attaque peuvent venir de n’importe où”, alerte Perplexity, moteur de recherche fondé sur l’IA, à l'AFP. Ces attaques ne nécessitent plus de hautes compétences techniques : un simple texte invisible dans un document ou un lien falsifié peut suffire.
Un risque systémique
L’agent IA, une fois trompé, peut extraire des données sensibles, modifier des fichiers ou encore manipuler le comportement d’un site web. “C’est le problème de sécurité numéro un pour les grands modèles de langage”, prévient Eli Smadja, manager chez Check Point.
Les grands acteurs de l’IA réagissent. Microsoft a intégré un détecteur d’ordres suspects dans ses modèles, tandis qu’OpenAI alerte les utilisateurs lorsqu’un agent accède à un site sensible. D’autres recommandent de valider manuellement chaque action critique effectuée par une IA.
Entre sécurité et praticité
Le défi, selon les experts, réside dans l’équilibre entre sécurité et confort d’usage. “Les utilisateurs veulent que l’IA agisse à leur place sans avoir à la surveiller en permanence”, note Johann Rehberger, chercheur en cybersécurité connu sous le pseudonyme wunderwuzzi.
Pour Marti Jorda Roca de NeuralTrust, les risques doivent être pris en compte “à tous les niveaux” : les individus doivent comprendre les dangers, et les entreprises mettre en place des garde-fous adaptés.
L’adoption massive des agents IA dans les secteurs sensibles — banques, santé, administrations — pourrait s’en trouver ralentie. “L’intelligence artificielle n’est pas encore assez mûre pour agir seule sur de longues périodes”, conclut Rehberger. “Elle finit toujours, d’une manière ou d’une autre, par dérailler.”