Urgent 08:13 Acaps–BAD : une alliance stratégique pour moderniser l’assurance marocaine 08:12 Sahara : les États-Unis misent sur Dakhla pour implanter un data center stratégique 07:56 Botola Pro : la Commission de discipline frappe fort après les violences du Clasico 21:01 Pétrole : la crise au Moyen-Orient enflamme les marchés mondiaux 20:01 Le tourisme marocain franchit un cap historique avec 31 mmdh de recettes au t1-2026 19:03 1er mai au Maroc : les syndicats montent au front pour les salaires et les retraites 18:05 Tensions Iran–États-Unis : Téhéran relance la diplomatie sous pression du conflit 17:00 Expulsions américaines vers l’Afrique : deux Marocaines finalement de retour au pays 16:02 AFD : Lecourtier accélère le virage stratégique vers le Sud marocain 15:02 Casablanca accueille un symbole fort du partenariat stratégique entre le Maroc et les États-Unis 14:02 La Bourse de Casablanca s’envole en avril avec un MASI en forte hausse 13:04 La FIFA choisit Rabat : le Maroc au centre des grandes décisions du football mondial en 2027 12:02 Intelcia accélère sa transformation et vise le top 10 mondial de l’outsourcing 11:01 Dialogue social au Maroc : Un bilan revendiqué à l’occasion du 1er mai 10:02 Médicaments au Maroc : les pharmaciens exigent une réforme équitable et concertée 09:31 Crise au Moyen-Orient : entre blocage d’Ormuz et tensions politiques à Washingto 09:28 Maroc–États-Unis : un nouveau consulat pour sceller une alliance stratégique durable 09:02 Violence ciblée et alerte maximale : Golders Green au cœur des inquiétudes britanniques

IA : Les réponses courtes sont souvent les plus fausses, selon une étude

Vendredi 09 Mai 2025 - 13:30
IA : Les réponses courtes sont souvent les plus fausses, selon une étude

Demander à une intelligence artificielle d’être « concise » pourrait bien altérer sa fiabilité. C’est le principal enseignement d’une nouvelle étude publiée par Giskard, une start-up parisienne spécialisée dans les tests d’IA, qui tire la sonnette d’alarme sur un biais méconnu mais préoccupant : les réponses brèves favorisent les erreurs.

En analysant des centaines de cas d’usage impliquant des chatbots basés sur des modèles de langage avancés, Giskard a démontré que les requêtes incitant à donner des réponses « courtes » ou « succinctes » augmentaient la probabilité de générer ce que l’on appelle des « hallucinations » – ces réponses incorrectes mais formulées avec un faux vernis de certitude.

Selon les auteurs, ce phénomène touche même les modèles les plus récents et performants, comme GPT-4o d’OpenAI, Mistral Large ou Claude 3.7 Sonnet d’Anthropic. Lorsqu’on leur impose de réduire la longueur de leurs réponses, leur taux d’erreurs factuelles grimpe. Les sujets ambigus ou complexes sont les plus touchés par ce biais, ce qui compromet la fiabilité des systèmes dans des contextes sensibles, comme l'éducation, la santé ou la finance.

« Nos données montrent que de simples modifications dans les instructions système peuvent profondément affecter le comportement des modèles », note l’équipe de Giskard. L’étude souligne que dans la course à la rapidité et à l’économie de données, certaines plateformes sacrifient sans le vouloir la précision au profit de la concision, une stratégie qui pourrait se retourner contre elles à long terme.

Plus préoccupant encore, l’étude révèle que les derniers modèles – censés être plus robustes – sont en réalité plus enclins à halluciner dans ces contextes que certains modèles précédents. Autrement dit, la sophistication technologique ne garantit pas toujours une meilleure véracité, surtout si les instructions données aux modèles ne sont pas optimisées.

Ces conclusions soulignent l’importance de concevoir des interfaces et des prompts qui tiennent compte de ce biais. Dans un monde où les assistants virtuels sont de plus en plus intégrés dans nos usages quotidiens, le choix des mots compte. L’instruction « soyez concis », anodine en apparence, peut influencer la fiabilité de la réponse bien plus qu’on ne l’imagine.


  • Fajr
  • Lever du soleil
  • Dhuhr
  • Asr
  • Maghrib
  • Isha

Lire la suite

Ce site, walaw.press, utilise des cookies afin de vous offrir une bonne expérience de navigation et d’améliorer continuellement nos services. En continuant à naviguer sur ce site, vous acceptez l’utilisation de ces cookies.