Urgent 21:00 Bourse de Casablanca : une séance en nette progression portée par l’ensemble des indices 20:30 Urbanisme au Maroc : un nouveau projet de loi pour remettre de l’ordre dans les lotissements 20:00 Euphoria : Zendaya, Sydney Sweeney et Jacob Elordi au cœur d’intrigues intenses dans la saison 3 19:38 Les Impériales 2026 : Dari s’impose comme love brand dans la catégorie food 19:30 Le Maroc parmi les principaux clients du bétail brésilien malgré le recul des exportations 19:00 Marsa Maroc muscle le port de Casablanca avec un investissement stratégique de 475 MDH 18:33 Baisse des légumes à Casablanca : le marché respire, les viandes se stabilisent 18:00 Le Maroc perd du terrain sur le marché européen des agrumes face à une concurrence accrue 17:30 Carburants au Maroc : une nouvelle flambée des prix ravive les tensions 17:24 Impériales Week 2026 : BYD s’affirme comme acteur majeur de l’innovation au Maroc 17:02 Paiements digitaux : Naps démocratise la centralisation pour tous les commerçants 16:32 Intelligence artificielle : le pari gagnant de la Chine dans la course aux licornes 16:01 Pétrole : le marché respire après les annonces de Donald Trump sur l’Iran 15:50 Maroc-Union africaine : Bourita et Ali Youssouf renforcent le partenariat panafricain 15:30 Walid Regragui courtisé : le Ghana rêve d’un nouveau souffle pour les Black Stars 15:03 Habillement : comment l’Asie redessine le marché européen et défie le Maroc 14:30 Affaire Adam Benchakroun : lourdes condamnations pour “Moulinex” et les principaux protagonistes 14:00 Beyrouth sous le feu : Israël frappe le sud du Liban et menace d’occuper la région 13:46 Belalia Amine : « Le CHR marque le retour d’un pilier de l’hybride au Maroc » 13:30 Arnaques en ligne : le Maroc intensifie la lutte contre le marketing pyramidal 13:04 Conflit au Moyen-Orient : Israël frappe l’Iran, le spectre d’une guerre régionale se précise 12:30 Bourse de Casablanca : une ouverture en nette hausse 12:00 La police saisit 865 kg de résine de cannabis à Rabat lors d’une opération conjointe avec la DGST 11:30 Noor Atlas : Synergy Consulting soutient Masen dans un montage financier innovant pour 305 MW solaires 11:16 Barid Al-Maghrib obtient l’agrément d’horodatage qualifié et consolide la confiance numérique au Maroc 11:01 Importations en hausse, déficit creusé : les échanges extérieurs sous pression 10:30 Lithium au Sahara : le Maroc se positionne dans une future chaîne industrielle stratégique 10:02 Industrie au Maroc : les prix à la production reculent légèrement en février 2026 09:52 Observance thérapeutique au Maroc : Cooper Pharma lance les premières assises pour améliorer le suivi des traitements 09:30 Tourisme : des recettes en forte hausse à fin février 2026 09:25 Arnaques en ligne : Attijariwafa bank alerte sur des usurpations d’identité et appelle à la vigilance 09:10 Maroc : Mohamed Ouahbi fixe le cap sur la Coupe du Monde 2026 après la victoire contre le Paraguay 09:04 Finance mondiale : Casablanca confirme son ambition et séduit les investisseurs 08:53 Les Impériales Week 2026 : une troisième journée sous le signe de l’intelligence collective et de l’action 08:36 Maroc : 95 % des eaux de baignade conformes, mais la pollution plastique persiste 08:30 Carburants : le Conseil de la concurrence pointe des écarts de prix et des dynamiques d’alignement au Maroc 08:03 Patrimoine en péril : l’Intérieur frappe fort après une démolition illégale à Casablanca 07:30 Automobile : les exportations marocaines dépassent 26 milliards de dirhams à fin février 2026 07:00 Maison Blanche : un juge suspend le projet de salle de bal porté par Donald Trump

Racisme: Quand l'Intelligence artificielle déraille !

Mardi 27 Octobre 2020 - 12:30
Racisme: Quand l'Intelligence artificielle déraille !

"Siri, quel temps fera-t-il demain ?", "Siri, qu'est-ce que j’ai de prévu la semaine prochaine ?", "Siri, est-ce que tu m’aimes ?". L’IA est à la mode et elle est partout : téléphones, assistants personnels, jeux vidéo, robots, transports… Cette intelligence artificielle (IA), qui accompagne le quotidien de plusieurs individus, aide à la prise de décision dans plusieurs entreprises et qui bientôt sera capable de raisonner au moins aussi bien que ne le fait un être humain, est au coeur d’une nouvelle polémique.

L’IA est-elle raciste? Ses algorithmes sont-ils sensibles à la couleur, au sexe ou à la religion? Ces questions sont revenues sur le devant de la scène dans la foulée des émeutes suscitées par la mort de George Floyd et les biais dus à l’usage des technologies de reconnaissance faciale dans le cadre du maintien de l’ordre aux Etats-Unis.

Les dérapages constatés dans les expériences menées avec l’IA ne se limitent pas à la reconnaissance faciale mais englobent plusieurs autres applications. Au-delà de l'ethnicité ou de la couleur, l’IA peut être sexiste, sélective et même discriminatoire dans ses "décisions". En attestent les multiples projets entamés et abandonnés en cours de chemin: recrutement, achat de produits, accès aux soins... L’IA et ses technologies ne font pas mieux que l’être humain. Les femmes y sont associées au foyer et aux métiers de la com’, les hommes aux professions scientifiques, les prix des produits et services dépendent de la géolocalisation et du milieu social, les recrutements favorisent un sexe sur un autre…. Ces stéréotypes ont tellement la peau dure qu’ils se trouvent reproduits dans des programmes d’intelligence artificielle.


"Tel maître, tel chien"

 

"L’expression +Tel maître, tel chien+ n'est pas applicable qu'à nos animaux de compagnie, elle fonctionne aussi très bien pour l'intelligence artificielle, c'est même l'une de ses principales failles". Or, cette intelligence et les algorithmes qui en découlent ne sont pas à blâmer principalement parce que l'IA ne connaît que ce qu’on lui montre. Si un logiciel est entraîné à reconnaître uniquement des visages de personnes "blanches", il ne pourra pas savoir qu’il existe aussi des personnes qui ne sont pas blanches. Ou alors, il les considérera comme une donnée "anormale". Cela vaut pour toute autre notion.

En 2014, une expérience de "machine learning" a été menée par les équipes d’Amazon. Cette expérience vise à entraîner la machine à sélectionner les meilleurs profils techniques, particulièrement des développeurs, à partir d’une banque de CV envoyés à l’entreprise. Un an plus tard, un constat alarmant a été fait. L’outil "n’aimait pas les femmes". En effet, le choix opéré par la machine n’est pas sexiste. La machine étant "bête", l’outil, qui avait été nourri des données de recrutement des dix dernières années dont la grande majorité des candidats, et des embauchés, étaient des hommes, a appris seul que les candidatures masculines étaient préférables et a pénalisé les CV contenant le mot "femme". L’entreprise a fini par abandonner le projet.

Et ce n’est pas le seul. Finalement, puisque "les algorithmes de l’IA ont moins de sens commun qu'un rat", s’il fallait agir sur la source du problème, ce n’est pas l’IA qu’il faut modifier. Ce serait les humains… "Les humains peuvent mentir sur les raisons pour lesquelles ils n’embauchent pas quelqu’un. A l’inverse, les algorithmes ne mentent pas et ne nous trompent pas", affirme, dans le Guardian, Sandra Wachter, chercheuse en éthique des données et des algorithmes à Oxford. Artificielle mais sincère, au moins !

Source : MAP 


  • Fajr
  • Lever du soleil
  • Dhuhr
  • Asr
  • Maghrib
  • Isha

Lire la suite

Ce site, walaw.press, utilise des cookies afin de vous offrir une bonne expérience de navigation et d’améliorer continuellement nos services. En continuant à naviguer sur ce site, vous acceptez l’utilisation de ces cookies.