c219 13:01 « Walaw » : Afromed tire la sonnette d’alarme face aux discours racistes autour de la CAN 2025 13:00 Le Maroc pourrait connaître une croissance de 5,7 % en 2026, selon le CMC 12:32 CAN à Rabat : après les tensions, le Sénégal et le Maroc misent sur l’apaisement 12:00 CAN 2025 : la justice réagit après les incidents au complexe Prince Moulay Abdellah 11:30 Davos : le président américain lève ses droits de douane après l’annonce d’un cadre pour l’Arctique 11:00 Céréales russes : le Maroc parmi les premières destinations des exportations via la Baltique 10:30 Sécurité maritime : Zakia Driouich conduit la troisième réunion de la commission centrale 10:02 Espagne : deux accidents ferroviaires en 48 heures soulèvent des inquiétudes 09:30 Conseil de la paix : le Maroc au centre d’une nouvelle dynamique diplomatique 09:01 1.500 entreprises marocaines soutenues par un programme stratégique du FM6I 08:30 Maroc-Arabie saoudite : un soutien renforcé à la Palestine 08:00 Agadir hôte du premier forum national de la police administrative 07:30 Maroc–Sénégal : Rabat accueille une nouvelle commission mixte de partenariat 07:00 Marché obligataire : rendement en baisse et financement public sécurisé au Maroc 22:40 Mondelez Maroc sacré Top Employer 2026 et confirme l’excellence de sa stratégie RH 22:30 Casablanca, Rabat, Tanger : le contrôle fiscal des terrains nus s’intensifie 22:03 PineDrama : TikTok expérimente les micro-séries avec une nouvelle application dédiée à la fiction mobile 21:40 Tempête Harry : l’Italie place plusieurs régions en alerte maximale face à des intempéries exceptionnelles 21:16 Four Seasons Resort Marrakech nomme Michael Mestraud Vice-Président Régional et Directeur Général 20:44 Réchauffement climatique : 2025 confirme la surchauffe historique des océans mondiaux 20:30 Ilias Akhomach vers un prêt au Rayo Vallecano pour relancer sa saison 20:02 Vacances scolaires : ADM anticipe un trafic soutenu sur le réseau autoroutier national 20:02 Walid Regragui sacré meilleur entraîneur de la CAN 2025 par la CAF 20:00 Finale houleuse au Maroc : Henry critique la sortie du terrain du Sénégal 19:44 Présidentielle 2026 en République du Congo : le scrutin fixé au 15 mars 19:31 Transition énergétique : le Japon mise de nouveau sur le nucléaire avec Kashiwazaki-Kariwa 19:00 Mort en exil de Rifaat al-Assad, symbole de la répression syrienne 18:44 Prison El Jadida : une pépinière innovante pour former les détenus aux métiers agricoles 18:30 Bouskoura Park : un resort urbain de plus de 300 millions de dirhams voit le jour à Nouaceur 18:00 Prix à la consommation : tension sur la viande, équilibre sur fruits et légumes 17:44 Véhicules de collection : la FMVA porte le savoir-faire marocain au Salon Rétromobile Paris 17:30 CAN 2025 : les coulisses d’un moment de tension racontées par Claude Le Roy 17:07 Manchester United aménage la reprise de Noussair Mazraoui après la finale de la CAN 17:00 Après la CAN 2025 : le Maroc confronté à une vague de rumeurs et de désinformation sur les réseaux sociaux 16:44 Énergie solaire : Noor Ouarzazate I dépasse sa capacité nominale et établit un record historique 16:30 Du croquis à la scène : Yves Saint Laurent révèle son théâtre au mYSLm 16:00 Maroc-UE : 2,5 milliards de dirhams pour accélérer les réformes nationales 15:44 Alliances développement immobilier : un virage stratégique vers l’hôtellerie haut de gamme 15:30 CAN 2025 : le Maroc brille dans le onze type avec quatre joueurs à égalité avec le Sénégal 15:29 Alerte météo au Maroc : neige, pluies intenses et vents forts attendus dans plusieurs régions 15:05 Lesieur Cristal renforce son ancrage à Kelaa Des Sraghna lors du Salon national de l’Olivier d’El Attaouia 14:44 Côte d’Ivoire : Alassane Ouattara reconduit Robert Beugré Mambé au poste de Premier ministre 14:30 Province d’Errachidia : une caravane médicale multidisciplinaire au service des habitants de Tadighoust 14:27 Aéroport Marrakech-Menara : arrestation d’un ressortissant français recherché avec un faux passeport 14:15 Santé et innovation : la FM6SS et GSK Maroc lancent un partenariat stratégique 14:06 Souveraineté alimentaire : l’État et l’OCP unissent leurs forces 14:04 Rehamna : des projets agricoles d’envergure lancés à Bouchane pour soutenir les éleveurs 13:40 Barrages : les réserves d’eau progressent fortement et offrent un répit hydrique au Maroc 13:30 Détournements de fonds à la Fédération de basketball : verdicts rendus 13:24 HONOR dévoile le X9d, un nouveau smartphone milieu de gamme axé sur la robustesse et l’autonomie 13:17 L’Égypte accepte de rejoindre le « Conseil de paix » proposé par Donald Trump
  • Fajr
  • Lever du soleil
  • Dhuhr
  • Asr
  • Maghrib
  • Isha

Racisme: Quand l'Intelligence artificielle déraille !

Mardi 27 Octobre 2020 - 12:30
Racisme: Quand l'Intelligence artificielle déraille !

"Siri, quel temps fera-t-il demain ?", "Siri, qu'est-ce que j’ai de prévu la semaine prochaine ?", "Siri, est-ce que tu m’aimes ?". L’IA est à la mode et elle est partout : téléphones, assistants personnels, jeux vidéo, robots, transports… Cette intelligence artificielle (IA), qui accompagne le quotidien de plusieurs individus, aide à la prise de décision dans plusieurs entreprises et qui bientôt sera capable de raisonner au moins aussi bien que ne le fait un être humain, est au coeur d’une nouvelle polémique.

L’IA est-elle raciste? Ses algorithmes sont-ils sensibles à la couleur, au sexe ou à la religion? Ces questions sont revenues sur le devant de la scène dans la foulée des émeutes suscitées par la mort de George Floyd et les biais dus à l’usage des technologies de reconnaissance faciale dans le cadre du maintien de l’ordre aux Etats-Unis.

Les dérapages constatés dans les expériences menées avec l’IA ne se limitent pas à la reconnaissance faciale mais englobent plusieurs autres applications. Au-delà de l'ethnicité ou de la couleur, l’IA peut être sexiste, sélective et même discriminatoire dans ses "décisions". En attestent les multiples projets entamés et abandonnés en cours de chemin: recrutement, achat de produits, accès aux soins... L’IA et ses technologies ne font pas mieux que l’être humain. Les femmes y sont associées au foyer et aux métiers de la com’, les hommes aux professions scientifiques, les prix des produits et services dépendent de la géolocalisation et du milieu social, les recrutements favorisent un sexe sur un autre…. Ces stéréotypes ont tellement la peau dure qu’ils se trouvent reproduits dans des programmes d’intelligence artificielle.


"Tel maître, tel chien"

 

"L’expression +Tel maître, tel chien+ n'est pas applicable qu'à nos animaux de compagnie, elle fonctionne aussi très bien pour l'intelligence artificielle, c'est même l'une de ses principales failles". Or, cette intelligence et les algorithmes qui en découlent ne sont pas à blâmer principalement parce que l'IA ne connaît que ce qu’on lui montre. Si un logiciel est entraîné à reconnaître uniquement des visages de personnes "blanches", il ne pourra pas savoir qu’il existe aussi des personnes qui ne sont pas blanches. Ou alors, il les considérera comme une donnée "anormale". Cela vaut pour toute autre notion.

En 2014, une expérience de "machine learning" a été menée par les équipes d’Amazon. Cette expérience vise à entraîner la machine à sélectionner les meilleurs profils techniques, particulièrement des développeurs, à partir d’une banque de CV envoyés à l’entreprise. Un an plus tard, un constat alarmant a été fait. L’outil "n’aimait pas les femmes". En effet, le choix opéré par la machine n’est pas sexiste. La machine étant "bête", l’outil, qui avait été nourri des données de recrutement des dix dernières années dont la grande majorité des candidats, et des embauchés, étaient des hommes, a appris seul que les candidatures masculines étaient préférables et a pénalisé les CV contenant le mot "femme". L’entreprise a fini par abandonner le projet.

Et ce n’est pas le seul. Finalement, puisque "les algorithmes de l’IA ont moins de sens commun qu'un rat", s’il fallait agir sur la source du problème, ce n’est pas l’IA qu’il faut modifier. Ce serait les humains… "Les humains peuvent mentir sur les raisons pour lesquelles ils n’embauchent pas quelqu’un. A l’inverse, les algorithmes ne mentent pas et ne nous trompent pas", affirme, dans le Guardian, Sandra Wachter, chercheuse en éthique des données et des algorithmes à Oxford. Artificielle mais sincère, au moins !

Source : MAP 



Lire la suite

Ce site, walaw.press, utilise des cookies afin de vous offrir une bonne expérience de navigation et d’améliorer continuellement nos services. En continuant à naviguer sur ce site, vous acceptez l’utilisation de ces cookies.