Bordeaux, mars 2019
Lancement du club numérique franco-congolais
VivaTechnology 2019, AfricaTech
ATDA 2018, Paris, novembre 2019
Castres, université e_santé 2018
Rencontres Affaires Francophones, Paris 2018
Sommet PME Dakar Février 2018
Abidjan ATDA, 28 novembre 2017 Ministres Koné, Ancip, Lemoyne
Ministres
Paris ATDA, 25-27 octobre 2017
Abidjan ATDA, 28 novembre 2017
JADN 2016 - Cérémonie finale
ADD - Bamako 2017, Sommet des chefs d'Etat
ATDA, Paris, 25-27 octobre 2017
JADN2016
Digital African Tour, Ouagadougou 2017

Le développement et l’usage des technologies sont trop souvent biaisés par des préjugés racialisés, notamment lorsque les développeurs ne tiennent pas compte de l'ensemble des types humains à prendre en compte. La filiale de Google, Deepmind comme de nombreuses associations, appelle à s'en débarrasser.

Après la colonisation, la domination occidentale a survécu sous d’autres formes :  économique, politique ou encore culturelle. La technologie n’y fait pas exception et l’intelligence artificielle reproduit et renforce même parfois ces rapports de force, que les développeurs soient occidentaux ou asiatiques, lorsque aucune réflexion n’est engagée sur les préjugés de ceux qui la mettent en œuvre.

La filiale de Google, DeepMind, et l’Université d’Oxford ont publié ce mois-ci un article dans la revue Philosophy et Technology. Le texte a été rédigé avant la mort de George Floyd. Il est plus que jamais d'actualité. Un vif débat a d'ailleurs eu lieu récemment sur Twitter entre l'expert en IA de Facebook Yann Lecun et l'informaticienne et chercheuse Timnit Gebru.
Cette dernière s'est efforcée d'expliquer que l'IA ne présente pas seulement des biais à cause de bases de données qui peuvent être faussées. La façon dont elles sont développés est toute aussi critique car les critères retenus ne sont pas neutres et résultent toujours de choix humains, comme le faisait déjà observer la mathématicienne Cathy O'Neil dans Algorithmes, la bombe à retardement : ce sont les fameux biais cognitifs qui nous influencent dans la vie quotidienne comme dans la vie numérique.
Les auteurs de l'article relèvent de nombreuses pratiques problématiques. Certaines sont connues comme la police prédictive qui cible davantage les habitants des quartiers les plus pauvres, ce qui aboutit à leur surreprésentation dans les arrestations.
Les logiciels de reconnaissance faciale identifient également moins bien les personnes noires, conduisant à davantage d’erreurs. D’autres cas sont moins documentés comme les tests bêta de technologies qui ont lieu en toute impunité dans des pays non occidentaux.

C’est ainsi que la société Cambridge Analytica a expérimenté ses outils algorithmiques lors d’élections au Nigeria en 2015 et au Kenya en 2017. On appelle cela du dumping éthique. Cela consiste à délocaliser des études, des tâches et même des expérimentations sur des humains dans des pays aux législations moins protectrices : rien de nouveau sous le soleil c'est ce que font las multinationales dans le monde entier, cf. le célèbre exemple descall-centers indiens.

Il faut enfin s’interroger sur ceux et celles qui développent l’intelligence artificielle et qui décident des normes et des réglementations. Qui sont-ils ? D'où viennent-ils ? On trouve peu de personnes africaines, d’Asie du Sud ou latino-américaines.
Sans le partage de leur expérience et leur participation au débat, les biais demeureront. Ainsi, lors du G20 de 2019, l’Inde, l’Indonésie et l’Afrique du Sud ont refusé de signer l’Osaka Track, une déclaration visant à régir la circulation des données, car leurs préoccupations n’avaient pas été prises en compte.

Philosophie, histoire, géographie, sociologie, les sciences humaines ont donc beaucoup à apporter à l’intelligence artificielle, affirme la publication. Il est impératif de s’en nourrir pour parvenir à élaborer une approche scientifique critique. Dans l’espoir aussi de rééquilibrer les rapports sociaux et de mettre sur pied de nouvelles méthodes d'IA plus justes et plus inclusives.