Un principe crucial, tant pour les humains que pour les machines, est d’éviter les biais et donc de prévenir la discrimination. Les biais peuvent se produire dans les données ou dans le modèle algorithmique, par conséquent, les systèmes d’IA ne seront bons que dans la mesure où les données que nous y mettons sont bonnes. Ces mauvaises données peuvent contenir des biais raciaux, sexistes ou idéologiques implicites et la formation des systèmes d’IA qui les utilisent générera un problème permanent. Alors que nous travaillons à la création de systèmes d’IA auxquels nous pouvons faire confiance, il est essentiel de développer et de former ces systèmes avec des données impartiales et de concevoir des algorithmes qui peuvent être facilement expliqués. Nous pensons que les systèmes d’IA qui s’attaqueront aux biais seront les plus efficaces.
Les participants comprendront ce qu’est l’apprentissage automatique, l’importance des biais, comment l’IA peut être biaisée et affecter le processus d’apprentissage automatique, quels sont les risques et comment nous pouvons les éviter.