Inviter la société civile à participer à la conversation sur l’IA

Publié le 4 juin 2024

Nathalie Guay a été invitée à réagir à un texte de Karine Gentelet, professeure associée en sciences sociales à l’Université du Québec en Outaouais. Ce texte a originellement été publié en anglais dans la revue Issues and Science Technology et traduit par l’autrice.  

Les propositions de Karine Gentelet pour favoriser une contribution citoyenne au développement de l’IA sont pertinentes dans le cadre des discussions sur l’encadrement légal de l’intelligence artificielle (IA) et méritent d’être examinées. J’aimerais pour ma part élargir la discussion sur les façons de favoriser la contribution des groupes de la société civile au développement de l’IA.

L’amplification ou l’émergence de nouvelles inégalités est l’une des craintes qui anime les acteurs qui demandent un encadrement plus effectif de l’IA. Comment éviter que le développement de l’IA n’ait un bilan négatif sur les inégalités et, pourquoi pas, ait plutôt un bilan positif?

La présence de groupes de la société civile, notamment du secteur communautaire, qui travaillent auprès des populations paupérisées, discriminées ou vulnérables, tout comme des personnes issues de ces populations, dans les espaces de concertation, de gouvernance ou de délibération sur l’IA, est à l’heure actuelle très marginale, à tout le moins au Québec. Tout comme les individus, les groupes de la société civile sont des parties prenantes pouvant être affectées par les développements. Mais en tant que moteur d’innovation sociale, ils peuvent aussi apporter une contribution positive à l’évolution de l’IA.

De façon encore plus concrète, l’expertise de la société civile peut être mise à contribution à diverses étapes du développement des systèmes d’IA. Par exemple, pour réaliser une analyse intersectionnelle sur les problématiques visées par les développements, pour contribuer à l’analyse des biais dans les données d’entraînement des algorithmes, pour tester des applications technologiques en fonction des réalités de populations marginalisées, pour contribuer à l’identification de priorités permettant le développement de systèmes au bénéfice de la société. En somme, pour identifier des enjeux que les personnes qui orientent le développement de l’IA à l’heure actuelle ne soulèvent pas parce qu’ils sont beaucoup trop éloignés des réalités des populations marginalisées. 

Les cadres légaux ou éthiques peuvent certainement faire une plus grande place à l’expertise de la société civile. Mais pour qu’ils puissent pleinement jouer leur rôle, les groupes de la société civile doivent disposer de ressources financières pour développer leur expertise et dédier du temps à l’étude de certaines applications. Or, bien souvent, pour participer à un projet de recherche, on demande plutôt à ces groupes d’offrir des contributions en nature.     

Les obstacles à la participation des groupes de la société civile à la conversation sur l’intelligence artificielle dépassent la question du financement. Par exemple, selon une enquête récente dans le secteur caritatif, 61 % des répondants ont indiqué ne pas comprendre les applications potentielles de l’IA dans leur secteur. L’importance de la formation a aussi été soulignée par les répondants

L’existence d’une loi et de réglementation s’avère souvent nécessaire pour encadrer une industrie ou un secteur. Toutefois, d’autres mécanismes – le recours aux tribunaux, la recherche, les enquêtes journalistiques, les normes, les actions collectives des mouvements sociaux ou les lanceurs d’alertes, contribuent de façon importante à l’évolution des pratiques et au respect des consensus sociaux qui émergent des exercices de délibération. Les manifestations de ce genre concernant l’IA sont encore très fragmentaires.

Partager la publication

S’abonner à l’infolettre de l’Observatoire

Les inégalités vous interpellent? Abonnez-vous à notre infolettre pour ne rien manquer des publications et événements de l’Observatoire.

Ampoule en 3D sur un rectangle sur fond jaune