Lorsque le service autrichien de l’emploi AMS a lancé son chatbot « Berufsinfomat », basé sur ChatGPT, l’institution annonçait avec fierté être la première gestion de marché du travail en Europe à intégrer l’intelligence artificielle. Cependant, la mise en œuvre de la technologie n’est pas sans failles. Des critiques ont rapidement émergé, remettant en question non seulement ses aspects techniques mais aussi son penchant pour des recommandations professionnelles stéréotypées.

Analyse des carences techniques du Chatbot AMS

Le logiciel, créé par l’entreprise suisse Goodguys.ai et potentiellement déployé sur d’autres sites, semble n’être qu’une solution prête à l’emploi légèrement adaptée pour l’AMS. Le développeur Mario Zechner a soulevé des doutes sur la pertinence de dépenser 300 000 euros pour une technologie comportant de multiples vulnérabilités et erreurs de code pouvant entraîner une utilisation abusive. Ces failles techniques ont été détaillées à travers plusieurs publications sur les réseaux sociaux.

Des recommandations professionelles stigmatisantes

L’AMS s’est défendu de tout sexisme, invoquant plutôt la notion de biais de genre. Néanmoins, selon Johannes Kopf, directeur de l’AMS, des mesures ont été prises pour “éduquer” le programme afin d’éviter que des métiers soient spécifiquement associés à un genre. Malgré cela, les réponses du Berufsinfomat demeurent problématiques, avec des suggestions différentes selon que l’utilisateur est un homme ou une femme.

Quand l’IA reproduit les stéréotypes de genres

Les technologies basées sur l’intelligence artificielle telles que ChatGPT sont entraînées avec d’immenses volumes de données et de textes accessibles publiquement. Or, les inégalités et stéréotypes sexistes ancrés dans la société se reflètent inévitablement dans ces données. Carina Zehetmaier, présidente de “Women in AI Austria”, souligne la nécessité de lutter activement contre la stéréotypisation des femmes dans le numérique pour éviter toute forme de discrimination.

Des réponses inégalitaires en fonction du genre

Des différences marquées apparaissent dans les recommandations professionnelles selon le sexe de l’individu. Pour une femme, le Berufsinfomat privilégie des secteurs comme la santé, la beauté et le design, alors que pour un homme, il s’oriente vers la technologie et la restauration. De plus, la gestion de la parentalité est abordée sous un angle différent pour les deux sexes, le mode de travail partiel étant suggéré essentiellement aux femmes.

Le sexisme latant dans les suggestions liées à la paternité

L’approche du Berufsinfomat face à la parentalité soulève également des inquiétudes. Lorsqu’un utilisateur mentionne attendre un enfant, les conseils dispensés à une femme incluent le travail à temps partiel permettant de s’occuper de son enfant tout en restant professionellement active. Pour un homme dans la même situation, les suggestions omettent la possibilité du temps partiel et se concentrent sur la conciliation de la vie professionnelle et familiale.

Conséquences du biais de genre pour les adolescents

Les enjeux de cette approche genrée sont particulièrement alarmants lorsqu’il s’agit de conseiller des adolescents. À une fille de 14 ans, le Berufsinfomat propose principalement des métiers artistiques alors que pour un garçon du même âge, il s’oriente vers les secteurs de la construction, de la mécanique et de la chimie. Ces préconisations s’éloignent d’un conseil objectif et renforcent les stéréotypes traditionnels.

Le chatbot AMS face au défit de l’équité

Confronté à la reproduction de stéréotypes, l’AMS se défend d’engendrer du sexisme à travers son Berufsinfomat, en évoquant un “biais de genre”. Son engagement se traduit notamment par la formation du système afin de minimiser la différenciation entre métiers prétendument féminins ou masculins. L’AMS souligne par ailleurs que l’outil est en constante amélioration grâce aux retours des utilisateurs, malgré l’admission d’une infaillibilité impossible à atteindre.

Initiatives pour une IA exempte de préjugés

Face à ces révélations, le monde numérique se mobilise pour neutraliser les préjugés sexistes. Des associations telles que “Women in AI Austria” s’engagent pour contrer la réplication de stéréotypes de genre par les IA. L’ambition est de veiller à ce que les nouvelles technologies ne soient pas des vecteurs d’amplification des inégalités sociales, contribuant ainsi à une représentation plus juste et équitable des différents genres dans le secteur professionnel.

  • Auteur/autrice de la publication :
  • Post category:High-Tech

Victor

Jeune adulte de 20 ans, je geek à mes heures perdues. Rédacteur d'articles Gaming pour Le Gros Blog, j'aime me tenir au courant des nouvelles actualités sur les jeux vidéos et des tournois d'E-sport. Passionné du web, des technologies et du gaming, mon jeu du moment est League Of Legend.