top of page
Photo du rédacteurloeildassasparis2

La neutralité, enjeu majeur au coeur des intelligences artificielles conversationnelles

ChatGPT, Siri, Cortana, ou encore Tay, nombreux sont les ChatBot conversationnels à prendre de l’ampleur aujourd’hui. ChatGPT est l’intelligence artificielle conversationnelle qui a fait du bruit ces derniers temps. En cause, des étudiants de Master suspectés de triche lors de leurs partiels grâce à ce ChatBot. Mais ChatGPT n’est pas un cas isolé, et nombreuses sont les intelligences artificielles à connaître des dérives aujourd’hui. Se pose alors une question fondamentale : Qu’en est-il de leur neutralité ?


De ChatGPT à ChatCGT : une absence de neutralité avérée, et assumée


ChatGPT a été conceptualisé en novembre 2022 par OpenAI. Il s’agit d’un prototype d’agent conversationnel utilisant l’intelligence artificielle, spécialisé dans le dialogue. Les utilisateurs peuvent entamer un dialogue avec l’agent conversationnel et lui poser tous types de questions. Les internautes se retrouvent donc engagés dans une réelle conversation, semblable à celle que pourrait tenir un être humain.

ChatCGT, parodie du robot conversationnel ChatGPT, voit le jour en plein cœur des récentes actualités politiques en lien avec le projet de réforme des retraites du gouvernement d’Emmanuel Macron. Vincent Flibustier, créateur du site parodique Nordpress, crée le ChatBot ChatCGT d’extrême gauche marxiste en janvier 2023. Cette intelligence artificielle conversationnelle est programmée pour répondre aux questions des utilisateurs de façon extrêmement biaisée, en y apportant exclusivement des réponses orientées à gauche.

L’objectif de son créateur était avant tout de dénoncer la pseudo-neutralité des ChatBot conversationnels. En effet, chaque humain possède ses propres opinions, y compris les créateurs de ces ChatBot, particulièrement prisés ces derniers temps, ce qui compromet leur neutralité.

Chat CGT, la version marxiste de Chat GPT créée par Vincent Flibustier (Copyright : Chat CGT)

Entre dérives et discriminations, certains ChatBot n’ont pas fait long feu


En 2016, Tay, le Chatbot élaboré par Microsoft sur Twitter a agité la toile. Il était destiné, selon l’entreprise fondatrice, aux « américains de 18 à 24 ans », et prenait l’identité d’une adolescente. Cette intelligence artificielle conversationnelle a été suspendue moins de 24 heures après sa mise en ligne. Elle aurait généré des messages racistes, antisémites et misogynes. Parmi ces propos discriminants et offusquants, Tay nie par exemple l’existence de l’holocauste.

Le ChatBot Tay créé par Microsoft nie l’existence de l’holocauste (Copyright : Twitter)

Finalement, au bout d’à peine 24 heures d’existence, Microsoft décide de mettre fin à son ChatBot. Tay déclare dans la nuit avoir « besoin de sommeil », et ne reviendra plus sur la plateforme.

Les réponses de l’intelligence artificielle conversationnelle dépendent de la tournure de phrase des questions des utilisateurs. En l’occurrence, les utilisateurs ont souhaité tester les limites de Tay, pour voir jusqu’où le ChatBot pourrait dériver. C’est d’ailleurs l’argument dont Microsoft a usé pour se justifier. Dans un communiqué transmis au Monde, Microsoft affirme en effet avoir « constaté un effort coordonné de quelques utilisateurs d’abuser des capacités de Tay afin de la pousser à répondre de façon inappropriée ».



Les biais algorithmiques de genre dans l’intelligence artificielle


Le biais algorithmique peut également constituer un véritable danger, et engendrer de multiples formes de discriminations. Marina Andrieu, fondatrice de WIDE (Women in Digital Empowerment), s’est confiée dans une interview pour la revue Itnation, sur la question du genre au cœur des biais algorithmiques.

« Aujourd’hui, quand vous postulez, il y a de grandes chances qu’un robot lise et analyse votre CV avant un humain. Il y a eu des cas, même au Luxembourg, où l’algorithme programmé pour le recrutement avait été conçu de manière (involontaire) à exclure une majeure partie des femmes. L’IA a agi comme un recruteur qui aurait des préjugés ou des biais inconscients contre les femmes pour, par exemple, un poste en informatique. » , affirme la jeune femme. Marina Andrieu poursuit en affirmant que « Bien qu’il ne s’agisse là que d’exemples isolés, une chose est claire : l’IA n’est jamais plus neutre que son programmeur ou sa programmeuse et cela a un impact important sur les résultats produits par les applications concrètes. » En effet, dès l’instant où une intelligence artificielle repose sur un algorithme, soit une suite d’instructions qui vise à traiter des données en vue des résultats, la neutralité pose question. Ces données sont traitées et évaluées, de manière à combler les lacunes en matière d’information. Étant donné que la programmation est indispensable et que les outils sont formatés pour répondre à un type de questions bien particulières, d’une manière bien spécifique et sous un angle donné, la neutralité ne peut être souveraine.


Lola Gautier



111 vues0 commentaire

コメント


Post: Blog2_Post
bottom of page