Écrit par Jonny Steiner
1981 a été une année record pour la musique inspirée par les ordinateurs et le futurisme. Extrait du dystopique « Red Barchetta » de l'album de Rush Images animées, à l'intégralité de Kraftwerk Computer World, les artistes regardaient vers l’avenir avec une précision technologique. Comme l'a dit Kraftwerk : « Je programme mon ordinateur personnel, je me projette vers le futur. » Un autre album de ce type est Fantôme dans la machine par The Police, qui utilise l'influence croissante de la technologie comme thème central. Ils ont jeté un regard plus cynique sur les inconvénients potentiels du progrès technologique. L’album résonne toujours car leur vision d’un monde en mouvement sonne toujours d’actualité.
Depuis 1981 et la révolution de l’informatique domestique, nous avons vu la technologie se développer à une vitesse vertigineuse, culminant (jusqu’à présent) avec l’essor des assistants de code IA. Ces outils promettent de rationaliser le processus de codage, mais tout comme l’album The Police référencé ci-dessus, qui dégage un sentiment d’aliénation sous la surface, il existe également un facteur caché en jeu.
Biais dans l'IA
Aussi négatifs que cela puisse être, les préjugés engendrent la désillusion et s’insinuent dans les données de formation des assistants IA. La police chante dans la chanson « Invisible Sun » sur l'influence positive d'une force invisible ; cependant, le négatif est également vrai. Les outils d’IA biaisés peuvent avoir des conséquences inattendues et nuire aux outils d’IA. Voyons donc comment ces préjugés peuvent devenir les « fantômes dans la machine » des outils d’IA.
"Trop d'informations circulent dans mon cerveau"
L’apprentissage automatique alimente les assistants de code d’IA et les outils génératifs, révolutionnant ainsi la façon dont les logiciels sont créés. Leur fonction principale en matière de codage est de gérer les tâches répétitives et de proposer des modifications de code de manière transparente. Ils sont considérés au niveau d’un développeur junior et ont besoin de beaucoup de données pour s’améliorer. Cela se présente sous la forme d’une vaste collection de projets antérieurs pour un assistant de codage IA. L’IA l’utilise comme version d’un manuel d’instructions. Ces données entraînent l’IA et, en analysant le code, elle peut comprendre les modèles et écrire du code plus efficacement.
La clé ici est que la qualité et la variété des données soient élevées. Ces informations constituent le fondement des connaissances de l’IA et doivent être suffisamment bonnes pour garantir des résultats de qualité.
"Ils soumettent les doux, mais c'est la rhétorique de l'échec"
Le talon d’Achille des assistants de code d’IA réside dans les préjugés qu’ils cachent. Leur fondement réside dans les données sur lesquelles les modèles d’IA s’entraînent. Tout comme une fondation décentrée formera des fissures et conduira à une structure instable, il en va de même pour les modèles d’IA. Les données truffées de biais cachés compromettront l’ensemble du modèle d’IA. Les biais peuvent prendre plusieurs formes :
- Préjugés sociaux – peut refléter des préjugés sociétaux
- Préjugés sexistes – pourrait favoriser un sexe plutôt qu’un autre
- Préjugés culturels – pourrait fausser les données en faveur de cultures spécifiques
Les raisons des biais qui s’insinuent dans les modèles d’IA ne sont peut-être même pas néfastes ou mal intentionnées. Parfois, les données historiques reflètent les inégalités passées. Dans d’autres cas, les méthodes de collecte de données peuvent introduire un biais. Un exemple rapide serait une IA destinée à aider à dispenser des conseils médicaux. S'il est formé principalement à partir de données écrites par des hommes, il risque de ne pas saisir certaines nuances de la santé des femmes.
Les conséquences de données biaisées sur la formation sont considérables et impactent un nombre presque infini de scénarios, depuis l’approbation de prêts jusqu’aux recommandations d’emploi. Prenons l'exemple de la carrière. Une entreprise utilise un assistant de code IA pour l'aider dans son processus de recrutement. Le modèle s'entraîne sur les données d'embauche passées. Si les données indiquent que les recrutements les plus réussis étaient des hommes ayant une formation spécifique, cela pourrait favoriser les CV ressemblant à ces candidats. Ce scénario fournit un exemple simple et évident de la manière dont certains candidats pourraient être disqualifiés en fonction de leur sexe ou de leur niveau d'éducation.
Des données d’entraînement biaisées peuvent :
- Perpétuer les inégalités existantes : Les systèmes d’approbation de prêts formés sur des données historiques favorisant certaines données démographiques pourraient perpétuer ce biais dans leurs réponses automatisées.
- Discriminer certains groupes : Le système de recommandation d'IA d'un site de vêtements peut s'entraîner sur des données fortement biaisées vers un profil de taille spécifique lors d'achats antérieurs. Cela pourrait rendre difficile pour les personnes extérieures à ce groupe démographique de trouver des vêtements bien ajustés.
- Fournir des résultats inexacts : Une application météo formée sur les données d'une région spécifique peut avoir du mal à prédire les conditions météorologiques dans d'autres endroits.
"Je construis une machine qui n'est pas pour moi, il doit y avoir une raison que je ne vois pas"
Les assistants de code IA apprennent en analysant les modèles de données d’entraînement, un peu comme si on apprenait une nouvelle langue. Si vous avez appris le français en lisant Victor Hugo, vous pourriez avoir du mal à commander en français dans un café parisien. De même, les biais dans les données d’entraînement conduisent l’assistant IA à développer des modèles biaisés dans le code généré.
Cela peut se jouer de plusieurs manières :
- Conventions de dénomination biaisées : Si les données de formation se concentrent sur les pronoms masculins lorsqu'elles font référence aux développeurs, le système pourrait alors être calibré pour générer des variables de code à prédominance masculine et exclure involontairement les développeurs féminines.
- Algorithmes inefficaces : Les données de formation axées sur la résolution de problèmes pour des données démographiques spécifiques d'utilisateurs peuvent avoir du mal à générer des tâches efficaces en dehors de ce domaine. Un générateur de code IA formé pour générer du code de site Web pourrait ne pas générer le meilleur code pour appareil mobile.
Ces biais semblent mineurs, mais les conséquences peuvent être désastreuses. La discrimination algorithmique pourrait perpétuer les stéréotypes et renforcer le traitement injuste dans la prise de décision automatisée. De plus, un code biaisé peut créer des risques de sécurité. Les assistants IA formés au code de réseau fermé pourraient présenter des faiblesses exploitables s’ils étaient transférés vers un environnement plus open source.
« Vous verrez la lumière dans les ténèbres / Vous comprendrez cela »
Les biais dans les données de formation peuvent devenir le « fantôme dans la machine » des assistants de code IA. Cependant, en mettant en œuvre des pratiques de base, nous pouvons garantir que les outils d’IA servent le bien commun :
- Construisez un ensemble de formation diversifié : Tout comme une alimentation saine nécessite des aliments variés, les assistants de code IA ont besoin de données d’entraînement diverses. Les équipes doivent rechercher activement des données provenant d’un large éventail de sources et de données démographiques. Y compris le code écrit par des programmeurs de tous genres, ethnies et origines doit être inclus. Plus les données d’entraînement sont diverses, moins il est probable qu’un biais s’infiltre dans le code final.
- Surveillance humaine : Même si les assistants de code d’IA compétents et puissants ne doivent pas fonctionner en vase clos, une surveillance humaine est nécessaire pour examiner le code généré à la recherche de biais potentiels. Cela fonctionne en quelque sorte comme un éditeur de code qui peut également déterminer ce qui est juste et ce qui ne l'est pas. Avoir un élément humain permettra d'identifier et de corriger les préjugés avant que le code ne soit publié. deployed.
- Débiaiser l'algorithme : À mesure que la recherche sur l'IA évolue, les scientifiques développent des techniques pour créer algorithmes débiaisés. Ces algorithmes sont conçus pour être plus robustes et moins sensibles aux données d’entraînement biaisées. Ils offriront une base neutre à partir de laquelle les assistants de code IA pourront apprendre.
Grâce à ces stratégies, nous pouvons garantir que les assistants de code d’IA deviennent de puissants outils de progrès et non des instruments de partialité.
"Nous sommes des esprits dans le monde matériel"
L’influence de la technologie, explorée dans des albums comme Ghost in the Machine de The Police, est plus que jamais d’actualité. Les biais dans les données de formation empêchent les assistants de code IA de tenir leur promesse de révolutionner le développement logiciel. Ce facteur caché est comme un « Soleil invisible » qui influence des forces invisibles. Les préjugés peuvent s’infiltrer dans le code généré et entraîner des conséquences inattendues.
La pensée future n’est pas prédéterminée. La création de divers ensembles de formation dans les assistants de code d’IA, intégrant la surveillance humaine et la recherche d’algorithmes biaisés contribuera à atténuer les biais. Imaginer un monde où les assistants de code d’IA sont des forteresses d’équité et non des instruments de préjugés, nous oblige à garantir que des principes éthiques et un engagement en faveur de l’inclusivité guident le développement de l’IA. Il existe un vaste potentiel, et en s’attaquant aux « préjugés dans la machine », nous veillerons à ce qu’ils soient de puissants outils de progrès et non des perpétuateurs de préjugés.
Êtes-vous prêt à faire évoluer votre entreprise ?
Explorer
Quoi de neuf dans le monde de Digital.ai
Comment Continuous Testing Favorise la collaboration en matière de développement et de sécurité : l'approche à la mode du développement sécurisé
Découvrez comment continuous testing et app sec favorisent un SDLC collaboratif, créant un labyrinthe complexe pour les attaquants tout en responsabilisant les équipes et en réduisant les coûts.
Le groupe bancaire BPCE rationalise son processus d’assurance qualité et de livraison avec Digital.ai Continuous Testing
Découvrez comment le groupe bancaire BPCE a révolutionné les tests avec Digital.ai Continuous Testing, favorisant l'efficacité et la qualité de l'innovation bancaire.
Les biais dans la machine : les biais des données de formation et leur impact sur le code généré par les assistants de code IA
Explorez les biais dans les données de formation en IA ayant un impact sur la génération de code et apprenez des stratégies pour les atténuer pour un développement de l'IA et une innovation logicielle plus équitables.