Geschrieben von Jonny Steiner
1981 war ein Rekordjahr für Musik, die von Computern und Futurismus inspiriert war. Aus dem dystopischen „Red Barchetta“ von Rushs Album Bewegtbilder, auf das gesamte Kraftwerk Computer WorldMit technischer Präzision blickten die Künstler nach vorn. Wie Kraftwerk sagte: „Ich programmiere meinen Heimcomputer, beame mich in die Zukunft.“ Ein weiteres solches Album ist Ghost in the Machine von The Police, das den wachsenden Einfluss der Technologie als zentrales Thema nutzt. Sie betrachteten die möglichen Nachteile des technologischen Fortschritts eher zynisch. Das Album hallt noch immer nach, da ihre Sicht auf eine Welt im Wandel immer noch wahr klingt.
Seit 1981 und der Heimcomputer-Revolution haben wir eine rasante Entwicklung der Technologie erlebt, die (bislang) im Aufstieg der KI-Code-Assistenten gipfelte. Diese Tools versprechen, den Codierungsprozess zu rationalisieren, aber genau wie das oben erwähnte Album „The Police“, das unter der Oberfläche ein Gefühl der Entfremdung vermittelt, gibt es auch einen versteckten Faktor.
Vorurteile in der KI
So negativ es auch sein mag, Vorurteile führen zu Desillusionierung und schleichen sich in die Trainingsdaten von KI-Assistenten ein. Die Polizei singt im Lied „Invisible Sun“ über den positiven Einfluss einer unsichtbaren Kraft; Das Negative trifft jedoch auch zu. Voreingenommene KI-Tools können zu unbeabsichtigten Konsequenzen führen und KI-Tools untergraben. Lassen Sie uns also diskutieren, wie diese Vorurteile zu „Geistern in der Maschine“ von KI-Tools werden können.
„Zu viele Informationen gehen mir durchs Gehirn“
Maschinelles Lernen unterstützt KI-Code-Assistenten und generative Tools und revolutioniert die Art und Weise, wie Software erstellt wird. Ihre Hauptfunktion beim Codieren besteht darin, sich wiederholende Aufgaben zu bewältigen und Codeänderungen nahtlos vorzuschlagen. Sie werden auf der Ebene eines Junior-Entwicklers betrachtet und benötigen viele Daten, um sich zu verbessern. Dies geschieht in Form einer riesigen Sammlung früherer Projekte für einen KI-Codierungsassistenten. Die KI verwendet es als Version einer Bedienungsanleitung. Diese Daten trainieren die KI und durch die Analyse des Codes kann sie Muster verstehen und Code effizienter schreiben.
Entscheidend ist hier, dass die Datenqualität und -vielfalt hoch sind. Diese Informationen bilden die Grundlage des KI-Wissens und müssen gut genug sein, um qualitativ hochwertige Ergebnisse zu gewährleisten.
„Sie unterwerfen die Sanftmütigen, aber es ist die Rhetorik des Scheiterns“
Die Achillesferse von KI-Code-Assistenten liegt in den in ihnen verborgenen Vorurteilen. Ihre Grundlage sind die Daten, auf denen KI-Modelle trainieren. So wie ein außermittiges Fundament Risse bildet und zu einer instabilen Struktur führt, gilt das Gleiche auch für KI-Modelle. Mit versteckten Verzerrungen durchsetzte Daten gefährden das gesamte KI-Modell. Vorurteile können verschiedene Formen annehmen:
- Soziale Vorurteile – kann gesellschaftliche Vorurteile widerspiegeln
- Geschlechtervorurteile – könnte ein Geschlecht einem anderen vorziehen
- Kulturelle Vorurteile – könnte Daten zugunsten bestimmter Kulturen verzerren
Die Gründe dafür, dass sich Vorurteile in KI-Modelle einschleichen, sind möglicherweise nicht einmal schändlich oder böswillig. Manchmal spiegeln historische Daten vergangene Ungleichheiten wider. In anderen Fällen können Datenerfassungsmethoden zu einer Verzerrung führen. Ein kurzes Beispiel wäre eine KI, die bei der Erteilung medizinischer Ratschläge helfen soll. Wenn das Training hauptsächlich auf von Männern verfassten Daten basiert, kann es sein, dass einige Nuancen der Gesundheit von Frauen nicht erfasst werden.
Die Folgen verzerrter Ausbildungsdaten sind weitreichend und wirken sich auf nahezu unendlich viele Szenarien aus, von Kreditgenehmigungen bis hin zu Stellenempfehlungen. Nehmen wir das Beispiel Karriere. Ein Unternehmen nutzt einen KI-Code-Assistenten, um seinen Einstellungsprozess zu unterstützen. Das Modell trainiert anhand vergangener Einstellungsdaten. Wenn die Daten darauf hinweisen, dass die erfolgreichsten Einstellungen Männer mit einem bestimmten Bildungshintergrund waren, könnten Lebensläufe, die diesen Kandidaten ähneln, bevorzugt werden. Dieses Szenario ist ein einfaches und offensichtliches Beispiel dafür, wie bestimmte Kandidaten aufgrund ihres Geschlechts oder Bildungsniveaus disqualifiziert werden könnten.
Verzerrte Trainingsdaten können:
- Bestehende Ungleichheiten aufrechterhalten: Kreditgenehmigungssysteme, die auf historischen Daten basieren und bestimmte Bevölkerungsgruppen begünstigen, könnten diese Tendenz in ihren automatisierten Antworten beibehalten.
- Bestimmte Gruppen diskriminieren: Das KI-Empfehlungssystem einer Bekleidungsseite könnte auf Daten basieren, die bei früheren Käufen stark auf ein bestimmtes Größenprofil ausgerichtet sind. Dies könnte es für Personen außerhalb dieser Zielgruppe schwierig machen, richtig sitzende Kleidung zu finden.
- Ungenaue Ergebnisse liefern: Eine auf Daten aus einer bestimmten Region trainierte Wetter-App könnte Schwierigkeiten haben, Wettermuster an anderen Orten vorherzusagen.
„Ich baue eine Maschine, die nichts für mich ist, es muss einen Grund geben, den ich nicht erkennen kann“
KI-Code-Assistenten lernen durch die Analyse von Trainingsdatenmustern, ähnlich wie das Erlernen einer neuen Sprache. Wenn Sie durch die Lektüre von Victor Hugo Französisch gelernt haben, fällt es Ihnen möglicherweise schwer, in einem Pariser Café auf Französisch zu bestellen. In ähnlicher Weise führen Verzerrungen in Trainingsdaten dazu, dass der KI-Assistent verzerrte Muster im generierten Code entwickelt.
Dies kann auf verschiedene Arten geschehen:
- Voreingenommene Namenskonventionen: Wenn sich Trainingsdaten bei der Bezugnahme auf Entwickler auf männliche Pronomen konzentrieren, wird das System möglicherweise so kalibriert, dass männlich dominierte Codevariablen generiert werden und weibliche Entwickler unbeabsichtigt ausgeschlossen werden.
- Ineffiziente Algorithmen: Trainingsdaten, die sich auf die Lösung von Problemen für bestimmte Benutzergruppen konzentrieren, könnten Schwierigkeiten haben, effiziente Aufgaben außerhalb dieses Zuständigkeitsbereichs zu generieren. Ein für die Generierung von Website-Code geschulter KI-Codegenerator generiert möglicherweise nicht den besten Code für mobile Geräte.
Diese Vorurteile scheinen geringfügig zu sein, aber die Folgen können verheerend sein. Algorithmische Diskriminierung könnte Stereotypen aufrechterhalten und die unfaire Behandlung bei der automatisierten Entscheidungsfindung verstärken. Darüber hinaus kann voreingenommener Code Sicherheitsrisiken mit sich bringen. In geschlossenem Netzwerkcode geschulte KI-Assistenten könnten ausnutzbare Schwachstellen aufweisen, wenn sie auf eine Open-Source-Umgebung übertragen werden.
„Du wirst Licht in der Dunkelheit sehen / Du wirst einen Sinn daraus ziehen“
Verzerrungen in Trainingsdaten können zum „Geist in der Maschine“ von KI-Code-Assistenten werden. Durch die Implementierung grundlegender Praktiken können wir jedoch sicherstellen, dass KI-Tools dem Allgemeinwohl dienen:
- Bauen Sie ein abwechslungsreiches Trainingsset auf: So wie eine gesunde Ernährung unterschiedliche Lebensmittel erfordert, benötigen KI-Code-Assistenten unterschiedliche Trainingsdaten. Teams müssen aktiv nach Daten aus einer Vielzahl von Quellen und demografischen Merkmalen suchen. Einschließlich Code, der von Programmierern aller Geschlechter, Ethnien und Hintergründe geschrieben wurde, sollte enthalten sein. Je vielfältiger die Trainingsdaten sind, desto unwahrscheinlicher ist es, dass sich im Endcode eine Verzerrung einschleicht.
- Menschliche Aufsicht: Während fähige und leistungsstarke KI-Code-Assistenten nicht im luftleeren Raum agieren sollten, ist eine menschliche Aufsicht erforderlich, um generierten Code auf mögliche Verzerrungen zu überprüfen. Es funktioniert wie ein Code-Editor, der auch erkennen kann, was fair ist und was nicht. Durch die Einbeziehung eines menschlichen Elements können Vorurteile erkannt und behoben werden, bevor der Code erstellt wird deployed..
- Entzerrung des Algorithmus: Während sich die KI-Forschung weiterentwickelt, entwickeln Wissenschaftler Techniken zur Erstellung verzerrte Algorithmen. Diese Algorithmen sind robuster und weniger anfällig für verzerrte Trainingsdaten. Sie bieten eine neutrale Grundlage, auf der KI-Code-Assistenten lernen können.
Mit diesen Strategien können wir sicherstellen, dass KI-Code-Assistenten zu leistungsstarken Werkzeugen für den Fortschritt und nicht zu Instrumenten der Voreingenommenheit werden.
„Wir sind Geister in der materiellen Welt“
Der Einfluss der Technologie, der in Alben wie Ghost in the Machine von The Police untersucht wird, ist relevanter denn je. Verzerrungen in den Trainingsdaten halten KI-Code-Assistenten davon ab, ihr Versprechen zu erfüllen, die Softwareentwicklung zu revolutionieren. Dieser verborgene Faktor ist wie eine „unsichtbare Sonne“, die unsichtbare Kräfte beeinflusst. Die Vorurteile können sich in den generierten Code einschleichen und zu unbeabsichtigten Konsequenzen führen.
Der zukünftige Gedanke ist nicht vorherbestimmt. Der Einbau verschiedener Trainingssätze in KI-Code-Assistenten, die Einbeziehung menschlicher Aufsicht und die Erforschung unvoreingenommener Algorithmen werden dazu beitragen, die Vorurteile abzumildern. Wenn wir uns eine Welt vorstellen, in der KI-Code-Assistenten Festungen der Fairness und keine Instrumente der Vorurteile sind, müssen wir sicherstellen, dass ethische Grundsätze und die Verpflichtung zur Inklusivität die KI-Entwicklung leiten. Es gibt ein enormes Potenzial, und indem wir uns mit den „Voreingenommenheiten in der Maschine“ befassen, stellen wir sicher, dass sie leistungsstarke Werkzeuge für den Fortschritt sind und keine Voreingenommenheit aufrechterhalten.
Sind Sie bereit, Ihr Unternehmen zu skalieren?
Entdecken
Was gibt es Neues in der Welt von Digital.ai
Wie Continuous Testing Fördert die Zusammenarbeit zwischen Entwicklern und Sicherheitsexperten: Der moderne Ansatz für sichere Entwicklung
Entdecken Sie continuous testing und App Sec fördern einen kollaborativen SDLC, wodurch ein komplexes Labyrinth für Angreifer entsteht, während gleichzeitig die Teams gestärkt und die Kosten gesenkt werden.
Die BPCE Banking Group optimiert den Qualitätssicherungs- und Lieferprozess mit Digital.ai Continuous Testing
Entdecken Sie, wie die BPCE Banking Group das Testen revolutioniert hat Digital.ai Continuous Testing, wodurch Effizienz und Qualität bei Bankinnovationen vorangetrieben werden.
Die Verzerrung in der Maschine: Verzerrungen von Trainingsdaten und ihre Auswirkungen auf den generierten Code von KI-Code-Assistenten
Entdecken Sie Vorurteile in KI-Trainingsdaten, die sich auf die Codegenerierung auswirken, und erlernen Sie Strategien, um diese zu mildern, um eine gerechtere KI-Entwicklung und Softwareinnovation zu ermöglichen.