Anfang

In diesem Kapitel wollen wir uns zwei wichtige Eigenschaften von datenbasierter KI anschauen: Die Erklärbarkeit und den Bias. Beide stellen oft ein Problem bei der Entwicklung und dem Einsatz von KI dar. Wir werden sowohl auf die Probleme als auch auf Lösungsmöglichkeiten eingehen.

Datenbasierte KI (Wiederholung)

Hierunter fallen alle Formen von KI, die aus Daten gelernt haben. Das Wissen innerhalb der KI wurde also nicht vom Menschen bereitgestellt, sondern aus Daten gelernt.

Im Weiteren werden wir uns mit zwei Fragen beschäftigen:

" Können wir uns erklärbar machen, worauf eine datenbasierte KI achtet? "

" Ist datenbasierte KI objektiv, unvoreingenommen, ...? "

Erklärbarkeit

Wir haben im Kapitel 2 das Verfahren überwachtes maschinelles Lernen kennengelernt und dort bereits das Problem der Erklärbarkeit entdeckt:

Nachdem wir unser Modell zur Klassifizierung von gezeichneten Winkeln trainiert hatten, konnte das Modell zuverlässig die Winkel in spitz und stumpf einordnen. Allerdings wussten wir nicht, nach welchen Regeln das Modell entscheidet oder auf welche Eigenschaften im Bild (Spitze, Länge der Schenkel, Liniendicke, …) geachtet wird. Würde man einen Blick innerhalb des trainierten Modells werfen, würde man dort eine lange Berechnungsformel finden. Darin ist das Wissen repräsentiert, welches sich das Modell im Verlauf des Trainings aus den Trainingsdaten angeeignet hat. Die Berechnung ist für einen Computer klar verständlich, allerdings nicht für einen Menschen. Über diesen Weg ist es nur sehr begrenzt möglich zu erklären, wie das Modell diese Aufgabe bewältigt.

Bei datenbasierter KI liegt das Wissen oft in einer Form vor, die für den Menschen größtenteils unverständlich ist. Es kann also durch Anschauen des Modells nicht erklärt werden, wie das Modell funktioniert.

Dieses Problem wird bezeichnet als Black-Box-Charakteristik oder Problem der Erklärbarkeit.

Bei wissensbasierter KI ist es im Vergleich oft leichter nachzuvollziehen, wie sie intern funktioniert. Das liegt daran, dass bei dieser Form das Wissen vom Menschen und nicht aus Daten kommt, zum Beispiel in Form von Regeln. Dadurch liegt das Wissen in einer für den Menschen verständlicheren Form vor.

Obwohl wir durch Anschauen bei datenbasierter KI oft nicht erklären können, wie das Modell funktioniert oder worauf es achtet, können wir durch Testen Einblicke bekommen, ob und wie das Modell funktioniert.

In Kapitel 2 bei der Klassifizierung von Winkeln haben wir nach dem Training des Modells anschließend neue Winkel gezeichnet und damit das Modell getestet. Indem wir absichtlich bestimmte Eigenschaften variiert haben, wie zum Beispiel die Rotation des Winkels, konnten wir herausfinden, ob das Modell diese Eigenschaft bei der Bewertung beachtet.

Durch Testen und andere Methoden kann man sich zum Teil erklärbar machen, worauf datenbasierte KI achtet bzw. wie sie funktioniert.

Das Testen ist allerdings oft keine triviale Aufgabe. Manchmal funktioniert das Modell für eine bestimmte Eingabe nicht richtig und es ist nicht klar, warum. In dem Fall weiß man dann eventuell auch nicht, was man als nächstes testen sollte.

Zudem ist es oft nicht möglich, umfangreich zu testen. Das liegt einerseits daran, dass die Anzahl der möglichen Eingaben zu groß sein kann. Andererseits müssen die Ausgaben des Modells beim Testen meistens von einem Menschen überprüft werden, denn oft entscheiden wir ob, das Ergebnis korrekt ist oder nicht.

Stellen wir uns vor, wir würden jede mögliche Eingabe für unser Modell zur Klassifizierung von Winkeln testen wollen. Wenn die Bilder eine Auflösung von 200x200 (also insgesamt 40.000) Pixeln haben und jeder Pixel 100 Farbwerte annehmen kann, dann gibt es “100 hoch 40.000” mögliche Eingaben. Die Zahl wäre dann eine 1 mit 80.000 Nullen danach.

Die Erklärbarkeit von KI ist in den letzten Jahren zu einem starken Forschungsfeld geworden. Es gibt verschiedene Ansätze, wie man sich die Entscheidungen von datenbasierter KI verständlich machen kann.

Eine Möglichkeit, die wir auch bei unserer KI zur Klassifizierung von Winkeln einsetzen könnten, nennt sich Integrated Gradients. Hier wird visualisiert, welche Bereiche im Bild einen starken Einfluss auf die Bewertung haben. Dadurch kann man als KI-EntwicklerIn sehen, ob das Modell eventuell auf Aspekte im Bild achtet, die man nicht beabsichtigt hat. Im Bild sehen wir, dass das KI-Modell im Wesentlichen auf die Schenkel des Winkels achtet und keine anderen Faktoren (etwa der Hintergrund) eine Rolle spielen.

Bild, welches zweimal das Bild von einem gezeichneten Winkel zeigt. Im unteren visualisieren blaue Punkte, welche Pixel den größten Einfluss auf das Ergebnis haben.

Es gibt noch viele weitere Ansätze, mit denen man die Erklärbarkeit von datenbasierter KI verbessern kann und neue Methoden werden aktuell erforscht und entwickelt. Für einen zukünftigen Einsatz von KI im Bereich Lehren & Lernen wird das ein wichtiger Schritt sein, denn wir wollen Systeme, die korrekt funktionieren und nachvollziehbare Entscheidungen treffen.

Bedeutung der Trainingsdaten

Beim überwachten Lernen gibt der Trainingsdatensatz vor, welche Ausgaben das Modell haben soll für bestimmte Eingaben. Als wir das Modell zur Klassifizierung von Winkeln trainiert haben, haben die Trainingsdaten dem Modell sozusagen Beispiele gezeigt für “spitze” und “stumpfe” Winkel. Aus diesen Beispielen wurden im Trainingsprozess dann die Modell-Parameterwerte bestimmt, die dieses Eingabe-Ausgabe-Verhalten versuchen nachzustellen. Die Wahl eines geeigneten Trainingsdatensatzes ist also sehr wichtig.

Was glaubst du, würde passieren, wenn sich in unseren Trainingsdaten ein Fehler einschleicht? Zum Beispiel ein Winkel, der falsch eingeordnet wurde.

Deine Eingaben werden nicht gespeichert und an keinen Server geschickt. Diese Aufgaben sollen dir nur beim Lernen helfen.

Nimm dir ein wenig Zeit für die Aufgabe. Wenn du fertig bist, klicke auf 'Weiter'.

Weiter!

Es ist anzunehmen, dass wir in realen Datensätzen immer mal wieder einen Fehler haben werden. Enthält der Datensatz allerdings etlichen tausend Bildern und ist darin nur ein Fehler, wird der Fehler vermutlich in der Menge untergehen und keinen großen Einfluss auf das Modell haben. Die Modell-Parameterwerte werden zwar einmal in “Richtung” des Fehlers angepasst, aber anschließend wieder in die korrekte “Richtung” angepasst. Je größer allerdings der Anteil der Fehler in den Trainingsdaten ist, desto mehr Einfluss werden diese Fehler haben.

Enthalten die Trainingsdaten Fehler, wird auch das trainierte Modell versuchen, diese Fehler zu reproduzieren.

Ein geeigneter Trainingsdatensatz sollte nicht nur fehlerfrei sein. Er sollte außerdem ausreichend Vielfalt enthalten, um später mit vielfältigen Eingaben umgehen zu können. Enthalten unsere Trainingsdaten zum Beispiel nur Bilder von Winkeln, die mit einem dünnen Stift gezeichnet wurden, kann es gut sein, dass das trainierte Modell nicht in der Lage sein wird, mit dickeren Linien umzugehen.

Die Trainingsdaten sollten ein möglichst reales Spektrum an Eingabedaten abdecken, die anschließend beim Einsatz des trainierten Modells auftreten könnten.

Aus diesem Abschnitt wollen wir uns Folgendes mitnehmen:

Die Trainingsdaten haben eine hohe Bedeutung für die letztendlichen Fähigkeiten des trainierten Modells. Sie drücken aus, welches Verhalten wir uns von der KI wünschen.

Bei der Wahl eines geeigneten Trainingsdatensatzes können eine Vielzahl an Problemen auftreten, die zu einem unerwünschten Verhalten des Modells führen. Wegen des Problems der Erklärbarkeit, sind diese Probleme teilweise auch nur schwer zu erkennen. Schauen wir uns jetzt eine Art von Problemen mit dem Trainingsdatensatz an, welche oft nicht leicht zu erkennen sind: Bias in den Trainingsdaten

Bias in den Trainingsdaten

Bias in den Trainingsdaten kann dazu führen, dass sich das trainierte Modell auf eine unerwünschte Weise verhält. Beim Bias geht es weniger um einzelne Daten, sondern mehr um den gesamten Trainingsdatensatz. Schauen wir uns gleich zu Anfang ein Beispiel an, welches das Problem verdeutlicht:

Angenommen, wir haben eine KI trainiert, die Aufsätze automatisch bewerten kann. Für das Training wurden Aufgabenstellungen, Aufsätze und Bewertungen genutzt, die in Realität von Lernenden und Lehrkräften erstellt wurden. Diese Beispiele haben dem Modell “gezeigt”, wie es genauso wie die Lehrkräfte bewerten kann.

Glaubst du, dass diese KI fair bewertet?

Deine Eingaben werden nicht gespeichert und an keinen Server geschickt. Diese Aufgaben sollen dir nur beim Lernen helfen.

Nimm dir ein wenig Zeit für die Aufgabe. Wenn du fertig bist, klicke auf 'Weiter'.

Weiter!

Da das Modell versucht, die Bewertungen der Lehrkräfte zu imitieren, sollte man sich stattdessen fragen:

" Haben die Lehrkräfte fair bewertet? "

Sollte das nicht der Fall sein, könnte das Modell lernen, genauso unfair zu bewerten.

Leider hat sich gezeigt, dass die Bewertung durch Lehrkräfte nicht immer fair ist, also nur vom Aufsatz selbst abhängt. Hatte die Lehrkraft persönlichen Kontakt zu den Lernenden, kann die Bewertung von einer Reihe anderer und teilweise unterbewusster Faktoren beeinflusst sein. Leider fallen darunter in manchen Fällen auch Faktoren wie Geschlecht und kultureller Hintergrund, die bei der Bewertung eines Aufsatzes keine Rolle spielen sollten.

Im Gegensatz zu den Lehrkräften bekommt die KI deutlich weniger Informationen: Sie bekommt lediglich den Aufsatz. Man könnte also vermuten, dass die KI nicht in der Lage sein sollte, Faktoren wie den kulturellen Hintergrund in die Bewertung mit einfließen zu lassen. Leider stimmt das nicht in jedem Fall, denn anhand bestimmter Merkmale des Aufsatzes kann die KI einen bestimmten kulturellen Hintergrund vermuten. Beispielsweise wurde in einer Studie beobachtet, dass Lernende mit einer Afrikanisch-Amerikanischen Herkunft im Durchschnitt kürzere Aufsätze geschrieben haben als die anderen Gruppen. So wäre es der KI möglich anhand der Länge des Aufsatzes, die Herkunft zu vermuten und solche Faktoren in die Bewertung einfließen zu lassen.

Datenbasierte KI kann auch lernen, auf Merkmale zu achten, die nicht direkt in den Eingabedaten vorkommen, sondern sich über andere Daten erschließen lassen.

Wir müssen also aufpassen, wenn wir KI mit Daten aus der Realität trainieren.

Datenbasierte KI wird meistens mit Daten trainiert, die aus der Realität stammen. Enthalten diese Daten Fehler, ungleichmäßige Verteilungen oder einen Bias gegenüber bestimmten Personengruppen, wird das trainierte Modell anschließend versuchen, diese Probleme zu reproduzieren.

Eine verbreitete Vorstellung von KI ist:

" KI entscheidet objektiver, vorurteilsfreier als der Mensch. "

Wie wir gerade gesehen haben, trifft das in Fällen, bei denen KI aus realen Daten gelernt hat, nicht von Haus aus zu.

Wir als Menschen müssen uns darum kümmern, Ungleichgewichte in den Trainingsdaten zu ermitteln und bestmöglich zu beseitigen.

Das ist allerdings in der Praxis oft nicht leicht. Manchmal fehlen notwendige Daten oder das Problem der Erklärbarkeit macht es schwer für uns zu erkennen, wann eine KI auf Merkmale achtet, die wir nicht beabsichtigt haben. Zu diesen Problemen und Fragestellung wird aktuell viel erforscht und entwickelt.

Das letzte Kapitel erwartet dich! Hier beschäftigen wir uns damit, wie wir KI im Bereich Lehren & Lernen nutzen sollten und wollen?