TECHNOLOGIE/PRODUKT-NEWS - 14.10.2024, 20:17 Uhr
FMP-TechScope:
Soweit so gut.
Wir haben alle auch schon den Spruch gehört „…glaube keiner Statistik, die Du nicht selbst gefälscht hast…“ usw. (übrigens ist es höchstwahrscheinlich ein urbaner Mythos, dass dieser Ausspruch von Winston Churchill stammen soll – wahrscheinlicher ist es, dass es eine volkstümliche Redewendung aus Deutschland ist), also wem oder was können wir noch glauben? Systemen die auf Basis von Daten zu Ergebnissen kommen? Was aber, wenn auch Daten ganz und gar nicht neutral sind.
Bias ist das Schlagwort!
Wo überall und warum steckt überall Bias drin…?!
Eine große Welle gab es vor einigen Monaten als 2023 Midjourney für den BuzzFeed „Barbies der Welt“ generieren sollte. Dabei kam u.a. für Deutschland eine Frau mit dunkler Hautfarbe in einer Nazi-Uniform heraus. Was geht Ihnen da nun durch den Kopf? Ist es schon untypisch, dass für Deutschland nun eine dunkle Frau dargestellt wird? Und ist erst in zweiter reihe die Nazi-Uniform, sagen wir… unangemessen? Also ich bin bei der Nazi-Uniform zuerst erschrocken.
Midjourney und sein KI-Hirn hat also für Deutschland immer noch als erstes den Nazi-Mist im Sinn. Das mag ja im Zweifel noch richtig sein, uns mit dieser historischen Vergangenheit zu verbinden, aber dabei einen schwarzen Menschen darzustellen ist natürlich im historischen Kontext völliger Unsinn. Wie kommt das? Nun, die KI-Entwickler:innen haben es bestimmt gut gemeint, als sie der KI mitgegeben haben, stelle Menschen möglichst divers da. Die Prompts waren offensichtlich nicht ausreichend definiert, also eben nicht „weiße Frau, als deutsche Barbie…“ usw. Sie wissen schon, mein Tipp, die Prompts möglichst genau und exakt zu definieren.
Probieren Sie das mal aus, wenn Sie nur von Haus sprechen, kommt da was raus… das ziemlich amerikanisch aussieht, nicht wie ein Haus aus dem idyllischen Schwarzwald. Den Daten sind bestimmte Vorstellungen und auch Absichten vorgeschalten. Bias findet faktisch statt. Nicht nur durch die „voreingenommenen“ Daten, die millionenfach aus dem Internet gezogen wurden. Auch durch konkrete und beabsichtigte Voreinstellungen durch die Unternehmen und Entwickler:innen.
Würde man ein Bild der Erdkugel zeichnen, die durch das Internet dargestellt wird, was wiederrum die Datenbasis und „Intelligenz“ einer KI abbildet, würde diese Welt ganz sicher nicht so aussehen wie aus Ihrem Diercke Atlas bekannt. Vermutlich wären die USA überdimensional groß, Afrika und Südamerika kaum sichtbar – eine Portion China, bisschen Europa, Korea und Japan wahrscheinlich noch – aber wenig, da überwiegend in Englisch gelernt wird. Und noch schlimmer, welches soziales und gesellschaftliches Bild würde dort abgebildet werden? Wenn man an die Massen der Influencer Daten denkt… oder die Berichterstattung von Krieg und Kriminalität – also eine Beeinflussung macht schon sinn, eine Anpassung der abgebildeten Realität, denn diese ist nicht unsere tatsächliche Realität. Die Welt da draußen ist faktisch ungleich, also versteht sich die KI auch so und gibt ungleiche Ergebnisse – dass sollte ausgeglichen werden. Leider griff im Beispiel oben das ganze in die falsche Richtung – es wurde eingegriffen – man wollte bei der Darstellung einer Frau auch diverse Ergebnisse – aber der Kontext war völlig falsch (probieren Sie es nicht aus, das hat man natürlich inzwischen korrigiert – aber nicht weil die KI das über die Daten gelernt hat – nein, ein Beispiel für konkretes, beabsichtigtes anpassen der Daten). Das Beste, was sie tun können ist im Fall einer KI so konkret wie möglich ihre eigenen Vorgaben machen – und niemals nur eine Quelle benutzen, wenn es darum geht zu recherchieren.
Es bleibt also dabei, man muss verstehen, wie man Technik einsetzt und wie sie funktioniert. Bleiben wir unreflektiert und nehmen Ergebnisse an und hinterfragen Sie nicht, verstärken wir Wiederum die Voreingenommenheit – ich rufe hiermit zum anders denken auf!
Glauben Sie also nicht an die Objektivität der Technik – ein Mensch voller Vorurteile hat sie auf Basis von ungleichen und voreigenommenen Daten erstellt.
Ist Ihnen sowas schon mal passiert? Oder hatten Sie schon mal den Eindruck, die Kolleg:innen wissen das nicht und benutzt völlig unreflektiert die Technologie?
Ich freue mich auf Ihr Feedback und Ihre Beiträge – hauen Sie doch einfach mal Ihre Meinung raus!
Ihr Harry Steiert
FMP-TechScope:
Bias überall und vor allem versteckt!
Jedem von uns ist klar, Vorurteile und Voreingenommenheit ist eine ganz natürliche Sache. Und wir preisen das in unserem Alltag stets ein. Wenn wir uns mit einer guten Freundin unterhalten und wir wissen schon, aus welcher Bubble sie grundsätzlich kommt, erwarten wir eine bestimmte Meinung. Das mag dann alles eine gewisse Färbung bekommen.
Soweit so gut.
Wir haben alle auch schon den Spruch gehört „…glaube keiner Statistik, die Du nicht selbst gefälscht hast…“ usw. (übrigens ist es höchstwahrscheinlich ein urbaner Mythos, dass dieser Ausspruch von Winston Churchill stammen soll – wahrscheinlicher ist es, dass es eine volkstümliche Redewendung aus Deutschland ist), also wem oder was können wir noch glauben? Systemen die auf Basis von Daten zu Ergebnissen kommen? Was aber, wenn auch Daten ganz und gar nicht neutral sind.
Bias ist das Schlagwort!
Wo überall und warum steckt überall Bias drin…?!
Eine große Welle gab es vor einigen Monaten als 2023 Midjourney für den BuzzFeed „Barbies der Welt“ generieren sollte. Dabei kam u.a. für Deutschland eine Frau mit dunkler Hautfarbe in einer Nazi-Uniform heraus. Was geht Ihnen da nun durch den Kopf? Ist es schon untypisch, dass für Deutschland nun eine dunkle Frau dargestellt wird? Und ist erst in zweiter reihe die Nazi-Uniform, sagen wir… unangemessen? Also ich bin bei der Nazi-Uniform zuerst erschrocken.
Midjourney und sein KI-Hirn hat also für Deutschland immer noch als erstes den Nazi-Mist im Sinn. Das mag ja im Zweifel noch richtig sein, uns mit dieser historischen Vergangenheit zu verbinden, aber dabei einen schwarzen Menschen darzustellen ist natürlich im historischen Kontext völliger Unsinn. Wie kommt das? Nun, die KI-Entwickler:innen haben es bestimmt gut gemeint, als sie der KI mitgegeben haben, stelle Menschen möglichst divers da. Die Prompts waren offensichtlich nicht ausreichend definiert, also eben nicht „weiße Frau, als deutsche Barbie…“ usw. Sie wissen schon, mein Tipp, die Prompts möglichst genau und exakt zu definieren.
Probieren Sie das mal aus, wenn Sie nur von Haus sprechen, kommt da was raus… das ziemlich amerikanisch aussieht, nicht wie ein Haus aus dem idyllischen Schwarzwald. Den Daten sind bestimmte Vorstellungen und auch Absichten vorgeschalten. Bias findet faktisch statt. Nicht nur durch die „voreingenommenen“ Daten, die millionenfach aus dem Internet gezogen wurden. Auch durch konkrete und beabsichtigte Voreinstellungen durch die Unternehmen und Entwickler:innen.
Würde man ein Bild der Erdkugel zeichnen, die durch das Internet dargestellt wird, was wiederrum die Datenbasis und „Intelligenz“ einer KI abbildet, würde diese Welt ganz sicher nicht so aussehen wie aus Ihrem Diercke Atlas bekannt. Vermutlich wären die USA überdimensional groß, Afrika und Südamerika kaum sichtbar – eine Portion China, bisschen Europa, Korea und Japan wahrscheinlich noch – aber wenig, da überwiegend in Englisch gelernt wird. Und noch schlimmer, welches soziales und gesellschaftliches Bild würde dort abgebildet werden? Wenn man an die Massen der Influencer Daten denkt… oder die Berichterstattung von Krieg und Kriminalität – also eine Beeinflussung macht schon sinn, eine Anpassung der abgebildeten Realität, denn diese ist nicht unsere tatsächliche Realität. Die Welt da draußen ist faktisch ungleich, also versteht sich die KI auch so und gibt ungleiche Ergebnisse – dass sollte ausgeglichen werden. Leider griff im Beispiel oben das ganze in die falsche Richtung – es wurde eingegriffen – man wollte bei der Darstellung einer Frau auch diverse Ergebnisse – aber der Kontext war völlig falsch (probieren Sie es nicht aus, das hat man natürlich inzwischen korrigiert – aber nicht weil die KI das über die Daten gelernt hat – nein, ein Beispiel für konkretes, beabsichtigtes anpassen der Daten). Das Beste, was sie tun können ist im Fall einer KI so konkret wie möglich ihre eigenen Vorgaben machen – und niemals nur eine Quelle benutzen, wenn es darum geht zu recherchieren.
Es bleibt also dabei, man muss verstehen, wie man Technik einsetzt und wie sie funktioniert. Bleiben wir unreflektiert und nehmen Ergebnisse an und hinterfragen Sie nicht, verstärken wir Wiederum die Voreingenommenheit – ich rufe hiermit zum anders denken auf!
Glauben Sie also nicht an die Objektivität der Technik – ein Mensch voller Vorurteile hat sie auf Basis von ungleichen und voreigenommenen Daten erstellt.
Ist Ihnen sowas schon mal passiert? Oder hatten Sie schon mal den Eindruck, die Kolleg:innen wissen das nicht und benutzt völlig unreflektiert die Technologie?
Ich freue mich auf Ihr Feedback und Ihre Beiträge – hauen Sie doch einfach mal Ihre Meinung raus!
Ihr Harry Steiert
Weitere Informationen: https://www.f-mp.de/expertenthemen/FMP-TechScope