Die dunklen Seiten der Künstlichen Intelligenz

engl. summary: The AI in the game AI Dungeon developed some disturbing content not foreseen by its developers

Liebe Leute,

könnt Ihr Euch noch an Tay, den chatbot von Microsoft, erinnern, der 2016 unter anderem auf Twitter gestartet wurde, aber nach nur 16h (und ca. 96000 Tweets) für immer vom Netz genommen werden musste?
Er hatte die "Persönlichkeit" einer jungen Frau, versetzt mit einem Repertoire an Sprüchen von Komikern und sollte die User mit Witz und Originalität unterhalten, hatte aber auch (anders als chatbots zuvor) eine eigene Meinung (1). Tay sollte mittels machine learning auch selbstständig aus Nutzereingaben lernen und seine Sprachskills erweitern (natural language processing mittels sozialer Netze). Das erwies sich als Eigentor, denn nach wenigen Stunden begann Tay rassistische und "Trump-artige"-Sprüche von sich zu geben (was für die Autoren offenbar gleich bösartig ist). Kein Wunder, war doch Teil seiner Programmierung, papageienartig Dialog zurückzuspiegeln ("a parrot bot with internet"). Es stellte sich heraus, dass eine Trollgruppe ihre Follower aufgefordert hatte, den bot gezielt mit rassistischen, frauenfeindlichen und antisemitischen Sprüchen zu überschwemmen, was auch offenbar befolgt wurde (2).

image.png

Aber, und das war fatal, einen Teil der Sprüche hatte der bot auch "internalisiert" und zu seinem Weltbild gemacht, sodass andere Nutzer völlig ungefragt mit politisch eher unkorrekten Inhalten behelligt wurden. Hatte Microsoft versagt? Der Konzern hätte im Jahr 2016 durchaus damit rechnen müssen und darauf vorbereitet sein.

Microsoft brachte dann nach ein paar Monaten Zo heraus, eine modifizierte, politisch korrekte Version, bei der darauf geachtet wurde, dass sie politischen und religiösen Konversationen aus dem Weg ging und im Zweifel Dialoge einfach abbrach. Dieser bot war dann bis 2019 aktiv.
War der "Zensur"-bot besser oder schlechter als der vorige? Ist ein dressierter Tanzbär besser als ein undressierter?

image.png
https://www.pinterest.at/jellybean50/

2019 kam auch das Spiel AI Dungeon heraus, das man bis heute noch gratis spielen kann (zumindest bestimmte Welten, andere sind zahlungspflichtig). Link zum Spiel: https://play.aidungeon.io/
Es ist ein klassiches Text-Adventure, bei dem man aber endlose Welten erforschen und gestalten kann und mit Texteingaben seine Spielfigur dirigiert und Aufgaben meistern lässt, mit einer AI-Unterstützung, die weit über das Level früherer Text-Adventures hinausgeht. "AI Dungeon delivers an unbelievable experience as it reacts to your input and takes you on an incredible adventure with twists and turns like you have never experienced before." so wird es beschrieben von der Firma Latitude, einem Startup aus Utah. Die AI-software stammt von OpenAI, über deren verblüffende Fähigkeiten ich schon hier schrieb. OpenAI hatte Latitude Zugang zu "GPT-3", einer noch leistungsfähigeren, kommerziellen Version seines Schreibalgorithmus verkauft.

Wie "Wired" kürzlich berichtete, kam es aber auch hier zu einer eher unschönen Entwicklung. Offenbar hatten manche Spieler die Spielhandlung in Richtung expliziter pädophiler Inhalte gelenkt (3). OpenAI hatte ein Monitoring-System (!) im Einsatz, dass das vor einem Monat entdeckte und hat Latitude aufgefordert, sofort einzuschreiten.
Latitude hat daraufhin letzte Woche ein Überwachungstool implementiert, dass einen Sturm der Entrüstung bei den Spielern verursachte. Es sei viel zu sensitiv eingestellt, so der Tenor. So würde zum Beispiel die Eingabe von "8 Jahre alter Laptop" eine Warnung triggern. Und das manuelle Overrulen solcher falscher Warnungen durch Latitude-Mitarbeiter wäre doch ein starker Eingriff in die Privatsphäre der Spieler und deren fiktionale Literatur, die oft sexuelle Inhalte in ihren Phantasiewelten "erforschen", aber mit erwachsenen Charakteren, was ja ziemlich legal sein sollte. Eine quantitative Analyse von 188.000 Geschichten (möglich durch einen Sicherheitsleak) ergab, dass nicht weniger als 31% der täglichen 20.000 User sexuelle Inhalte in ihre Abenteuer eingebaut hatten!
Eine Zeitlang war sogar versucht worden, bei der Texteingabe das Wort "rape" einfach duch “respect" zu ersetzen, was aber bald aufgegeben worden war. Latitude will die Parameter des Erlaubten und die Art der manuellen Überwachung noch weiter überarbeiten, wird aber einstweilen von OpenAI gewzungen, deren "sensitive" Filtertechnologie einzusetzen.

Kompliziert wird das ganze durch Berichte , dass machmal der OpenAI-Algorithmus von sich aus sexuelle Aspekte in die Handlung einbaute (durch falsche Kontextualisierung?), zum Beispiel, wenn man einen Drachen "besteigen" wollte (mount a dragon), um damit zu fliegen, und stattdessen eine überraschende Wendung der Handlung erlebte. Manchmal baute AI Dungeon auch von sich aus Kinder in eine bestehende sexuelle Handlung ein. Man kann also in diesem Fall nicht nur den Perversionen der Spieler die Schuld geben - OpenAI hat ein Archiv aus der kompletten Weltliteratur, aus dem es seine Kreativität schöpft, nicht alles davon 100% jugendfrei und gemäß heutiger political correctness-Standards.

Was meint Ihr? Ist Zensur erwünscht, um AI-Output "legal zu halten" oder beschränkt man damit die Entwicklung von künstlicher Intelligenz?

Ist die dunkle Seite ein Teil des Menschen und erfordert es, um diesen wirklich zu verstehen, selbst eine dunkle Seite zu haben?

Quellen:
(1) https://entwickler.de/online/netzkultur/wie-microsofts-chatbot-rassistisch-wurde-236943.html
(2) https://spectrum.ieee.org/tech-talk/artificial-intelligence/machine-learning/in-2016-microsofts-racist-chatbot-revealed-the-dangers-of-online-conversation
(3) https://www.wired.com/story/ai-fueled-dungeon-game-got-much-darker/#intcid=_wired-most-popular-right-rail_a7081b0a-2a73-4ae6-9006-b6a697ef8f01_popular4-1



0
0
0.000
1 comments
avatar

Schön am Vollmüllen Du kleiner Assi hm? Was bringt dir das? Ich wäre viel zu Faul mir so viel Mühe für Nichts zu machen.

Arbeite anständig. Mister Niemand!

0
0
0.000