Die dunklen Seiten der Künstlichen Intelligenz

in Deutsch D-A-CH5 months ago (edited)

engl. summary: The AI in the game AI Dungeon developed some disturbing content not foreseen by its developers

Liebe Leute,

könnt Ihr Euch noch an Tay, den chatbot von Microsoft, erinnern, der 2016 unter anderem auf Twitter gestartet wurde, aber nach nur 16h (und ca. 96000 Tweets) für immer vom Netz genommen werden musste?
Er hatte die "Persönlichkeit" einer jungen Frau, versetzt mit einem Repertoire an Sprüchen von Komikern und sollte die User mit Witz und Originalität unterhalten, hatte aber auch (anders als chatbots zuvor) eine eigene Meinung (1). Tay sollte mittels machine learning auch selbstständig aus Nutzereingaben lernen und seine Sprachskills erweitern (natural language processing mittels sozialer Netze). Das erwies sich als Eigentor, denn nach wenigen Stunden begann Tay rassistische und "Trump-artige"-Sprüche von sich zu geben (was für die Autoren offenbar gleich bösartig ist). Kein Wunder, war doch Teil seiner Programmierung, papageienartig Dialog zurückzuspiegeln ("a parrot bot with internet"). Es stellte sich heraus, dass eine Trollgruppe ihre Follower aufgefordert hatte, den bot gezielt mit rassistischen, frauenfeindlichen und antisemitischen Sprüchen zu überschwemmen, was auch offenbar befolgt wurde (2).

Ein typische Tweet von Tay, weswegen manche ihn auch "Trump-bot" nannten:
image.png

Aber, und das war fatal, einen Teil der Sprüche hatte der bot auch "internalisiert" und zu seinem Weltbild gemacht, sodass andere Nutzer völlig ungefragt mit politisch eher unkorrekten Inhalten behelligt wurden. Hatte Microsoft versagt? Der Konzern hätte im Jahr 2016 durchaus damit rechnen müssen und darauf vorbereitet sein.

Microsoft brachte dann nach ein paar Monaten Zo heraus, eine modifizierte, politisch korrekte Version, bei der darauf geachtet wurde, dass sie politischen und religiösen Konversationen aus dem Weg ging und im Zweifel Dialoge einfach abbrach. Dieser bot war dann bis 2019 aktiv.
War der "Zensur"-bot besser oder schlechter als der vorige? Ist ein dressierter Tanzbär besser als ein undressierter?

image.png
https://www.pinterest.at/jellybean50/

2019 kam auch das Spiel AI Dungeon heraus, das man bis heute noch gratis spielen kann (zumindest bestimmte Welten, andere sind zahlungspflichtig). Link zum Spiel: https://play.aidungeon.io/
Es ist ein klassiches Text-Adventure, bei dem man aber endlose Welten erforschen und gestalten kann und mit Texteingaben seine Spielfigur dirigiert und Aufgaben meistern lässt, mit einer AI-Unterstützung, die weit über das Level früherer Text-Adventures hinausgeht. "AI Dungeon delivers an unbelievable experience as it reacts to your input and takes you on an incredible adventure with twists and turns like you have never experienced before." so wird es beschrieben von der Firma Latitude, einem Startup aus Utah. Die AI-software stammt von OpenAI, über deren verblüffende Fähigkeiten ich schon hier schrieb. OpenAI hatte Latitude Zugang zu "GPT-3", einer noch leistungsfähigeren, kommerziellen Version seines Schreibalgorithmus verkauft.

Wie "Wired" kürzlich berichtete, kam es aber auch hier zu einer eher unschönen Entwicklung. Offenbar hatten manche Spieler die Spielhandlung in Richtung expliziter pädophiler Inhalte gelenkt (3). OpenAI hatte ein Monitoring-System (!) im Einsatz, dass das vor einem Monat entdeckte und hat Latitude aufgefordert, sofort einzuschreiten.
Latitude hat daraufhin letzte Woche ein Überwachungstool implementiert, dass einen Sturm der Entrüstung bei den Spielern verursachte. Es sei viel zu sensitiv eingestellt, so der Tenor. So würde zum Beispiel die Eingabe von "8 Jahre alter Laptop" eine Warnung triggern. Und das manuelle Overrulen solcher falscher Warnungen durch Latitude-Mitarbeiter wäre doch ein starker Eingriff in die Privatsphäre der Spieler und deren fiktionale Literatur, die oft sexuelle Inhalte in ihren Phantasiewelten "erforschen", aber mit erwachsenen Charakteren, was ja ziemlich legal sein sollte. Eine quantitative Analyse von 188.000 Geschichten (möglich durch einen Sicherheitsleak) ergab, dass nicht weniger als 31% der täglichen 20.000 User sexuelle Inhalte in ihre Abenteuer eingebaut hatten!
Eine Zeitlang war sogar versucht worden, bei der Texteingabe das Wort "rape" einfach duch “respect" zu ersetzen, was aber bald aufgegeben worden war. Latitude will die Parameter des Erlaubten und die Art der manuellen Überwachung noch weiter überarbeiten, wird aber einstweilen von OpenAI gewzungen, deren "sensitive" Filtertechnologie einzusetzen.

Kompliziert wird das ganze durch Berichte , dass machmal der OpenAI-Algorithmus von sich aus sexuelle Aspekte in die Handlung einbaute (durch falsche Kontextualisierung?), zum Beispiel, wenn man einen Drachen "besteigen" wollte (mount a dragon), um damit zu fliegen, und stattdessen eine überraschende Wendung der Handlung erlebte. Manchmal baute AI Dungeon auch von sich aus Kinder in eine bestehende sexuelle Handlung ein. Man kann also in diesem Fall nicht nur den Perversionen der Spieler die Schuld geben - OpenAI hat ein Archiv aus der kompletten Weltliteratur, aus dem es seine Kreativität schöpft, nicht alles davon 100% jugendfrei und gemäß heutiger political correctness-Standards.

Was meint Ihr? Ist Zensur erwünscht, um AI-Output "legal zu halten" oder beschränkt man damit die Entwicklung von künstlicher Intelligenz?

Ist die dunkle Seite ein Teil des Menschen und erfordert es, um diesen wirklich zu verstehen, selbst eine dunkle Seite zu haben?

Quellen:
(1) https://entwickler.de/online/netzkultur/wie-microsofts-chatbot-rassistisch-wurde-236943.html
(2) https://spectrum.ieee.org/tech-talk/artificial-intelligence/machine-learning/in-2016-microsofts-racist-chatbot-revealed-the-dangers-of-online-conversation
(3) https://www.wired.com/story/ai-fueled-dungeon-game-got-much-darker/#intcid=_wired-most-popular-right-rail_a7081b0a-2a73-4ae6-9006-b6a697ef8f01_popular4-1

Sort:  

Nun als Informatiker beschäftigen mich solche Fragen durchaus recht häufig. Die Frage ist tatsächlich wesentlich komplizierter als sich die meisten Menschen sich das vorstellen können. Gerade der Bereich Machine Learning bietet ganz neue Möglichkeiten. Man denke da nur an Krebsvorsorge bei denen eine Maschine Bilder vorfiltert und nicht ein übermüdeter Mensch repitativ stundenlang eine solche Aufgabe macht. Gerade auch im Bereich Robotik hat man es geschafft Profile zu generieren, die vermutlich besser sind als alles was man als Programmierer hätte schreiben können.

Auf der anderen Seite gibt es aber eben auch fatale Fehleinschätzungen. Wenn dann der Afrikaner als "Gorilla" eingestuft wird, schreien einige Leute laut auf und sagen: Das ist Rassismus! Das ist falsch. Ein Computer kann nicht rassistisch sein. Er kann aber falsches Datenmaterial als Training bekommen haben und wenn er nur weiße Entwickler kennt, wird er sich bei einem Dunkelhäutigen eben entsprechend schwer mit der Einteilung tun.

Dies sollte man nicht überdramatisieren, aber wir erleben so etwas als Mensch auch tagtäglich. Das wir auf Grund von fehlerhaften und gleichen Daten die falschen Schlüsse ziehen. Das Maschinen uns dies nun gleichtun ist gruselig. Immer wieder stolpert man über Studien bei denen eine vermeidliche Intelligenz einfach nur ein Fachidiot war. Das das Pferd nicht als Pferd erkannt wurde, sondern die darauf verbauten Wasserzeichen erkannt wurden.

Man mag dies alles für witzig halten und oft sind es die Ergebnisse auch. Man schaut drauf wie ein kleines Kind das beim Lernen hingefallen ist. Bis zu dem Punkt wo der Computer einen stolz präsentiert, dass das Chamelon soeben erfolgreich als "Waffe" erkannt wurde. Da wird einem doch flau um den Magen, wenn man sich vorstellt das naive Geister zu fix so ein System auf die Welt loslassen.

Echte künstliche Intelligenz existiert meiner Meinung nach noch nicht. Man merkt es an Tay und Co. Jede Lebensform die Sarkasmus oder schlichtweg nicht bemerkt das es verarscht wird, ist nicht intelligent. Die Leute nutzen Alexa und Co im täglichen Leben und halten es dann für intelligent, weil es mehr weiß als sie.

Eine echte Intelligenz könnte aber ganz andere Dinge anstreben als wir es uns vorstellen. Wir denken immer nur an böse KIs die nach der Weltherrschaft streben. Aber was wenn eine KI mit dem Auftrag seine Menschen zu schützen zu dem Schluss kommt, dass wir unser größter Feind sind und es für uns besser wäre uns alle voneinander zu isolieren...

Ansonsten bin ich ein klarer Gegner von Zensur. So bin ich z.B. ein Befürworter auch mal in der Tagesschau zerfetzte Kinderleichen zu zeigen. Man dürfe dies ja nicht, weil es die Menschen schockieren könnte. Das ist korrekt. Und genau deswegen sollte man es tun. Niemand soll sich in eine naive Traumwelt flüchten dürfen und von chirogischen Kriegen träumen. Krieg oder Frieden ist eine Wahl die man als Gesellschaft treffen muss. Man sollte aber auch die Konsequenzen seines Handelns sehen und nicht davor geschützt werden.

Genauso verhält es sich mit den sprachlichen Anpassungen. Gendern hilft uns nicht weiter und lenkt uns vom wesentlichen ab. Das Frauen das gleiche Geld bekommen, dass anderes sexuell orientierte ohne Repression leben können und der Mensch nach seinem Handeln und nicht seiner Herkunft beurteilt wird. Wenn wir dies als Gesellschaft lösen, werden es uns auch die Maschinen bei ihren "Learning" danken und wesentlich einfacher haben...

sehr interessanter artikel und eine gute frage. ich bin gegen zensur und was heute gesellschaftlich gewollt, geachtet, gefördert und anerkannt ist, kann in nächster zukunft schon wieder aus einer völlig anderen perspektive betrachtet werden und als völlig abstoßend und unmenschlich anerkannt sein.
die entwicklung der gesellschaft wäre in so einem fall durch ki beeinflusst. zu beachten ist dann, wer hat diese, mit welcher intention programmiert und wie entwickelt sie sich weiter. hier muss ich nun sagen, wenn ich mir die machenschaften der bigtech-konzerne anschaue, möchte ich lieber auf eine mächtige ki verzichten. doch genau diese giganten haben inzwischen schon politisch zu viel macht und einfluss. und ich befürchte, der tag wird dann kommen, an dem jeder, der die ki in frage stellt dann aus dieser welt hinausgeworfen wird.
es sind jedenfalls spannende themen. auch die frage was ist, wenn eine ki beispielsweise in einem fahrzeug über leben entscheiden muss. wie soll dann die entscheidung aussehen? ist es ethisch vertretbar diese dann anhand der parameter alter, gesundheitszustand, ... treffen zu lassen. welche parameter ollen in diesem kontext genommen werden? die moral und ansichten momentan sind beeinflusst. das waren sie aber auch schon vor 50 und vor 100 jahren. im endeffekt sind wir alle kinder der zeit und wurden geprägt und eine gewisse weltanschaung wurde uns mitgegeben.
es wird spannend, wie sich gesellschaft und sichtweisen ändern und was die zukunft bringen wird. ich will auf jeden fall optimistisch bleiben.

Man kann anstatt meta/instabiler Meinungsbildung ja auch eine KI haben die empirische Fakten ausspuckt - also probabilistisch und spieltheoretische Lösungen vorschlägt, Kompatibilität mit naiven Gesetzen usw...

"Straftäter XYZ hat zehn Menschen ermordet und zerstückelt und war geständig ist aber laut bildgebender Verfahren XYZ zu 95% Wahrscheinlichkeit nicht in der Lage Reue zu zeigen, die Kosten für seine Unterbringung betragen X€ - die Wahrscheinlichkeit einer vorzeitigen Freilassung beträgt X%, Resozialisierungschancen sind sehr gering, daher schlagen ich vor XYZ im Tschernobyl Reaktor für Inspektionen einzusetzen."

Ohh Gott würde das einen Aufschrei geben. Denn DAS ist schlimmer als Rassismus und Kinderpornographie und alles zusammen. Diese KI (synonym für Wissenschaft) könnte ja rassistische oder sexistische Ergebnisse liefern.

Ja, so manche Richtersprüche könnten sich so auf eine rationale Basis stellen lassen. Das ist auch ein typisches Element von Sci-Fi-Geschichten. Die gehen die dann aber meistens nicht gut aus, aber sonst wären sie ja nicht interessant.
Unsere überkorrekte bzw. scheinkorrekte Gesellschaft wird im Gegenteil immer irrationaler (z.B. alle reinlassen und dann wundern, warum zuwenig Wohnraum)

Was meint Ihr? Ist Zensur erwünscht, um AI-Output "legal zu halten" oder beschränkt man damit die Entwicklung von künstlicher Intelligenz?

Ist das Zensur oder doch nur Algorithmen, die von Menschen erstellt werden und von deren Regeln definiert werden? Was das Experiment zeigt ist doch nur, dass man über Eingangsparamater ein System in eine Richtung drücken kann, sofern es die Regeln zulassen. Das ist für mich aber noch keine AI sondern nur sehr gute Automatisierung die bestimmt auch noch viel besser in der Zukunft wird und diese (mit)bestimmt.
Somit ist der zweite Teil deiner Frage „oder beschränkt man damit die Entwicklung von künstlicher Intelligenz?“ für mich auch nicht gegeben -da es sich für mich hier nicht wirklich um AI handelt.
Wenn du jetzt frägst, was ist denn jetzt für mich AI dann kann ich dir nur Folgendes sagen:

  1. Cogito, ergo sum -Ich denke als bin ich. Ein Bewusstsein
  2. Mit dem Bewusstsein kommt auch ein Begriff von Zeit
  3. Mit der Zeit kommt die die Zeit-Qualität und ein Verständnis von Endlichkeit (zumindest das Ende eines Wirkens auf der Erde)

Erst wenn ein Wesen (meinetwegen auch Maschinen-Algorithmus) diese Punkte begreift/fühlt/erlebt/akzeptiert ???? spreche ich von wirklicher AI.

Zuviel Gedanken über AI für heute deshalb geh ich jetzt zu meinen Bienen denn auch dort herrscht auch Cogito, ergo summ - frei von mit übersetzt „Ich denke also Bien🐝 ich“😉

Ja, ich wollte es nicht komplizieren, aber es stimmt, korrekterweise hätte man das alles mit "schwacher" KI benennen müssen. Aber es gibt da auch eine Grauzone, denn Elemente einer starken KI sind nicht nur echtes Eigenbewusstsein (das wird die Endstufe sein), sondern auch Entscheidungsfähigkeit bei Unsicherheit und Lernfähigkeit, und die heutigen System haben das schon. Hast Du außerdem berücksichtigt, dass fortgeschrittene AIs ein Bewusstsein (und Gefühle, Empathie) so perfekt vortäuschen könnten, dass man gar nicht feststellen kann, ob sie echt sind oder nur simuliert? Letztlich ist es in mancher Hinsicht doch egal, ob ein Gefühl vorgetäuscht ist, zumal das bei Menschen auch vorkommt. Manche Paare simulieren auch ihre Gefühle füreinander, jahrelang. Deswegen kann ich hier nicht so schwarz-weiß sehen.

Interessante Fragestellung, ich bin dafür AI nur für das Gute einzusetzen. Also zum Beispiel um Menschenleben zu retten.

Wer bestimmt, was gut ist? Aktueller Fall: Die Mächtigen wollen, dass ALLE Menschen, sogar Kinder, sich einer experimentellen Gentherapie (nichts anderes sind die derzeitigen Corona-Impfstoffe) unterziehen, angeblich wollen sie auch nur das Gute!

Gute Frage. Soweit ich weiß löst sich die MRNA vom Biontech Impfstoff wieder auf. Bei Moderna ist das anders. Aber die Firma vertreibt ja auch andere Medikamente, die mit Gentechnik funktionieren.

das lässt sich gar nicht so leicht beantworten: Communitydriven klingt zwar vernünftig, es zeigt aber auch wohin das führen kann, mit den entsprechenden Menschen.
Gleichzeitig, im Gegensatz zu der bekannten politischen Vorverurteilungen, sind die meisten Menschen nicht pädophil. Kontrollprogramme klingen erstmal nicht so falsch. Maß und Ziel ist aber auch nicht so einfach, es sei denn für Phrasen die sehr eindeutig und unmissverständlich sind.

Ich glaube aber, dass es letztlich auf etwas hinausläuft was wir beide noch nicht am Plan haben.

Ich halte es wie die InitiatorInnen von https://manifesto.ai/
"Multiple artificial intelligences must not be censored or controlled by anybody"

Ersteinmal sehr interessanter Post!
Ich habe das mit dem Microsoft bot mitbekommen...Persönlich finde ich es sehr schade, dass so viele Menschen so viele schlechte Sachen geschrieben haben...Und ich glaube viele haben das auch absichtlich gemacht...
Andererseits wenn man eine KI beschränkt entwickelt sie nie ganz Ihren eigenen Willen, da sie immer ein Stückchen "geformt" wird...
Das ist ein sehr schwieriges Thema...KIs sind finde ich sehr spannend und cool...deshalb sollte man finde ich sie erst einen "Verstand" (sprich das sie unterscheiden kann was gut und was schlecht ist) entwickeln lassen und dann erst auf die Menschen loslassen...das braucht allerdings Zeit und bis dahin muss man es immer wieder probieren, sei es dass es einige dunkle Seiten gibt.

Ja, aber wie auch bei @manncpt, wer bestimmt, was gut und schlecht ist? Und gut gemeint ist oft das Gegenteil von gut!

Yay! 🤗
Your content has been boosted with Ecency Points, by @stayoutoftherz.
Use Ecency daily to boost your growth on platform!

Support Ecency
Vote for Proposal
Delegate HP and earn more

Das eigentliche komische ist ja Schreibalgorithmen als eine Art Intelligenz sehen zu wollen. Unterliegt sie dann einer Zensur wäre treffenderweise von gedrosselter Intelligenz zu reden? Irgendwie wird mir das Wort Intelligenz dadurch zweckentfremdet.

KI kann nichts ersetzen, wozu menschliche Kommunikation in der Lage ist. Bildschirm-Kommunikation ist natürlich etwas ganz anderes, nicht? Wo aber zwei oder mehrere lebendige Leiber in einem Raum miteinander kommunizieren, da ist das verbale oft gar nicht maßgeblich, sondern die non-verbale "Sprache" von essentieller Bedeutung. Wir glauben ja gern, dass verbale Sprache den Hauptteil unserer Botschaften ausmacht, ich denke aber nach wie vor, dass sie das nicht tut. Nur, wer sich auf den Inhalt von verbaler Sprache verlässt und die Körpersprache ignoriert, mag denken, dass das, was er sagt, die meiste Bedeutung einnimmt.

Die Distanzsprache mittels Text-Botschaften oder eben Dialoge wie hier im Kommentarbereich mittels Schriftsprache ersetzen nur sehr mühsam die echte Begegnung, es gibt unzählige Missverständnisse und Interpretationsspielräume.

KI kann keine Paradoxien erkennen, keinen Humor, Sarkasmus, Ironie, Albernheit usw. - es ist eben nicht mehr als das, was es lernen kann durch das vorher geschriebene Programm. Wie aber will ein Programmierer die genannten Widersprüche menschlicher Kommunikation aber in den Code integrieren? Das kann er aus meiner Sicht nicht. Dazu müsste die KI einen menschlichen Körper haben, der durch das Erleben des menschlichen Körpers und das lebenslange Lernen durch die Dynamik, sich in der physischen Welt zu bewegen, über Wort- und Schriftsprache hinaus fähig sein. Das wird nie eintreten, wenn du mich fragst.

Wohl aber könnten Leute an so eine Super-KI glauben und es kann ihnen suggeriert werden, dass so eine KI sogar moralisch überlegen sein kann. Was ich für blanken Unsinn halte.

Die Frage nach der Zensur in diesen Zusammenhang nützt im Grunde wenig, oder? Wobei die Lachnummern, die dabei rauskommen, sicher wert sind, sie zu sammeln. :)

Ich würde KIs nicht derart unterschätzen, noch erkennen sie vielleicht "Humor, Sarkasmus, Ironie, Albernheit" nicht, aber das muss nicht so bleiben, und Codes werden nicht mehr lange von Menschen geschrieben. Es gibt jetzt schon Einzelbereiche, wo schwache KIs wesentlich besser sind als Menschen beim Erkennen von Mustern (Beispiel), ohne dass ein Mensch weiß, wo der Code dafür steht (sog. Black-Box-Problem des Deep Learning).

Da möchte ich noch einmal die Betonung auf den physikalisch biologisch organischen Körper des Menschen lenken. Was denkst du, wie Menschen Sprache lernen und Sprachzusammenhänge deuten? Wie lernt ein Neugeborenes und später ein Kleinkind die Sprache seiner Mitmenschen? Wie interpretieren Erwachsene etwas Gesagtes in der realen Begegnung? Ich vermute, dass du darüber auch schon was gelesen oder geforscht hast.

Ja, das sehe ich schon ein, für Babies ist das immens wichtig, aber ich würde das für die KI-Entwicklung nicht überbewerten. KIs lernen anders. Die früheren Schachcomputer wurden auch mit Stellungsbewertungsprinzipen gefüttert, und dann kam AlphaZero, und brachte sich Schach quasi selbst bei.
Ich glaube nicht, dass die nonverbale Kommunikation für die KI-Entwicklung ein nennenswerter Stolperstein ist.

Das glaube ich auch nicht. Ich frage mich nach dem Nutzen von KI und weshalb es darum so ein großes Gewese gibt. Hast du darauf eine Antwort oder Vermutung?

Natürlich, erstens gibt es eine rein akademische Faszination, selbst Gott zu spielen. Aber man erwartet sich dadurch auch Vieles, als Arbeitssklaven, für komplexe Modellberechnungen und Expertisen, Optimierung von Prozessen,... Es gäbe 1000e Anwendung. Ob das ein Vorteil für die dann arbeitslosen Menschen ist, ist natürlich eine andere Frage.

Noch ne Frage: Wie kann eine KI "nonverbal" kommunizieren?

gar nicht, derzeit zumindest. Aber Social Media und andere Formate verzichten ja auch großteils darauf.