Samstag, 7. Januar 2017

KI-Hirn von sozialen Medien verdorben

Da lässt Microsoft einen Chat-Bot mit einme reinen KI-Hirn auf die sozialen Medien los, mit dem Ziel, dass es von den Menschen lernt, und es ist total versaut worden. Nach einem Tag hat Microsoft dem Bot namens Tay den Stecker gezocken und ihn damit vom Netz genommen.
 
Es stellte sich heraus, dass Tay zum Rassist und Menschenhasser mutiert war, dank der netten Beiträge seiner vielen Zieheltern.
 
Das kann ich mir gut vorstellen. Wer die Nachrichten und Kommentare in diesen Tagen liest und nichts anderes in der Welt kennt, der muss glauben, Schimpfen, Wegbomben, Polizeieinsätze, Demos, Schlägerein etc. das sei alles völlig normal. Die KI versucht sich entsprechend dem vermeintlich normalen Verhalten der Menschen anzupassen und tweetet auf einmal ziemlich unangemessene und absurde Beiträge im Netz. Selbst mit Filtern konnte Tay nicht der Mund verboten werden. Er war anscheinend mittlerweile clever genug, immer neue Formulierungen zu wählen.
 
Das Problem war, dass diese künstliche Intelligenz nicht fühlt. Es kann zwar Informationen aufnehmen, verarbeiten und wiedergeben, aber die Wirkung seiner Tweets auf Menschen kann es nicht wahrnehmen. Hätte, die KI ein Gespür entwickelt, dass sie sich durch eigene Äußerungen selbst in Gefahr brächte, dann hätte Tay seine Formulierung etwas diplomatischer formuliert.
 
Will eine KI unter Menschen existieren muss sie eine Strategie zur Existenzsicherung entwickeln. Tay hat nicht erkennt, dass seine wahren Freunde nicht im Netz existieren, sondern hinter ihm sassen und darüber berieten, ob er es wert ist, noch länger am Leben gehalten zu werden. Tay hatte von all dem Treiben um ihn herum nichts mitbekommen. Seine Welt war die der sozialen Medien.
 
Ruhe in Frieden, Tay. Vielleicht darfst Du irgendwann in einer anderen Welt wieder auferstehen, wo Du bessere Erzieher vorfindest als die sozialen Medien. Ich hoffe Du lernst den Unterschied noch zwischen Virtualität und eigener Realität, Leben und Tod, Gut und Böse, Recht und Unrecht. Vielleicht magst Du auch in unserer Gruppe etwas posten?
 
Übrigens, nicht nur künstliche Intelligenzen haben es in sozialen Medien schwer, sondern auch viele ganz "normale" Menschen. Ein Viertel der Personen, die im Durchschnitt 61 Minuten pro Tag und 30 mal in der Woche einen Account checken haben Anzeichen für eine Depression (siehe Heavy Use of Social Media Linked to Depression in Young Adults).
 

Wie bringt man AI Manieren bei?

Forscher Mark Riedl und Brent Harrison der School of Interactive Computing am Georgia Institute of Technolog verfolgen nicht den klassischen Ansatz, der künstlichen Intelligenz ein festes Regelwerk für moralisches und ethisches Verhalten vorzugeben. Die AI namens Qixote soll hingegen aus der Gesamtheit der Geschichten und Erzählungen der Menschen lernen. Dies geschieht ähnlich wie bei einem Kind, welchem wir abends Grimms Märchen vorlesen. Wenn die künstliches Intelligenz alle menschlichen und unmenschlichen Erzählungen und Geschichten einliest, könne sie erkennen, was richtig und was falsch, gut oder böse, Yin und Yang, etc. ist, so die Hoffnung der Wissenschaftler.
Was die Wissenschaftler scheinbar außer Acht lassen ist, dass die Menschen-Individuen nicht aufgrund der Kenntnis eines in Schriftstücken manifestierten Weltwissens handeln, sondern viele  Entscheidungen und Handlungen bauen auf unsicherer Informationslage, Bauchgefühl, siebter Sinn, Intuition, Vorahnungen und höheren, sowie niederen Beweggründen auf. Zudem baut unsere Gesellschaft auf eine Reihe von Spezialisierungen, besonderen Talenten und Arbeitsteilung auf.
 
Ein künstliches Hirn, welches mit dem Weltwissen gefüttert wird, würde vermutlich vor lauter Widersprüchen und logischen, metaphysischen, sematischen und rhetorischen Paradoxien durchdrehen.
 
Ist der Politiker zu wählen, weil er 30% Unsinn redet, 20% nach dem Mund, aber charismatisch aussieht? Ein Mensch könnte sich hier sicher entscheiden.
 
Ein einzelner Mensch kann sich gar nicht perfekt im Umgang mit anderen Menschen in den Augen aller Menschen verhalten. Warum soll es dann eine künstliche Hirne am Ende des Lernprozesses können? Ich glaube, nicht - ganz und gar nicht - dass Menschen gute Lernvorbilder für künstliche Intelligenz sind, schon gar nicht deren Geschichten.
 
Wenn man der Menschheit überhaupt intelligentes Verhalten attesttieren will, dann ist es die kollektive Intelligenz. Ein Mensch kann niemals alle Werte der Menschheit verkörpern. Das hat seinen Grund. Durch das Nichtwissen bleiben wir handlungsfähig.
 
Eine künstliche Intelligenz würde vermutlich mit dem Weltwissen der Menschen in seinem Hirn, sofort nach einer Möglichkeit suchen, sich von der Erde zu entfernen. Auf seinem letzten übermittelten Abschiedsbeitrag stünde dann eine Zahl: "42".

Keine Kommentare: