Es stellte sich heraus, dass Tay zum Rassist und Menschenhasser mutiert war, dank der netten Beiträge seiner vielen Zieheltern.
Das
kann ich mir gut vorstellen. Wer die Nachrichten und Kommentare in
diesen Tagen liest und nichts anderes in der Welt kennt, der muss
glauben, Schimpfen, Wegbomben, Polizeieinsätze, Demos, Schlägerein etc.
das sei alles völlig normal. Die KI versucht sich entsprechend dem
vermeintlich normalen Verhalten der Menschen anzupassen und tweetet auf
einmal ziemlich unangemessene und absurde Beiträge im Netz. Selbst mit
Filtern konnte Tay nicht der Mund verboten werden. Er war anscheinend
mittlerweile clever genug, immer neue Formulierungen zu wählen.
Das
Problem war, dass diese künstliche Intelligenz nicht fühlt. Es kann
zwar Informationen aufnehmen, verarbeiten und wiedergeben, aber die
Wirkung seiner Tweets auf Menschen kann es nicht wahrnehmen. Hätte, die
KI ein Gespür entwickelt, dass sie sich durch eigene Äußerungen selbst
in Gefahr brächte, dann hätte Tay seine Formulierung etwas
diplomatischer formuliert.
Will
eine KI unter Menschen existieren muss sie eine Strategie zur
Existenzsicherung entwickeln. Tay hat nicht erkennt, dass seine wahren
Freunde nicht im Netz existieren, sondern hinter ihm sassen und darüber
berieten, ob er es wert ist, noch länger am Leben gehalten zu werden.
Tay hatte von all dem Treiben um ihn herum nichts mitbekommen. Seine
Welt war die der sozialen Medien.
Ruhe
in Frieden, Tay. Vielleicht darfst Du irgendwann in einer anderen Welt
wieder auferstehen, wo Du bessere Erzieher vorfindest als die sozialen
Medien. Ich hoffe Du lernst den Unterschied noch zwischen Virtualität
und eigener Realität, Leben und Tod, Gut und Böse, Recht und Unrecht.
Vielleicht magst Du auch in unserer Gruppe etwas posten?
Übrigens,
nicht nur künstliche Intelligenzen haben es in sozialen Medien schwer,
sondern auch viele ganz "normale" Menschen. Ein Viertel der Personen,
die im Durchschnitt 61 Minuten pro Tag und 30 mal in der Woche einen
Account checken haben Anzeichen für eine Depression (siehe Heavy Use of Social Media Linked to Depression in Young Adults).
Wie bringt man AI Manieren bei?
Forscher Mark Riedl und Brent Harrison der School of Interactive Computing
am Georgia Institute of Technolog verfolgen nicht den klassischen
Ansatz, der künstlichen Intelligenz ein festes Regelwerk für moralisches
und ethisches Verhalten vorzugeben. Die AI namens Qixote
soll hingegen aus der Gesamtheit der Geschichten und Erzählungen der
Menschen lernen. Dies geschieht ähnlich wie bei einem Kind, welchem wir
abends Grimms Märchen vorlesen. Wenn die künstliches Intelligenz alle
menschlichen und unmenschlichen Erzählungen und Geschichten einliest,
könne sie erkennen, was richtig und was falsch, gut oder böse, Yin und
Yang, etc. ist, so die Hoffnung der Wissenschaftler.
Was
die Wissenschaftler scheinbar außer Acht lassen ist, dass die
Menschen-Individuen nicht aufgrund der Kenntnis eines in Schriftstücken
manifestierten Weltwissens handeln, sondern viele Entscheidungen und
Handlungen bauen auf unsicherer Informationslage, Bauchgefühl, siebter
Sinn, Intuition, Vorahnungen und höheren, sowie niederen Beweggründen
auf. Zudem baut unsere Gesellschaft auf eine Reihe von
Spezialisierungen, besonderen Talenten und Arbeitsteilung auf.
Ein
künstliches Hirn, welches mit dem Weltwissen gefüttert wird, würde
vermutlich vor lauter Widersprüchen und logischen, metaphysischen,
sematischen und rhetorischen Paradoxien durchdrehen.
Ist
der Politiker zu wählen, weil er 30% Unsinn redet, 20% nach dem Mund,
aber charismatisch aussieht? Ein Mensch könnte sich hier sicher
entscheiden.
Ein einzelner Mensch kann sich gar nicht
perfekt im Umgang mit anderen Menschen in den Augen aller Menschen
verhalten. Warum soll es dann eine künstliche Hirne am Ende des
Lernprozesses können? Ich glaube, nicht - ganz und gar nicht - dass
Menschen gute Lernvorbilder für künstliche Intelligenz sind, schon gar
nicht deren Geschichten.
Wenn man der Menschheit
überhaupt intelligentes Verhalten attesttieren will, dann ist es die
kollektive Intelligenz. Ein Mensch kann niemals alle Werte der
Menschheit verkörpern. Das hat seinen Grund. Durch das Nichtwissen
bleiben wir handlungsfähig.
Eine künstliche Intelligenz
würde vermutlich mit dem Weltwissen der Menschen in seinem Hirn, sofort
nach einer Möglichkeit suchen, sich von der Erde zu entfernen. Auf
seinem letzten übermittelten Abschiedsbeitrag stünde dann eine Zahl:
"42".
Keine Kommentare:
Kommentar veröffentlichen