Zum Inhalt der Seite



Schreibhörnchens Ideenstube
Aktionen ♦ Challenges ♦ Schreibprojekte

abgemeldet
11.11.2016 00:05

[Tag 11] Schreibimpulse

Willkommen zu Tag 11 unserer Schreibimpulse!

Für alle, die gerade neu hinzu gestoßen sind, hier noch die kurze Info, worum’s eigentlich geht:

Im November findet der National Novels Writing Month statt! Jeder, der das noch nicht kennt, ist eingeladen auf der Homepage nachzusehen und sich vom NaNo-Fieber infizieren zu lassen. Ziel des NaNoWriMo ist es innerhalb eines Monats einen Roman mit zumindest 50.000 Wörtern zu schreiben. Oder einen Romanteil. Oder was auch immer - bei Bedarf lassen sich die Regeln ja auch ein bisschen verbiegen, sodass sie für einen selbst passen!

Alle NaNo-Autoren und alle anderen, die den November nutzen wollen, um Wörter auf’s Papier zu bringen, Sätze in den Computer zu klopfen und die Tasten von Schreibmaschinen zu malträtieren, sind herzlich eingeladen sich von unseren Schreibimpulsen inspirieren zu lassen!
Denn … seien wir mal ehrlich, es passiert doch oft genug, dass man vor einer leeren Seite sitzt und der Kopf wie leer gefegt ist.



Das heutige Thema: künstliche Intelligenz!

Hierbei handelt es sich um den Versuch menschliche Intelligenz künstlich nachzubilden - als Computerprogramm, als Roboter, als Hologramm. Der Begriff ist nicht ganz einfach, unter anderem, weil Intelligenz an sich schwer zu definieren ist.

In diesem Eintrag soll es vor allem um künstliche Intelligenzen gehen, die den Turing-Test potentiell bestehen könnten. Bei diesem Test stellt ein Mensch per Terminal Fragen an einen anderen Menschen, bzw. eine KI - ohne zu wissen, wer von beiden antwortet. Kann der Mensch unterscheiden, ob die Frage von einer KI beantwortet wurde oder nicht, dann besteht sie den Test nicht. Wenn kein Unterschied feststellbar ist, besteht sie. Aktuell ist das noch Science Fiction - aber wer weiß schon wie lange das so bleibt?

Gibt es in deinem Setting künstliche Intelligenzen? Unterliegen sie bestimmten Beschränkungen wie etwa Asimovs Regeln der Robotik [siehe unten]?

Wenn es keine derartigen Beschränkungen gibt: was verhindert, dass künstliche Intelligenzen sich gegen die Menschheit wenden? Oder haben sie es bereits getan?

Oder vielleicht leben Menschen und künstliche Intelligenzen friedlich neben einander, respektieren sich und profitieren von den Fähigkeiten der jeweils anderen Seite? Haben KIs die gleichen Rechte wie Menschen? Die gleichen Pflichten? Sollten sie die gleichen Rechte und Pflichten haben, oder sollten sie den Menschen untergeben sein? Welche Folgen hätte die Unterdrückung von künstlichen Intelligenzen? Gibt es Gruppen, die sich für ihre Gleichstellung einsetzen?

Wenn wir von künstlichen Intelligenzen reden, sprechen wir nicht nur von ungeahnten Möglichkeiten, sondern begeben uns auf moralisches Glatteis. Hat der Mensch überhaupt das Recht intelligente Wesen zu erschaffen? Wie fällt die Reaktion der religiösen Bevölkerung aus? Sind KIs mutwilligen Anschlägen ausgesetzt? Und werden diese genau so wahrgenommen, wie Angriffe auf Menschen?

Teile deine Gedanken zum Thema doch unten in den Kommentaren mit uns!
 

Isaac Asimovs Robotergesetze:
0: Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
1: Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.
2: Ein Roboter muss den Befehlen der Menschen gehorchen, außer er verstößt damit gegen das nullte oder erste Gesetz.
3: Ein Roboter muss seine eigene Existenz schützen, so lange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.

Zum Masterpost


Nichts ist leichter, als so zu schreiben, dass kein Mensch es versteht; wie hingegen nichts schwerer, als bedeutende Gedanken so auszudrücken, dass jeder sie verstehen muss.

Arthur Schopenhauer

Avatar
Datum: 11.11.2016 00:24
Haha!

Ja, ich habe KI in meiner Geschichte - Tala findet einen Cyborg und schaltet den auch ein. Der Cyborg wird natürlich zum Großteil sprachgesteuert, vor allem weil es komisch aussehen würde, wenn auf dem Bauch des Cyborgs eine Tastatur und ein Monitor sein würde. Es handelt sich um einen Prototypen der gut funktioniert und aus versehen im Müll gelandet ist (weswegen auch direkt jemand losgeschickt wird, der nach dem Cyborg sucht, ehe er jemand anderem in die Hände fällt - Tala zB).

Der erste Befehl, den Tala erteilt, ist die aktivierung der KI - ansonsten bräuchte der Cyborg für jeden Schritt quasi einen Befehl und könnte kein bisschen selbständig Handeln. die KI ist so eine Art Lernprogramm, das nicht nur limitiert ist auf das, was es kann, sondern auch dazu lernen kann (ein bisschen wie bei Chobits, nur nicht ganz so dämlich und bei Adam und Eva anfangend)

Durch die Cyborgs und ihre KI wird natürlich etwas geschaffen, das echte Menschen entbehrlich macht - da das aber insgesamt nicht gewollt ist, würden sie nur 'neben' den Menschen her leben, in einer friedlichen Einheit. Das ist ja auch das Ziel, dass das System in seiner utopischen Vorstellung verfolgt und das ja doch nie klappt^^
Avatar
Datum: 14.11.2016 19:28
abgemeldet
Der hat Nerven einfach mal so einen Cyborg anzuschalten xD Ich hätte ja Angst, dass da noch irgendetwas drauf aktiv ist, das mich als Unerwünschten erkennt und gleich mal beseitigt >.< Aber darum bin ich auch kein Romanheld, hahaha

Gibt es dann etwas, das deine Cyborgs auch daran bindet, dass sie friedlich bleiben? Etwas in ihrer Programmierung, die verhindert, dass sie sich gegen ihre Schöpfer richten? Oder verlässt man sich da darauf, dass das schon irgendwie so funktionieren wird (und wir wissen alle wie schlau DAS ist <.<)
Avatar
Datum: 14.11.2016 19:45
abgemeldet

Also, das Tala den einfach so einschaltet grenzt in gewissem Maße schon an Dummheit.

aaaaallerdings sind die in meinem Roman ja ausgibigst damit beschäftigt, Menschen 'herzustellen', die gerade keine kriminelle Energie in sich tragen, weswegen auch der 'Urbefehl' des Cyborgs niemals lauten wird: Töte alles in einem Umkreis von 10 m... von daher sind sie also eher darauf angelegt, friedlich zu bleiben.

Das könnte man dann nur durch umprogrammieren/hacken ändern... oder man nutzt das Lernprogramm dafür, sie so zu erziehen, dass sie eben doch auf andere Menschen losgehen (aber in erster Linie ist das im ganzen Roman insgesamt nicht gewollt). Oder es liegt eben ein Programmierfehler vor, aber einen amoklaufenden Cyborg hatte ich bisher nicht eingeplant... hmmmmm >:D




Zum Weblog