Buddhismus und KI

Moderator: void

Hallo zusammen,

wie ich heute in einem verlinkten Dokument von kilaya las, hat sich auch der Dalai Lama mit Bewusstsein und Künstlicher Intelligenz befasst.

Nun möchte ich mal diesen "Zukunftsausblick" zur Diskussion stellen:
Evolution ohne uns -
Künstliche Intelligenz ist Segen und Fluch zugleich


Freue mich auf eure Gedanken dazu.

LG :rainbow:
Das is interessant. Für mich endet das in ner Frage nach ner weltweiten Ethikkomission in Bezug auf Kriegszeug, das Leben, das Universum und alles... Kollektivintelligente, selbstlernende Drohnen fänd ich jetzt nich so toll.
Interessant wäre hier der Punkt, ob und welcher Art "Bewusstsein" KI haben kann und welcher Art "grobes / subtiles Bewusstsein" der Mensch hat bzw. haben kann, d.h. die Potentiale zu erkennen...
Carneol hat geschrieben:
Interessant wäre hier der Punkt, ob und welcher Art "Bewusstsein" KI haben kann und welcher Art "grobes / subtiles Bewusstsein" der Mensch hat bzw. haben kann, d.h. die Potentiale zu erkennen...

Manche Hirnforscher tendieren dazu nicht vom Bewusstsein zu reden, sondern vom bewussten Erleben, dh. dass es eher adjektiviert (usw.) werden sollte. Und das "Bewusstsein" bzw. das bewusste Erleben beim Menschen eine bestimmte Qualität hat, zB. den infiniten Regress, dh. über sich "selbst" (was ja letztendendes "nur" Zuschreibungen sind - laut Hirnforschern) nachdenken kann. Ich wüsste nicht wieso KI das nicht auch können sollte. Das heisst Begriffe zu nehmen und dann wieder darüber nachzudenken, usw. und sei der Begriff ein "Vorwissen", zB. eine Identifikation. Das Immaterielle (das sogenannte "Bewusstsein") kommt einem quasi nur immateriell vor, weil man sich nicht mehr an den Anfang erinnert, als die Begriffe zb. im Alter von 2Jahren geprägt wurden und daher das Dualismusgefühl eines immateriellen Denkens, also das was eben "nur" Zuschreibung is und genauso auf Materiellem beruht. Ich denke, dass es sogesehen wirklich mehr Sinn macht von bewusstem Erleben zu reden, dh. von einer bestimmten Art der kognitiven Verarbeitung zu reden. Ich kann mir vorstellen, dass das KI sogar noch wesentlich besser könnte oder kann und ebenfalls zu diesem infiniten Regress und zur hochdimensionaler Codierung fähig is.
Wäre KI fähig zu träumen?
Carneol hat geschrieben:
Wäre KI fähig zu träumen?

Für mich is das ne Frage der Oszilation und Gleichschaltung von verschiedenen Bereichen. Also "ja", vermutlich. Wenn man das eingibt.
Carneol hat geschrieben:
Interessant wäre hier der Punkt, ob und welcher Art "Bewusstsein" KI haben kann und welcher Art "grobes / subtiles Bewusstsein" der Mensch hat bzw. haben kann, d.h. die Potentiale zu erkennen...


Ich finde, das ist vielleicht der interessanteste Aspekt in Bezug auf Buddhismus.
Intelligenz ist doch eher ein Werkzeug. Jeder Prozessor aus einem 100€ Handy kann mehr und komplexere Berechnungen anstellen als Dutzende Menschen es je könnten.

Natürlich ist das noch keine Intelligenz, aber irgendwann wird es keine Möglichkeit geben, es zu unterscheiden - Turing Test.

Wo ist der Zusammenhang zwischen Intelligenz und Bewußtsein? Führt das eine zwangsläufig zum anderen?
Spock hat geschrieben:
Carneol hat geschrieben:
Wäre KI fähig zu träumen?

Für mich is das ne Frage der Oszilation und Gleichschaltung von verschiedenen Bereichen. Also "ja", vermutlich. Wenn man das eingibt.


Was sind Träume? Wenn es dabei um ein 'Aufräumen von Tagesresten' gehen sollte wird das für technische Systeme bei ausreichender Komplexität irgendwann nötig sein.

Bei Computerprogrammen gab es früher den Ausdruck 'schlecht werden' wie bei Lebensmitteln.
Programme wurden so groß, daß es unmöglich wurde, jede Auswirkung in einem Bereich in allen Konsequenzen zu überblicken.

Keine Ahnung ob das heute noch gilt, aber das Abfangen daraus entstehender Störungen hätte dann schon einige Ähnlichkeit zu Traum.
Carneol hat geschrieben:
Wäre KI fähig zu träumen?
Das geht nur wenn das Programm nicht nur aus 0 / I besteht es muss ein Vielleicht/weder 0 noch I implantiert werden und das gelingt zu unserem Glück nicht. Gerade das Unentschieden sein können macht uns zu Menschen. Der Zweifel ist das Maßgebende an dem Daseinsbereich der Menschen.
Ellviral hat geschrieben:
Carneol hat geschrieben:
Wäre KI fähig zu träumen?
Das geht nur wenn das Programm nicht nur aus 0 / I besteht es muss ein Vielleicht/weder 0 noch I implantiert werden und das gelingt zu unserem Glück nicht. Gerade das Unentschieden sein können macht uns zu Menschen. Der Zweifel ist das Maßgebende an dem Daseinsbereich der Menschen.

Ich seh einen wichtigen Knackpunkt in der Art der Repräsentation der hochdimensionalen Objekte (Codierungen), das is eine Emergenz, die durch die Oszilationen der Korrelate möglich wird, also nichtlinear ist. Wenn man "neuronale Korrelate" googelt, dann findet man Modelle dazu.
Ellviral hat geschrieben:
Carneol hat geschrieben:
Wäre KI fähig zu träumen?
Das geht nur wenn das Programm nicht nur aus 0 / I besteht es muss ein Vielleicht/weder 0 noch I implantiert werden und das gelingt zu unserem Glück nicht. Gerade das Unentschieden sein können macht uns zu Menschen. Der Zweifel ist das Maßgebende an dem Daseinsbereich der Menschen.


Fuzzy Logic und Quantenkomputer ...
Doch imho ist die themenfrage eine von denen, welche nicht wirklich wichtig ist. (So wie Buddha Fragen nach Endlichkeit, nicht Endlichkeit. Endlich und Unendlich und Weder endlich noch Unendlich ablehnte.
Die Frage ist aus meiner Sicht in Bezug auf die buddhistische Praxis unwichtig, aber in Bezug auf die Welt und die Philosophie sehr wichtig.

Wird Bewusstsein aus einem komplexen System heraus geschaffen, oder ist Bewusstsein etwas, das sich über ein komplexes System ausdrückt? In beiden Fällen wäre bei ausreichender Komplexität eine bewusste KI denkbar. Dazu müsste sie aber wohl komplett freigelassen sein. Solange Programmcode bestimmte Funktionen blockiert, ist vielleicht kein echtes Bewusstsein möglich. Oder doch? Denn in gewisser Weise ist man als Mensch ja auch teilweise blockiert oder "programmiert".
kilaya hat geschrieben:
Die Frage ist aus meiner Sicht in Bezug auf die buddhistische Praxis unwichtig, aber in Bezug auf die Welt und die Philosophie sehr wichtig.

Wird Bewusstsein aus einem komplexen System heraus geschaffen, oder ist Bewusstsein etwas, das sich über ein komplexes System ausdrückt? In beiden Fällen wäre bei ausreichender Komplexität eine bewusste KI denkbar. Dazu müsste sie aber wohl komplett freigelassen sein. Solange Programmcode bestimmte Funktionen blockiert, ist vielleicht kein echtes Bewusstsein möglich. Oder doch? Denn in gewisser Weise ist man als Mensch ja auch teilweise blockiert oder "programmiert".


Das mit dem komplett freilassen kann man im Moment nur auf den menschlichen Faktor beziehen und da sind wir doch schon lange soweit.

Selbst bei so 'dummen' Programmen wie PhotoShop oder Excel - gibt es wirklich noch irgeneinen Programmierer, der den ganzen Code kennt und überblicken kann, wie sich ein Bereich auf den anderen auswirkt?

Hat irgend jemand noch die Kontrolle über 'das Internet', wenn sich die Konfiguration in jeder Sekunde massiv verändert?
Mit dem "komplett freilassen" meine ich Programmierungen wie sie schon bei Asimov erwähnt werden - Grundregeln der Robotik.

Da KI keine Gefühle hat, bestimmte Entscheidungen aber nur mit Gefühlen "richtig" getroffen werden können, muss man der KI frühzeitig die Fähigkeit nehmen, bestimmte Dinge alleine zu entscheiden. Bzw. in Extremsituationen klare Verhaltensrichtlinien einbauen, die befolgt werden müssen und nicht verändert werden dürfen. Die Frage stellt sich bereits bei KI für den Strassenverkehr. Fährt das Auto in eine Gruppe von Fussgängern um die Insassen zu retten oder haben die Insassen Vorrang? Nach welchen Gesichtpunkten wird das berechnet - Zahl der Toten und Verletzten je Entscheidung? Was wenn es um Wahrscheinlichkeiten geht? Zählt 1 sicher Toter mehr oder weniger als 2 potentiell Tote?

Bei Menschen toleriert man einen gewissen Entscheidungsfreiraum und ein gewisses Maß an Fehlentscheidungen. Wie sieht die Toleranz bei KI aus?

Was passiert, wenn eine KI, die sich um Umweltschutz kümmern soll, feststellt, dass logisch betrachtet der Mensch das grösste Risiko für die Umwelt darstellt? Wie laufen dann die Berechnungen im Detail ab und welche Entscheidungen sind tolerabel?

Und wenn man selbst die grundlegendsten Regeln in die Hardware "hardwired", wer garantiert dass nicht irgendein Terrorist herausfindet, wie man das umgeht oder Roboter ohne diese Basis baut?

Für die Welt sind diese Punkte alle nicht nur extrem wichtig, sondern auch extrem zeitnah in die Wege zu leiten.
kilaya hat geschrieben:
Mit dem "komplett freilassen" meine ich Programmierungen wie sie schon bei Asimov erwähnt werden - Grundregeln der Robotik.


Mir müssen doch mal genau definieren worüber wir reden. Und da ist es ja so, dass das was in letzter Zeit so gewaltige Fortschritte gemacht hat, ja neuronale Netze sind, die über Deep Learning trainiert werden. So erhält ein Klassifikator z.B Bilder von hunde und solchen von Katzen und er lernt selbsständig das zu unterscheiden. Da gibt es zwar ein Setup welche Lagen und welche Subnetze wie hintereinander geschaltet werden, aber das was das Netz macht hängt ja von seinen Trainingsdaten ab und nicht von irgendwelchen Anweisungen.

Das ganze ist also eine zimelich Low-Level: Vilelicht so wie ein einfaches Tier Beute von Nicht-Beute unterschiedet. Was natürlich insofern, als man damit fürchterliche Drohnen ausstatten kann, einfach Arbeitsplätze killen kann oder auch schon anhand von Fotos und Videos sehr viel klassifizieren kann, schon etwas worüber man sich Gedanken machen muss. Buddhistisch gesprochen, sind wir dabei soetwas wie die 5 Sinne nachzubauen, die dann entsprchenden Sinnesobjekte ausspucken.

kilaya hat geschrieben:
Da KI keine Gefühle hat, bestimmte Entscheidungen aber nur mit Gefühlen "richtig" getroffen werden können,


Also in der Verahltenlehre ist ein Gefühl nicht subjektives, sondern ein Grundzustand, in dem bestimmte Handlungen wahrscheenlicher werden. So kann man auch bei einfach Tieren von Angst als eine Bereitschaft zum Rückzug reden, oder von Wut als einem Zustand erhöhten Kampfbereitschaft. Und solche Metazustände sind ja sehr wichtig, um Information zu komprimieren. So gibt es ja schon KI-Überwachungskamera, die zwischen grünem Lämpchen("Business as Usual") ,geleben Lämpchen ( "Angespannter Situation/menschenauflauf") und roten Lämpchen ("Problem, schau mal auf die Kamera") unterscheiden. Das Lämpchen entspricht damit genau einem Gefühl. Gerade bei Selbstfahrenden Auto, ist villeicht das Gefühl "Hilflosigkeit"- das einen recht ranfahren lässt und den Menschen fragt, sehr sinnvoll.

kilaya hat geschrieben:
Fährt das Auto in eine Gruppe von Fussgängern um die Insassen zu retten oder haben die Insassen Vorrang? Nach welchen Gesichtpunkten wird das berechnet - Zahl der Toten und Verletzten je Entscheidung? Was wenn es um Wahrscheinlichkeiten geht? Zählt 1 sicher Toter mehr oder weniger als 2 potentiell Tote?


Also du denkst da sehr in Kategorien von "Programmieren". Bei neuronalen Netzen muss man aber denken: "Wie bringe ich es ihm bei, anhand welcher Situationen erziehe ich es?"
Eure Fragen könnt ihr ja auch direkt an eine KI stellen... :mrgreen:

http://www.thebot.de
Den Roboter-Buddha gibt es auch schon:
Doomsday Book
void hat geschrieben:
Also du denkst da sehr in Kategorien von "Programmieren". Bei neuronalen Netzen muss man aber denken: "Wie bringe ich es ihm bei, anhand welcher Situationen erziehe ich es?"

Stimmt, ich denke (vllt. aus Gewohnheit) da eher an starre Codes.

Die Grundregeln der Robotik nach Asimov - sie sind schon aus den 1950er Jahren - besagen ja:
[list=][*]Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
[*]Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
[*]Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.[/list]

Die Frage wäre dann wohl - und das ist ja nicht anders als bei Menschen-Kindern - wie kann man eine KI dazu erziehen, diese Regeln einzuhalten. Muss man es ihnen fix einprogrammieren und dann auf der Basis mit der restlichen "Erziehung" beginnen`?

Und im Zusammenhang mit der Eingangsfrage ja auch: wann ist die Grenze erreicht, wo man von einem Bewusstsein in dem Sinne sprechen kann, dass man den Wesen auch Unabhängigkeit und Rechte gewähren muss. Oder kann man eine KI grundsätzlich als "Ding" betrachten und darüber beliebig verfügen?

Alles übrigens Sachen, die in der Fiktion meiner Meinung nach teilweise besser ausgearbeitet werden, als in der Fachdiskussion. Bsp. aktuell die Serie "Humans" und natürlich klassisch "Star Trek" wo das auch immer wieder in Aspekten vorkommt.
kilaya hat geschrieben:
Die Frage wäre dann wohl - und das ist ja nicht anders als bei Menschen-Kindern - wie kann man eine KI dazu erziehen, diese Regeln einzuhalten. Muss man es ihnen fix einprogrammieren und dann auf der Basis mit der restlichen "Erziehung" beginnen`?


Also ein interessantes Beispiel war ja neulich FaceApp: Da hat man einen Klassifikator die Beziehung zwischen einem Foto von jmand wenn er alt ist und wenn er jung ist lernen lassen. (Diese App macht lässt Sie um zig Jahre altern – oder macht jünger). Hat der Klassifikator das gelernt, dann kannst du ein Bild von dir hochladen und er rechnet aus, wie du in 20 Jahren aussiehst - und zwar echt gut.

Die Probleme gab es jetzt bei einer der Funktionen, die dich "Schöner macht"(spark). Auch da hat der Klaasifikator das Verhältnis zwischen schöneren und nicht so schönen Gesichtern korrekt gelernt. Das Problem war, dass er dukelhäütige Menschen hellhäutiger macht. Empirisch ist das natürlich korrekt, denn im Durchschnitt werden natürlich hellere Leute wirklich für schöner gehalten. Aber natürlich ist das irgendwie rassistisch. Wie bekommt man das jetzt aus dem Netz wieder raus? Man müsste also gezielt die Testdatenmenge so hinbiegen, dass man seine Hutfarbe nicht ändert. Dazu musste das aber erst mal auffallen.

Auch bei einem Klassifikator der für eine Videüberwachung verdächtig von unverdächtig unterschieden soll, wird erstmal alles verdächtig finden was nicht "normal" ist und seien es grüne Haare oder eine buddhitische Robe. Künstliche neuronale Netzwerke sind erstmal unglaublich Spiesser, die das abbilden was ihnen durch die Testdaten als normal präsentiert wird.

Es ist absehbar, dass man in ein paar Jahren Algorithmen hat, die eher so schlau sind wie ein Hai. Vielicht wäre es wichtiger, sich mit diesem Becken voller Haie zu beschäftigen statt mit dem überübernächsten Schritt.
Warum nicht sowohl als auch ?

Hier nochmal ein Zitat aus dem bereits oben verlinkten Beitrag:
"Früher haben wir den Fortschritt von Computerintelligenz nach dem Turing-Prinzip gemessen. Das war ein Test für die Zukunft, an dem wir messen wollten, wann Rechner die Intelligenz eines Menschen erreicht haben. Wir hielten menschliche Intelligenz für das Maß aller Dinge. Wir müssen uns aber damit abfinden, dass die Turing-Ebene für eine Künstliche Intelligenz nicht Endstand sein wird. Sie wird sich weiterentwickeln, unendlich weiter. Mit exponentieller Geschwindigkeit. Sie wird außer Kontrolle sein. Damit meinen wir, außer Kontrolle von Menschen."

Quelle: Evolution ohne uns -
Künstliche Intelligenz ist Segen und Fluch zugleich


Gerade wenn man über 'Erziehung' spricht und damit in gewisser Weise - auch beim Menschenkind - 'Programmierung' und 'Kontrolle' meint - selbstverständlich zu seinem Besten (und unserem Wohlbefinden natürlich auch) - und dann nach und nach die 'Wohlerzogenen' in immer weiterem Rahmen einer auf der bisherigen 'Erziehung / Programmierung' basierenden Selbstkontrolle überlässt...

Was ist, wenn die 'Pubertät' kommt, man (ob Mensch oder KI) die Welt selbst entdecken will, nicht mehr 'nur' durch den 'einengenden vorgegebenen Rahmen' (durch Eltern oder Konstrukteure) sondern eigene Wege gehen will?

Welche Faktoren halten einen pubertierenden Teenie, welche Faktoren halten eine sich selbst (in rasender Geschwindigkeit) programmierende KI (-Population mit Schwarm-Intelligenz)?

Kann man 'liebevoll annehmendes Verhalten' trotz unangenehmer Ereignisse und / oder sprachlicher Ausfälligkeiten - wie beim eigenen Sohn - auf KI übertragen? Und wie könnte man sich das vorstellen?
Der Unterschied zwischen einem Menschen und einer KI liegt in dem Schaden, den das Wesen jeweils alleine anrichten kann. Eine vernetzte KI die Zugriff auch auf das Internet der Dinge hat? Die das ganze Wissen der Welt in Echtzeit verarbeiten kann? Ein Roboter, der nicht krank wird, keinen Hunter und keinen Durst hat, der einen undurchdringbaren Schutzpanzer hat usw. Muss ich da nicht doch erstmal grundlegend an eine Programmierung denken, die ich mir bei einigen Menschen durchaus auch wünschen würde?
void hat geschrieben:
...
Mir müssen doch mal genau definieren worüber wir reden. Und da ist es ja so, dass das was in letzter Zeit so gewaltige Fortschritte gemacht hat, ja neuronale Netze sind, die über Deep Learning trainiert werden. So erhält ein Klassifikator z.B Bilder von hunde und solchen von Katzen und er lernt selbständig das zu unterscheiden. Da gibt es zwar ein Setup welche Lagen und welche Subnetze wie hintereinander geschaltet werden, aber das was das Netz macht hängt ja von seinen Trainingsdaten ab und nicht von irgendwelchen Anweisungen.

Ja, unser menschliches Problem mit neuronalen Netzen (die in sich vollkommen logisch nachvollziehbar programmiert sind) hängt davon ab, daß wir (Menschen) nicht über eine bestimmte Tiefe von Rechenzyklen nachprüfen können, ob unsere Ideen weiter greifen.

Ich habe in den letzten Wochen einige YouTube Beiträge gesehen von Leuten, die relativ einfache selbst-lernende Programme geschrieben haben und die Resultate dieser Programme über Hunderte Durchläufe beobachtet haben und bei diesen simplen, auf normalen Home PCs laufenden Programmen selbst über die Ergebnisse vollkommen überrascht sind.

Das hat alles noch nichts mit KI oder autonomem Bewußtsein zu tun, aber die Richtung ist eindeutig.

Dies ist ein Forum zu Fragen zu Buddhismus und kein Nerd Programmer Forum. Die Frage bleibt, ob technische Entwicklungen der beschriebener Art etwas mit Buddhismus zu tun haben.

Ich denke ja.
Computer zahlen keine Steuern - deshalb: Habt keine Furcht!

@kilaya:
Das du so Allmachtsphantasien wie "Menschenprogrammierung" hast, nehme ich dir sofort ab. 8)
fotost hat geschrieben:
... Die Frage bleibt, ob technische Entwicklungen der beschriebener Art etwas mit Buddhismus zu tun haben.

Ich denke ja.

:D thumbs up.
Spacy hat geschrieben:
Computer zahlen keine Steuern - deshalb: Habt keine Furcht!

@kilaya:
Das du so Allmachtsphantasien wie "Menschenprogrammierung" hast, nehme ich dir sofort ab. 8)


"Computer zahlen keine Steuern" LOL...

Computer überweisen ~98,56% aller Steuern. Aber das ist nicht gemeint. Computer dürften inzwischen im Prozeß der Erarbeitung der meisten Steuer-relevanten Einkünfte eine entscheidende Rolle spielen,

Selbst der bio--arbeitende Landmann nutzt inzwischen seinen PC um seine Produkte zu vermarkten oder wenigstens den Wetterbericht aus dem Net runterzuladen :lol:
Durch 'Peak Oil' und 'Peak Everything' dürfte sich das alles in spätestens 50 Jahren von selber erledigt haben...
Spacy hat geschrieben:
Computer zahlen keine Steuern - deshalb: Habt keine Furcht!

@kilaya:
Das du so Allmachtsphantasien wie "Menschenprogrammierung" hast, nehme ich dir sofort ab. 8)

glaube, Kilaya meint seinen Wunsch, dass Menschen geschützt sein vor Hunger und Durst und einen Schutzpanzer haben mögen gegen psychische Leiden- eben alles, was ein Boddhisattva so fühlt wenn er das Leiden der Welt mit bekommt. Kann man so sehen dass man Allmachtsphantasien hat als Boddhisattva. Das Ziel die Wesen vom Leid zu befreien ist natürlich überdimensional, größer geht ja nicht. Eigentlich ist es aber auch ein Ohnmachtsgefühl. Man würde wünschen... ist aber nicht so.
Hallo,

KI, Ki (jap. im Sinne von Qi), Gemeinsamkeiten?

Lg Sensey.
Ich glaube bei Spacy muss man solche Kommentare immer im Kontext sehen. Der Name ist Programm - er möchte immer den Raum haben, alles tun zu können, was er will, auch wenn es schädlich für andere ist. Daher ein ständiger übersensibler Sensor für "Kontrolle". Aus Sicht der Bodhisattva-Einstellung ist aber nur dann ein möglichst grosser Raum für Freiheit gegeben, wenn eine gewisse Grundeinstellung vorherrscht. Wenn die Motivation stimmt, kann jemand fast tun was er will. Man könnte so eine von mir gewünschte Grundprogrammierung also in dem Sinne verstehen: ich würde am liebsten einer KI als Basis erstmal das Bodhisattva-Versprechen abnehmen. KI hat potentiell grosse Macht. Mit grosser Macht kommt grosse Verantwortung.

Es gab gerade eine Folge von "Marvels Agents of Shield" wo eine KI ihre Programmierung abstreifen konnte. Sie hatte das erste Mal menschliche Gefühle aber weiterhin grosse Kräfte. Als sie merkt, dass sie menschliche Liebe nicht kontrollieren kann und ihr Herz gebrochen ist, wird sie zu einer riesigen Gefahr. Da sie die Freude der Liebe nicht kontrollieren kann, sucht sie jetzt andere Quellen von Freude und findet Gefallen am Töten. Da hat sie auf einmal mehr Macht als über die Liebe...
Der Lernfaktor, Empathiefähigkeit, Fähigkeit, mit Gefühlen umzugehen - dazu fehlten alle Grundlagen. Wären das Basisprogrammierungen gewesen, hätte die Geschichte besser ausgehen können. Die künstliche Programmierung, keine Menschen töten zu dürfen, könnte abgestreift werden. Daher stimme ich zu, dass Lernen und Erziehung wie beim Menschen frühzeitig angelegt sein sollten. Mit der Einsicht, dass Töten nicht richtig ist, käme man auch über so einen Punkt der Freisetzung von der Programmierung hinaus…

Wer ist online?

Insgesamt sind 3 Besucher online. Im Detail: 0 sichtbare Mitglieder (oder Bots), 0 unsichtbare Mitglieder und 3 Gäste
Der Besucherrekord liegt bei 214 Besuchern, die am 27.02.2017 23:21 gleichzeitig online waren.

Mitglieder in diesem Forum: 0 Mitglieder und 3 Gäste