„Terror - Ihr Urteil“

Hier ging es doch darum, zwei Positonen gegenüber zu stellen, die ein Dilemma ergaben. Prinzip gegen Gewissen/ Recht gegen Moral. Das war und ist das eigentliche Thema. Der Abschuß war nur eins von zig möglichen Fällen als Beispiel.

Wieso ist man immer der Ansicht, dass Recht und Moral sich diametral gegenüberstehen würden? Das tut es nicht, im Gegenteil, das Recht kodifiziert doch die Moral und macht es im wahrsten Sinne des Wortes "beURTEILbar". Wie in dem Kommentar in der Zeit der Richter geschrieben hat: Dieses Thema ist juristisch doch bereits gelöst. Es gibt hier kein juristisches Dilemma, es ist klar beurteilbar.
 
dann liegt es an den Gerichten zu entscheiden - man kann keine perfekte Welt programmieren und eine perfekte Welt gibt es auch bekanntlich nicht.

Genau so ist es eben. Und irgendjemand muss aber den Code geschrieben haben der das Fahrzeug gelenkt hat und der steht dementsprechend in der rechtlichen Verantwortung. Genau um dieses Dilemma geht es hier. Wer will diese Verantwortung schon übernehmen? Ich würde es nicht wollen....
 
Genau so ist es eben. Und irgendjemand muss aber den Code geschrieben haben der das Fahrzeug gelenkt hat und der steht dementsprechend in der rechtlichen Verantwortung.
möglich … es gibt auch heute schon Fälle wo man ganz klar sagen kann, das liegt an der Software.

aber wo ist dann der Unterschied zu schlechtem Material oder ähnlichem ? Vielleicht ist einfach nur der Auftraggeber schuld, weil er zu wenig Geld für die Entwicklung ausgegeben hat und Verantwortung hat dann nicht derjenige der das geschrieben hat sonder derjenige der das Produkt vertreibt.

Im Prinzip ist das nichts neues. Wenn ich billige Teile in meine Geräten einbaue, dann sind nicht die Erzeuger der billigen Teile schuld, wenn etwas schiefgeht.
 
aber wo ist dann der Unterschied zu schlechtem Material oder ähnlichem ?

Der Vorsatz ist der große Unterschied. Dass du diese Entscheidung im Vorfeld triffst weil du genau so eine Situation programmieren musst. Ein Material"fehler" ist ein Fehler. Das hier ist kein Fehler, das ist eine bewusst getroffene Entscheidung im Code.
 
Der Vorsatz ist der große Unterschied. Dass du diese Entscheidung im Vorfeld triffst weil du genau so eine Situation programmieren musst.

kennst du dich aus mit Programmen ?? Von welchem Vorsatz ist die Rede ? Das kann man genauso auf schlechtes Material anwenden … das mit dem Vorsatz.

Wenn ein Termin eingehalten werden muss, und nicht genug Zeit zur Verfügung ist, dann muss jemand entscheiden, der die Verantwortung übernimmt. Wenn derjenige nachweislich fahrlässig handelt, dann ist er dran.
 
kennst du dich aus mit Programmen ??

Ich in in der IT tätig, wenn auch nicht als Software-Entwickler, so weiß ich sehr wohl wie Algorithmen aussehen und wie sie funktionieren. Und dass gerade eine Software die permanent Umweltparameter überprüft, auswertet und dann die Entscheidungen anhand dieser Parameter fällt ganz klare Entscheidungskriterien hinterlegt haben muss nach denen sie selbige trifft. Ergo liegt das in der fundamentalen Entscheidungsgewalt des Programmierers wie das Verhalten in so einer Situation dann ist. Das ist eigentlich sowohl technisch als auch rechtlich vollkommen unstrittig.

Wenn ein Termin eingehalten werden muss, und nicht genug Zeit zur Verfügung ist, dann muss jemand entscheiden, der die Verantwortung übernimmt.

Und genau das ist es eben: Niemand wird diese Verantwortung übernehmen wollen. Was ich auch verstehen kann. Ich würde sie auch nicht übernehmen wollen.
 
das mit dem Termin habe ich als beispiel genommen, weil Zeit bekanntlich Geld ist und viel Schrott-Software auf den Markt kommt, eben weil ein Termin eingehalten werden muss. Software gibt es schließlich in allen Bereichen .

aber ich glaube du hast da falsche Vorstellungen … es gibt kein perkektes Programm - das kannst du gleich wieder vergessen.
 
es gibt auch so gut wie keine Software, die keine Fehler hat .

außer sie besteht aus drei Zeilen, aber auch denn kann etwas geschehen mit dem System, und das muss nicht mal an der Software liegen.
 
aber ich glaube du hast da falsche Vorstellungen … es gibt kein perkektes Programm - da kannst du gleich wieder vergessen.

Natürlich gibt es das nicht. Aber es ist ein Unterschied ob ein Bug so einen Unfall verursacht oder ob das Programm ordnungsgemäß funktioniert hat und eben die Entscheidung im Code getroffen wurde.
 
Was quälts euch so...
Bis in ö ein draken.... Ähm bewaffneter Eurofighter in der Luft ist, ist das Stadion schon ausgebrannt...
Und wo gibts a Stadion mit 70000 Besuchern in Ö
Muss a Konzert vom Gabalier sein... Und dann stellt sich die Frage... Egal...
Nicht fernsehen ist ein guter Ansatz, kostet zuviel unwiederbringliche Lebenszeit...
 
Wieso ist man immer der Ansicht, dass Recht und Moral sich diametral gegenüberstehen würden? Das tut es nicht, im Gegenteil, das Recht kodifiziert doch die Moral und macht es im wahrsten Sinne des Wortes "beURTEILbar". Wie in dem Kommentar in der Zeit der Richter geschrieben hat: Dieses Thema ist juristisch doch bereits gelöst. Es gibt hier kein juristisches Dilemma, es ist klar beurteilbar.

Es ist richtig, dass rechtlich gesehen, der Pilot nicht hätte schießen dürfen. Das Dilemma ist ja auch kein juristisches, sondern ein Konflikt, der eben rein juristisch nicht lösbar ist.

Der Staat hat seine Bürger zu schützen. In diesem Fall sowohl die Flugzeuginsassen als auch die Menschen im Stadion. Beides geht aber nicht. Und in diesem "übergesetzlichen Notstand" ist nur eine Gewissensentscheidung möglich, die aber bei beiden Entscheidungen eine Schuld erzeugt, entweder eine rechtliche im Falle eines Abschusses oder eine moralische, wenn der Pilot es zulässt, dass im Stadion Menschen sterben, die er durch einen Abschuss hätte retten können, wobei die Insassen des Flugzeuges eh keine Überlebenschance mehr hätten.

Hier bestehen eben Zweifel, ob die bestehende Kodifizierung der Moral in jedem Fall moralisch noch gerechtfertigt ist und die Prinzipien neu zu überdenken sind. Schließlich bestimmt die Moral, was Gesetz wird und nicht umgekehrt.
 
Und Autos werden auf so ein Entscheidungsdilemma nicht getestet?

Inwiefern sollte bzw. muss man das "testen"? Wenn man den Algorithmus kennt (und den sollte der Hersteller ja kennen), dann wäre der einzige Test ob das Fahrzeug dem Algorithmus entsprechend agiert. Das Problem liegt aber nicht an der Umsetzung, das Problem liegt im moralischen und juristischen Dilemma WIE und OB das Fahrzeug, also eigentlich der Programmierer, diese Situationen entscheiden darf und wer hierfür dann die (juristische) Verantwortung übernimmt.
 
Ich meine testen im Sinne vom Staat für den Verkehr zugelassen werden!
Tesla sollte ja auch selber fahren können, tut dies aber nicht immer wie man sieht! Glaube kaum das diese Fahrzeuge ohne brauchbarer Lösung noch weiter fahren dürfen in dieser Form!
Glaube kaum das ein Programmierer tun und lassen kann nach eigener Vorstellung!
 
Das Dilemma ist ja auch kein juristisches, sondern ein Konflikt, der eben rein juristisch nicht lösbar ist.

Aber dennoch wurde in dieser "Show" eben ein juristisches Dilemma draus gemacht, wo es dieses jedoch nicht ist. Ergo: Ein Schuld- oder Freispruch ist nicht nach moralischem Gutdünken zu fällen sondern anhand der Gesetzeslage und diese ist eindeutig und stellt kein Dilemma dar. Der Fall ist entsprechend gesetzlich determiniert, die Frage der Rechtswidrigkeit ist in einem Urteil des BGH ausführlichst geklärt worden.
Es ist keine juristische Frage mehr. Man kann natürlich drüber diskutieren ob die moralische Entrüstung und das moralische Dilemma im Gesetz korrekt abgebildet ist, aber ich sehe wahrlich keine bessere Lösung für dieses Problem, denn dann sind wir wieder bei der Frage: Ab welchem Verhältnis zwischen der Anzahl der Opfer darf denn eine Carte Blanche ausgestellt werden? Ich kann dir keine Zahl nennen und der Gesetzgeber wird sich ebenso hüten das hart zu kodifizieren.
 
Glaube kaum das ein Programmierer tun und lassen kann nach eigener Vorstellung!

Genauso ist es eben. Das ist ja die Quintessenz dieses Dilemmas. Die Frage der mittelbaren Verantwortung. Wobei hier eben noch zwischen einer Fehlfunktion (wie bei Tesla kolportiert) differenziert werden muss (wo ganz andere Haftungsgrundlagen herrschen) und eben einer gewollten Funktion wie in meinem angesprochenen Fall.
 
Wobei hier eben noch zwischen einer Fehlfunktion (wie bei Tesla kolportiert)
Also wenn ein Computer eine Überkopf-Strassentafel mit einem LKW Anhänger verwechselt, würde ich nicht von Fehlfunktion sprechen!
Versicherungstechnisch sind solche Fahrzeuge schon grenzwertig, wie soll das juristisch überhaupt bewertet werden ,wenn so ein Fahrzeug alleine alles macht? Gibts da schon was im Gesetz?
 
Also wenn ein Computer eine Überkopf-Strassentafel mit einem LKW Anhänger verwechselt, würde ich nicht von Fehlfunktion sprechen!

Na, was soll es sonst sein außer einer Fehlfunktion? Das Fahrzeug hat fehlerhaft agiert, ergo war es eine Fehlfunktion.

Versicherungstechnisch sind solche Fahrzeuge schon grenzwertig, wie soll das juristisch überhaupt bewertet werden ,wenn so ein Fahrzeug alleine alles macht? Gibts da schon was im Gesetz?

Tja, willkommen in der Welt von genau diesem Dilemma. Nein, es ist meines Wissens nach juristisch noch nicht geklärt. (jedenfalls in der EU).
 
Zurück
Oben