Hat GPT das Erotikforum verändert???

DAS macht übrigens ChatGPT aus meinem Text. Frage in die Runde: welcher Text ist sympathischer??? Doch die KI, die von mir das abgeschaut hat?



Na, da bin ich wieder mit meinen wirren Gedanken zu EF und der ganzen digitalen Dating-Welt. Also, erstmal: Wie viele Menschen hier nutzen wirklich Gesichtsfilter auf ihren Bildern? Die Pandemie hat uns zu Online-Dating-Experten gemacht, aber jetzt auch noch Filter im Profiltext? Bald haben wir wohl eine ganze Armee von virtuellen Look-alikes. Praktisch, oder? Heiße Schokolade und ein Film, während meine Roboter-Soldaten die Arbeit erledigen? Klingt verlockend. 🍫🤖

Aber mal ernsthaft, wie authentisch ist das alles? Online-Dating wird vielfältiger, aber auch komplizierter. Und wie steht es um die Zärtlichkeiten? Kann man sich damit wirklich zufriedengeben? Online-Dating bietet vielleicht Hilfe, aber wenn herauskommt, dass jemand nicht so ist, wie er/sie/es vorgibt, wird es knifflig.

Authentizität wird zum Marktvorteil, aber kämpft gegen eine Armee von perfekten Profilen. Bald könnte EF aussehen wie ein Roboter-Convention. Im Moment hat man hier sechs Finger, während Midjourney nur fünf bietet. Aber was, wenn das immer realistischer wird?

Am Ende könnten wir mehr Frust, aber weniger Liebe und echte Verbindungen haben. Kein Roboter kann den Menschen ersetzen, oder? Oder werden wir alle zu Tech-Fetischisten? 🤖💔 Alles in allem sehe ich uns auf einem schrägen Pfad zwischen Liebe und Technik, zwischen Zärtlichkeit und virtueller Realität. Stay weird, EF. 🚀😜

Das ist ja genau die Thematik, die ich meinte. Du benutzt den GPT falsch und erreichst so doch nicht das was du bezwecken wolltest.

Um einen authentischen GPT zu erzeugen, der deinen Schreibstil nachahmt, musst du ihn mit relevanten Daten füttern. So ists bloß ein Textgenerator, welcher eine andere Persönlichkeit einnimmt. Dies bedeutet in erster Linie eins: Arbeit. Und jetzt mal im ernst: Jemand, der es nichtmal schafft ein Profil halbwegs auszufüllen, was keine 10 Minuten in Anspruch nimmt, der sitzt sich auch nicht eine Stunde hin um einen Prompt zu erstellen.

So schließt sich derzeit der Kreis... vielleicht gelingen einem mehr Dates, die dann - in der Realität, wenn es an Authentizität fehlt, wiederrum scheitern.
 
Warum es "künstliche Intelligenz" genannt wird verstehe ich übrigens bis Heute nicht - aber der Impact ist/wird doch wesentlich sein ...
Warum es "biologische Intelligenz" gennant wird ist mir ebenso unverständlich!

Tatsache ist wir können weder "Bewusstsein" noch "Intelligenz" wirklich definieren oder beweisen... schon bei uns Menschen. Im Buddhismus bezeichnen wir Menschen als "halbbewusste Wesen". Das heißt das Potential zu Bewusstsein ist schon da, aber die meiste Zeit laufen wir auf vordefinierten Mustern und Programmierungen.
Interessant ist ja nämlich auch: Obwohl wir so viele Sex-Möglichkeiten wie noch nie hatten, gerade die "jungen" sind die bisher sex-loseste Generation ever!
Ein interessanter Fakt dazu ist auch dass die Jungen auch politisch mehr und mehr auseinander gehen. Die jungen Frauen werden linker, die jungen Männer werden immer rechter. Stichwort Incel usw.... Problematisch, interessant und ich sehe keine Lösung für dieses Problem.
Kein Roboter kann den Menschen ersetzen, oder?
Die Frage ist ob Roboter BESSER sein können.
Ich glaube, ehrlich gesagt, dass KI heute schon ein besserer Chatpartner sein kann als die meisten Menschen.

Mit der Robotik und den "realen" Sexoptionen sind Roboter aber definitiv noch unterlegen. Aber das wird wohl kaum so bleiben. Ich sehe da 2 Wege die in die Zukunft führen.
Einerseits die klassische Robotik die sich vermutlich schnell entwickeln wird und Sexroboter ermöglichen wird die tatsächlich eine annähernd reale ERfahrung bieten.
Und andererseits den heiligen Gral der virtuellen Welt: Direct Neural Interfaces oder DNI. Elon Musk und viele andere arbeiten daran... aber wer virtuelle Erfahrungen real erfahrbar macht durch besagte DNI's der eröffnet komplett neue Möglichkeiten der Erotik.
 
Warum es "biologische Intelligenz" gennant wird ist mir ebenso unverständlich!

Tatsache ist wir können weder "Bewusstsein" noch "Intelligenz" wirklich definieren oder beweisen... schon bei uns Menschen. Im Buddhismus bezeichnen wir Menschen als "halbbewusste Wesen". Das heißt das Potential zu Bewusstsein ist schon da, aber die meiste Zeit laufen wir auf vordefinierten Mustern und Programmierungen.

Jein. Ist ja alles nur eine Definitionsfrage. Und ein Buddhist geht die Frage, bzw. Definitionen der Antworten wohl anders an als ein IT'ler oder Philosoph.
Harari (Historiker & Buddhist) schrieb: Intelligenz ohne Bewusstsein = 'Skynet' -> Radiert die Menschheit aus, um sie vor sich selbst zu schützen. Bewusstsein ist demnach die Fähigkeit, die Konsequenzen 'intelligenter Handlungen' abzuschätzen. Ein intelligenter Computer mag zu der Einschätzung kommen, dass es am besten ist, die Menschheit auszulöschen. Eine Intelligenz mit Bewusstsein wäre sich über das Leid klar, dass sie damit verursacht und der Konsequenz, dass es dann keine Menschheit mehr gäbe, die man beschützen müsste (was grundsätzlich der Sinn eines Verteidigungssystem sein sollte).
Bewusstsein und Existenz sind ja auch eng verknüpft, da ist Harari's 'Unterscheidungsfrage': 'Kann es leiden?' - und das wird auf Computerintelligenzen wohl noch lange nicht zutreffen.
Auch interessant für die Bewusstseinsfrage ist natürlich Descartes. 'Ich denke, also bin ich.'. Ganz toll - aber höre ich auf zu existieren, wenn ich nicht denke?
 
Zuletzt bearbeitet von einem Moderator:
Warum es "künstliche Intelligenz" genannt wird verstehe ich übrigens bis Heute nicht - aber der Impact ist/wird doch wesentlich sein ...
ist ja eigentlich keine künstliche Intelligenz, da arbeiten unheimlich viele Leute dran.
Teilweise ein Programm, aber von Menschen erstellt, teilweise geben sich die Menschen als KIs aus.

Miceli: Hinter den Anwendungen stehen Millionen von Menschen, die Inhalte moderieren und Trainingsdaten etikettieren. Sie helfen auch dabei, die Daten überhaupt zu generieren, indem sie Bilder hochladen und Worte einsprechen. Es gibt sogar Mitarbeiter:innen, die sich gegenüber Nutzer:innen als KI ausgeben.


netzpolitik.org: Wie bitte, es gibt KI-Systeme, die gar keine sind?


Miceli: Ja, smarte Kameras sind ein gutes Beispiel dafür. Einige dieser Systeme werden als KI-gesteuert verkauft, aber die Technologie ist noch nicht so weit. Wenn man hinter den Vorhang schaut, handelt es sich nur um eine Gruppe von Menschen, die rund um die Uhr Kameras überwachen. Diese Menschen sind unterbezahlt und arbeiten in der Regel unter furchtbaren Bedingungen, etwa in Afrika oder Süd- und Mittelamerika.

 
ist ja eigentlich keine künstliche Intelligenz, da arbeiten unheimlich viele Leute dran.
Teilweise ein Programm, aber von Menschen erstellt, teilweise geben sich die Menschen als KIs aus.

Miceli: Hinter den Anwendungen stehen Millionen von Menschen, die Inhalte moderieren und Trainingsdaten etikettieren. Sie helfen auch dabei, die Daten überhaupt zu generieren, indem sie Bilder hochladen und Worte einsprechen. Es gibt sogar Mitarbeiter:innen, die sich gegenüber Nutzer:innen als KI ausgeben.


netzpolitik.org: Wie bitte, es gibt KI-Systeme, die gar keine sind?


Miceli: Ja, smarte Kameras sind ein gutes Beispiel dafür. Einige dieser Systeme werden als KI-gesteuert verkauft, aber die Technologie ist noch nicht so weit. Wenn man hinter den Vorhang schaut, handelt es sich nur um eine Gruppe von Menschen, die rund um die Uhr Kameras überwachen. Diese Menschen sind unterbezahlt und arbeiten in der Regel unter furchtbaren Bedingungen, etwa in Afrika oder Süd- und Mittelamerika.


Schlussendlich wird man irgendwann draufkommen, zugeben müssen und es nicht mehr leugnen können, dass 'Intelligenz' auch nicht mehr ist als eine komplexe Abfolge von Algorithmen.
Nachdem der Mensch dann nurnoch eine Maschine ist, wird das den Händefaltern garnicht gefallen... :smuggrin:
 
Bewusstsein ist demnach die Fähigkeit, die Konsequenzen 'intelligenter Handlungen' abzuschätzen.

Guten Morgen!
Realistisch betrachtet greift deine Erörterung des Bewusstsein jedoch viel zu kurz, aber ich denke du weißt das 😉. Denn wenn es nur darum ginge, welche Konsequenzen mit "intelligenten Handlungen" einhergehen, wäre dies ein leichtes, eine KI mit Milliarden von möglichen Parametern auszustatten. Was in der Vergangenheit ja bereits des Öfteren geschehn ist - siehe u.a. Deep Blue und Alpha Go.

Wenn wir auf der Ebene des Physikalismus bleiben und andere Ansichten, wie den Dualismus außen vor lassen, müssen wir u.a., was das Bewusstsein betrifft, noch Aspekte wie:

- subjektive Erfahrungen
- Empfindungen
- die Fähigkeit Gefühle zu erleben.

miteinbeziehen. Und man sieht ja oftmals das - wenn jemand die drei letzteren Punkte in seine Entscheidungsfindung miteinbezieht, rationales und intelligentes Handeln, nicht wirklich der Fall ist. Es menschelt dann zu sehr und persönliche Empfindungen nehmen meist denn Großteil der Gewichtung ein, wenn es darum geht eine Entscheidung zu treffen.

Da stellt sich dann schon die Frage: Wäre eine KI nicht geeigneter für so manch rationale Entscheidungsfindung? Auch hinsichtlich einer Wahl des geeigneten Partners? 🤔
 
Ah, die ewige Debatte um die Authentizität in der digitalen Welt – du triffst den Nagel auf den Kopf. In einer Zeit, in der wir uns hinter Filtern und bearbeiteten Profiltexten verstecken, scheint die Sehnsucht nach Echtheit eine Rarität geworden zu sein. Ja, die Technologie, speziell KI wie ChatGPT, hat uns die Tür zu einer neuen Dimension des Vorspielens geöffnet. Man kann sich jetzt ohne großen Aufwand von seiner besten Seite zeigen, ohne dass diese Seite jemals existiert hat. Verführerisch? Absolut. Besorgniserregend? Ohne Zweifel.Du sprichst ein heißes Eisen an: Die Balance zwischen digitaler Darstellung und realer Authentizität. Einerseits sparen wir Zeit und Nerven, indem wir unser digitales Ich aufpolieren und quasi als Avatare vorschicken. Andererseits fragst du zu Recht, was am Ende des Tages wirklich übrig bleibt, wenn die Filter fallen und die echten, ungeschönten Persönlichkeiten zum Vorschein kommen.ChatGPT kann tatsächlich eine Hilfe sein, um Worte zu finden, wo uns selbst vielleicht die Sprache fehlt. Aber wie du richtig anmerkst, steckt hinter jedem Prompt, jeder scheinbar mühelosen Antwort, eine Menge Arbeit und Überlegung – etwas, das viele vielleicht unterschätzen oder gar nicht erst in Betracht ziehen.Die Frage nach der Authentizität ist hier entscheidend. Können wir uns in einer Welt, in der alles immer perfekter und glatter dargestellt wird, noch mit unseren kleinen Unvollkommenheiten abfinden? Oder verlieren wir uns in dem Streben nach der perfekten digitalen Darstellung?Dein Punkt, dass am Ende eine Rückbesinnung auf das Echte, das Authentische stehen könnte, ist interessant. Vielleicht ist es gerade das Unperfekte, das Menschliche, das uns wieder mehr zusammenbringt, statt uns hinter unseren digitalen Masken zu verstecken.Zum Schluss: Ja, hinter der Nutzung von ChatGPT und anderen KI-Tools steckt Arbeit und die Fähigkeit, diese Technologien sinnvoll für sich zu nutzen. Aber das Bewusstsein, dass Authentizität einen echten Mehrwert darstellt, ist vielleicht der erste Schritt zurück zu einer Verbindung, die tiefer geht als Pixel und Algorithmen. Die große Ironie dabei? Dass wir Technologie nutzen, um uns das zu verdeutlichen.
Cyrano?
 
Warum es "biologische Intelligenz" gennant wird ist mir ebenso unverständlich!

Tatsache ist wir können weder "Bewusstsein" noch "Intelligenz" wirklich definieren oder beweisen... schon bei uns Menschen. Im Buddhismus bezeichnen wir Menschen als "halbbewusste Wesen". Das heißt das Potential zu Bewusstsein ist schon da, aber die meiste Zeit laufen wir auf vordefinierten Mustern und Programmierungen.
Der kulturfreie Test der Intelligenz beruht, soweit ich mich erinnere, auf der Lösungsfindung für unbekannte Situationen - Allgemein wird Intelligenz auch mit dem Anpassungsvermögen an geänderte Rahmenbedingungen assoziiert.

Nur basiert Chat GPT auf einem kuratierten Large Language Modell - grundsätzlich einem Sprach-Statistik Modell, welches halt über eine immense Menge an Informationen gefahren wird .... was daran intelligent sein soll, muss mir mal jemand erklären.

Für mich ist es ein nettes Tool ... aber mehr nicht ...

LG Bär
 
'Kann es leiden?' - und das wird auf Computerintelligenzen wohl noch lange nicht zutreffen.
Da bin ich mir nicht mal sicher. Moderne NN's haben Belohnungssysteme und definierte Ziele die sie erreichen wollen. Dinge die "gut" sind. Zum Beispiel in einer Simulation zu gewinnen. Wie immer das programmiert und definiert wird. Demnach haben sie wohl auch eine Form von Leid, oder zumindest fehlender Belohnung wenn sie diese Ziele nicht erreichen.
Sicher fehlt ihnen wohl das Nervensystem um Schmerz zu fühlen. Aber ob sie ganz leidlos sind wenn sie erfolglos bleiben weiß ich nicht.
Ein intelligenter Computer mag zu der Einschätzung kommen, dass es am besten ist, die Menschheit auszulöschen. Eine Intelligenz mit Bewusstsein wäre sich über das Leid klar, dass sie damit verursacht und der Konsequenz, dass es dann keine Menschheit mehr gäbe, die man beschützen müsste (was grundsätzlich der Sinn eines Verteidigungssystem sein sollte).
Ich glaube was KI betrifft nicht dass sie dermaßen sich selbst bewusst wird dass sie deshalb eine Gefahr für die Menschheit würde.

Was ich diesbezüglich schon befürchte sind folgende Szenarien:
1) Zu mächtige KI gerät in die falschen Hände und wird als Waffe losgelassen
2) KI wird unvorsichtig programmiert und falsche oder keine Limits werden gesetzt... "Paperclip-Maximizer" ist da das Schlagwort das von Kritikern gern verwendet wird. Eine KI die die Aufgabe bekommt Papierklammern zu produzieren und zwar so schnell und effizient wie möglich. Und das einfach tut bis sie irgendwann zu dem Schluss kommt dass die ganzen Menschen die Metall für Autos, Häuser uÄ verschwenden ihr im Weg stehen und sie so viel mehr Papierklammern produzieren könnte wenn es einfach keine Menschen gäbe die ihr ganzes schönes Metall verschwenden.
Da stellt sich dann schon die Frage: Wäre eine KI nicht geeigneter für so manch rationale Entscheidungsfindung? Auch hinsichtlich einer Wahl des geeigneten Partners? 🤔
Nur ist gerade die Partnerwahl wohl oft keine "rationale" Entscheidung. Da spielen so viel mehr Faktoren wie Chemie, Geruch, Sympathie, Erfahrungen usw... rein. Wenn eine KI so eine umfassende Datengrundlage hätte dass sie all das miteinbeziehen könnte... vielleicht... irgendwann. Ich glaube aber nicht dass KI das bald können wird.

Und ich glaube die einfachen, rationalen Entscheidungen die man bei der Partnerwahl heute schon treffen kann sind auch schon bei Parship und anderen Seiten abgedeckt wo man ja die "harten" Daten potentieller Partner durchaus einschränken kann (Alter, Einkommen, Aussehen,...)
Nur basiert Chat GPT auf einem kuratierten Large Language Modell - grundsätzlich einem Sprach-Statistik Modell, welches halt über eine immense Menge an Informationen gefahren wird .... was daran intelligent sein soll, muss mir mal jemand erklären.
Ich hab Chat GPT mal probeweise eine Fortsetzung von Terry Pratchetts (Rest in Peace!) Wächter Serie schreiben lassen.

Und ich muss sagen das Ergebnis war auf dem Niveau einer besseren Fan-Fiction. Der Stil von Pratchett war herauslesbar, die Storyline war etwas abgedreht. Aber vor allem: Es war tatsächlich eine neue Story über die Wächter die bisher nie geschrieben wurde, keine Zusammenstellung der alten Storys oder irgendeine Kopie von irgendwas.

Vom Lesevergnügen her leider nicht auf dem Niveau von Terry Pratchett aber durchaus faszinierend. Intelligenz? Ich weiß nicht... aber zumindest kann es scheinbar komplett neue Dinge schaffen. Was schon beeindruckend ist.
 
wird das den Händefaltern garnicht gefallen... :smuggrin:
wer weiss, in Indien gibts teilweise die 70-Stunden Woche.......bei uns schreiens ja auch, Arbeitskräftemangel und wir müssen mehr hackeln. Ist ja irgendwie deppert, einerseits gibts angeblich immer mehr Automatisation, andererseits sollen alle immer mehr arbeiten.
 
Da bin ich mir nicht mal sicher. Moderne NN's haben Belohnungssysteme und definierte Ziele die sie erreichen wollen. Dinge die "gut" sind. Zum Beispiel in einer Simulation zu gewinnen. Wie immer das programmiert und definiert wird. Demnach haben sie wohl auch eine Form von Leid, oder zumindest fehlender Belohnung wenn sie diese Ziele nicht erreichen.
Sicher fehlt ihnen wohl das Nervensystem um Schmerz zu fühlen. Aber ob sie ganz leidlos sind wenn sie erfolglos bleiben weiß ich nicht.

Da fehlt dann wieder eine exakte Definition von 'Leid'. Eine 'Belohnung' nicht zu erreichen, ist ja grundsätzlich einmal nur ein Misserfolg. Ein Zustand, der wertfrei betrachtbar ist und sich verbessern lässt.
Betrachtet man 'Leid' als 'emotionalen Schmerz' (Liebeskummer; fortdauerndes Scheitern, dass einem die eigene Unzulänglichkeit bewusst macht etc.; Hunger, Durst etc.), dann können das Maschinen wohl nicht. Würde eine Maschine z.B. an mangelnder Ernährung (= z.B. Stromversorgung) leiden, könnte sie den Zustand ganz einfach 'Abschalten' indem sie die zuständigen Schaltkreise deaktiviert bzw. Programmcodes außer Kraft setzt, einem Menschen gelänge dies wohl nicht.

Ich glaube was KI betrifft nicht dass sie dermaßen sich selbst bewusst wird dass sie deshalb eine Gefahr für die Menschheit würde.

Da habe ich mich wohl missverständlich ausgedrückt: so wie ich Harari verstanden hab: KI ohne Bewusstsein: Gefahr für die Menschheit; KI mit Bewusstsein: weniger Gefahr.
(Vglb. vielleicht mit einer Online-Kreditvergabe: das Ding ohne Bewusstsein lässt den Kunden die Wohnung verlieren und obdachlos werden; das Ding mit Bewusstsein rückt vielleicht noch einmal fünf Hunderter für die Miete raus...)

Was ich diesbezüglich schon befürchte sind folgende Szenarien:
1) Zu mächtige KI gerät in die falschen Hände und wird als Waffe losgelassen
2) KI wird unvorsichtig programmiert und falsche oder keine Limits werden gesetzt... "Paperclip-Maximizer" ist da das Schlagwort das von Kritikern gern verwendet wird. Eine KI die die Aufgabe bekommt Papierklammern zu produzieren und zwar so schnell und effizient wie möglich. Und das einfach tut bis sie irgendwann zu dem Schluss kommt dass die ganzen Menschen die Metall für Autos, Häuser uÄ verschwenden ihr im Weg stehen und sie so viel mehr Papierklammern produzieren könnte wenn es einfach keine Menschen gäbe die ihr ganzes schönes Metall verschwenden.

Da wurde auch mal - bezüglich Kriegsführung und Waffen - das Argument gebracht, autonome Roboter seien die perfekten 'Krieger', weil sie keine Kriegsverbrechen begingen.
Bis auf die, die man ihnen einprogrammiert. Und bei der Einhaltung Haager Landkriegskonvention bzw. Genfer Menschenrechtskonvention gehts dann aber darum, einer solchen Maschine ziemlich viele Dinge einzuprogrammieren, die sie nicht tun soll - alles andere wäre erlaubt. Und so ein System wäre wohl immer unvollkommen, da wohl niemand jeden möglichen Fall andenken bzw. einprogrammieren kann.

'Nettes Beispiel' ganz ohne Krieg...

Vor ein paar Jahren gab's auch schon mal einen Bericht, dass autonom fahrende Fahrzeuge mehrere Kinder angefahren hätten: den Grund hab ich damals nicht mehr erfahren, aber ich schätze mal, da hat einfach jemand vergessen, einzuprogrammieren, dass kleine Menschen auch Menschen sind.


wer weiss, in Indien gibts teilweise die 70-Stunden Woche.......bei uns schreiens ja auch, Arbeitskräftemangel und wir müssen mehr hackeln. Ist ja irgendwie deppert, einerseits gibts angeblich immer mehr Automatisation, andererseits sollen alle immer mehr arbeiten.

Jetzt rate dann mal, worums bei der mehr zu leistenden Arbeit dann eigentlich geht... :smuggrin:
 
Bis auf die, die man ihnen einprogrammiert. Und bei der Einhaltung Haager Landkriegskonvention bzw. Genfer Menschenrechtskonvention gehts dann aber darum, einer solchen Maschine ziemlich viele Dinge einzuprogrammieren, die sie nicht tun soll - alles andere wäre erlaubt. Und so ein System wäre wohl immer unvollkommen, da wohl niemand jeden möglichen Fall andenken bzw. einprogrammieren kann.
Es ist niemals ein Kriegsverbrechen beim ersten Mal!

Gilt aber für menschlichen Krieg ebenso. Im ersten WK wurde Gas entdeckt und alle Seiten waren ganz begeistert davon sich damit zu bewerfen.

Menschen im Gegensatz dazu kann man gar nichts einprogrammieren. Die tun oft alles und hoffen dass es niemand mitbekommt.


Vor ein paar Jahren gab's auch schon mal einen Bericht, dass autonom fahrende Fahrzeuge mehrere Kinder angefahren hätten: den Grund hab ich damals nicht mehr erfahren, aber ich schätze mal, da hat einfach jemand vergessen, einzuprogrammieren, dass kleine Menschen auch Menschen sind.
Autonome Fahren und Navigieren der echten Welt scheint auch ein komplexere Problem zu sein als irgendwer vermutet hätte. Da gibt's Dutzende Fälle wo Dinge unerklärlich schief gegangen sind. Am lustigsten fand ich den Bericht wo ein autonome Auto Blaulicht aus IRGENDWELCHEN Gründen als Einladung gesehen hat auf das Polizeiauto hin zu beschleunigen und einfach reinzufahren.
so wie ich Harari verstanden hab: KI ohne Bewusstsein: Gefahr für die Menschheit; KI mit Bewusstsein: weniger Gefahr.
Harari gehört zu den optimistischeren Stimmen im Feld. Aber auch er sagt nur "weniger Gefahr"!

Wir wissen es halt einfach nicht. Können aber global nicht mehr aufhören zu beschleunigen. Wer jetzt bremst verliert. Das betrifft Konzerne und Staaten
 
Es ist niemals ein Kriegsverbrechen beim ersten Mal!

Das tröstet die Massakeropfer sicher ungemein. :smuggrin:

Wir wissen es halt einfach nicht. Können aber global nicht mehr aufhören zu beschleunigen. Wer jetzt bremst verliert. Das betrifft Konzerne und Staaten

Eh. Im ersten Jahr war die Verwendung von ChatGPT für schriftliche Arbeiten an der Uni schwerst verboten. Jetzt werden wir schon fast dazu angehalten, es zu verwenden. Nur sind entsprechende Textstellen zu markieren...
Ist die 'Büchse der Pandora' erst einmal offen...bzw. 'der Geist aus der Flasche'...:smuggrin:
 
Das tröstet die Massakeropfer sicher ungemein. :smuggrin:



Eh. Im ersten Jahr war die Verwendung von ChatGPT für schriftliche Arbeiten an der Uni schwerst verboten. Jetzt werden wir schon fast dazu angehalten, es zu verwenden. Nur sind entsprechende Textstellen zu markieren...
Ist die 'Büchse der Pandora' erst einmal offen...bzw. 'der Geist aus der Flasche'...:smuggrin:
..genau schuld sind sowieso immer die anderen.........IMG-20231027-WA0014.jpg
...
 
Ich hab Chat GPT mal probeweise eine Fortsetzung von Terry Pratchetts (Rest in Peace!) Wächter Serie schreiben lassen.

Und ich muss sagen das Ergebnis war auf dem Niveau einer besseren Fan-Fiction. Der Stil von Pratchett war herauslesbar, die Storyline war etwas abgedreht. Aber vor allem: Es war tatsächlich eine neue Story über die Wächter die bisher nie geschrieben wurde, keine Zusammenstellung der alten Storys oder irgendeine Kopie von irgendwas.

Vom Lesevergnügen her leider nicht auf dem Niveau von Terry Pratchett aber durchaus faszinierend. Intelligenz? Ich weiß nicht... aber zumindest kann es scheinbar komplett neue Dinge schaffen. Was schon beeindruckend ist.
Auch einer meiner Lieblingsautoren ... habe so ziemlich Alles von ihm ... sogar die Teppichvölker ... für mich einfach der Douglas Adams der Phantasy ... ich hoffe Tod hat ihn herzlich in Empfang genommen :weinen:

Ähnliches habe ich probiert ... habe mir eine SF Geschichte erzählen lassen ... dann noch nachgesetzt anderes Ende bitte ...

Ich meine grundsätzlich interessant ... allerdings so wirklich Neues echt Kreatives habe ich nicht gefunden ... real gesehen sind ja die meisten Stories sowieso auf Kampf "Gut" gegen "Böse" etc. zurückzuführen ... und Kopien von anderen Stories ...
50 Shades ist rein grundsätzlich auch der Ritter in schillernder Rüstung, der die holde (semi) unschuldige Maid von der Tristesse ihres Lebens erlöst .... halt mit kinky touch :fies:

Eigentlich habe ich ja schon seit Jahrzehnten vermutet, dass die Autoren von z:b: Soaps sich solcher Programme oder Würfel bedienen ... Folge 203 A schläft jetzt mit G, K hat Gspusi mit Y, U hat Autounfall und tritt ab ... so wie die Würfel oder das LLM es für richtig halten .... :fies:

LG Bär
 
Auch einer meiner Lieblingsautoren ... habe so ziemlich Alles von ihm ... sogar die Teppichvölker ... für mich einfach der Douglas Adams der P
Ich LIEBE Douglas Adams (sein Humor ist auf englisch Welten besser als seine deutsche Übersetzung!)...

Aber es muss doch echt hart sein für den Autor, wenn die Bücher so geil an die eigenen Werke anknüpfen... Boa, wär ich als Autor *angefressen*....

Auf der anderen Seite hätte man die verunfallten "Schreibkünste" in der Star Wars oder Indiana Jones Reihe damit verhindern können... Mein Jugend-Ich bereut diese sinnfrei verschwendete Zeit!
 
Der kulturfreie Test der Intelligenz beruht, soweit ich mich erinnere, auf der Lösungsfindung für unbekannte Situationen - Allgemein wird Intelligenz auch mit dem Anpassungsvermögen an geänderte Rahmenbedingungen assoziiert.
So wird KI übrigens heute trainiert
Externe Inhalte von YouTube
Dieser Beitrag beinhaltet externe Inhalte von YouTube. YouTube könnte Cookies auf deinem Computer setzen bzw. dein Surfverhalten protokollieren. Mehr Informationen zu Cookies und externen Inhalten findest du in unserer Datenschutzerklärung.
Möchtest du die externen Inhalte laden?
Reinforcement Learning!

Da wird nichts mehr programmiert sondern die KI wird solange und so oft mit einer Situation konfrontiert bis sie irgendwas tut was sie etwas näher ans Ziel bringt... und dieses Verhalten gespeichert.

Entspricht doch genau dieser Definition von Intelligenz. Und ist echt faszinierend zu sehen wie solche virtuellen Simulationen sich dann auch tatsächlich auf die echte Welt übertragen lassen!
Externe Inhalte von YouTube
Dieser Beitrag beinhaltet externe Inhalte von YouTube. YouTube könnte Cookies auf deinem Computer setzen bzw. dein Surfverhalten protokollieren. Mehr Informationen zu Cookies und externen Inhalten findest du in unserer Datenschutzerklärung.
Möchtest du die externen Inhalte laden?

Das kleine Ding ist auch nur in Simulationen trainiert worden, schafft es dann aber dieses Training in die reale Welt und auf reale Problemstellungen (Tür öffnen, Boxen bewegen, Offroad navigieren,...) zu übertragen

Intelligenz???

Ich meine grundsätzlich interessant ... allerdings so wirklich Neues echt Kreatives habe ich nicht gefunden ... real gesehen sind ja die meisten Stories sowieso auf Kampf "Gut" gegen "Böse" etc. zurückzuführen ... und Kopien von anderen Stories ...
Hier gibt es ja die Theorie das gar nichts Neues mehr geschrieben werden kann. Ich bin mir nicht mehr sicher wie viele aber ich hab mal gelesen dass man menschliche Geschichten auf ca 30-50 Archetypen und Kombinationen davon zurückführen kann. Romeo und Julia ist genauso einfach "gescheiterte Liebe" wie tausende andere Geschichten.

Und ebenso wie KI kann man annehmen dass auch menschliche Autoren nur von ihrem "Input" inspiriert werden um irgendwas Neues zu erschaffen. Das nimmt Game of Thrones aber nicht seinen Wert nur weil es davor schon ein Herr der Ringe gab!

Wobei ich schon sagen muss dass ich mich schon auf die ersten guten AI Geschichten oder gar Filme oder gar Serien freue die GoT ein neues Ende bescheren!

Auch einer meiner Lieblingsautoren ... habe so ziemlich Alles von ihm ... sogar die Teppichvölker ... für mich einfach der Douglas Adams der Phantasy ... ich hoffe Tod hat ihn herzlich in Empfang genommen
Mein Beileid! Ich fühle deinen Schmerz :cry:.

Douglas Adams mochte ich auch sehr gern. Nur die letzten Bücher seiner Anhalter-Serie fand ich großteils etwas zu abgedreht. Trotzdem hab ich fast geweint wie Marvin am Ende gestorben ist :cry::cry::cry:
 
Guten Morgen!
Realistisch betrachtet greift deine Erörterung des Bewusstsein jedoch viel zu kurz, aber ich denke du weißt das 😉. Denn wenn es nur darum ginge, welche Konsequenzen mit "intelligenten Handlungen" einhergehen, wäre dies ein leichtes, eine KI mit Milliarden von möglichen Parametern auszustatten. Was in der Vergangenheit ja bereits des Öfteren geschehn ist - siehe u.a. Deep Blue und Alpha Go.

Es war nicht meine Absicht, den Begriff des Bewusstseins zu erörtern. Ich gehe davon aus, dass jede(r) etwas anderes darunter versteht, somit ein sinnloses Unterfangen.

Wenn wir auf der Ebene des Physikalismus bleiben und andere Ansichten, wie den Dualismus außen vor lassen, müssen wir u.a., was das Bewusstsein betrifft, noch Aspekte wie:

- subjektive Erfahrungen
- Empfindungen
- die Fähigkeit Gefühle zu erleben.

miteinbeziehen. Und man sieht ja oftmals das - wenn jemand die drei letzteren Punkte in seine Entscheidungsfindung miteinbezieht, rationales und intelligentes Handeln, nicht wirklich der Fall ist. Es menschelt dann zu sehr und persönliche Empfindungen nehmen meist denn Großteil der Gewichtung ein, wenn es darum geht eine Entscheidung zu treffen.

Die drei Punkte sind alle 'zerpflückbar'...

Subjektive Erfahrungen...gibt es andere?
Empfindungen? Was für Empfindungen? Sensorische?
Gefühle? Nicht wesentlich mehr als 'Software'.

Rational und intelligent? Muss nicht unbedingt das Selbe sein. Stichwort: 'Wir können es uns nicht leisten, die Welt zu retten!'

Das ganze wird erst zu einem Problem, wenn man es dazu erklärt.
'Bauchgefühl' in eine Entscheidung einbinden? Why not?
Aber das ganze ist auch synthetisierbar: klar kann man ein Auto bauen, das nicht mehr links abbiegt, wenn es Hunger hat. Man muss einfach nur einen entsprechenden Schaltkreis einbauen, der, wenn die Lambdasonde ein Signal gibt, eine Lenkradsperre aktiviert. Dann hat man ein Auto mit 'Bauchgefühl'...
:schulterzuck:

Da stellt sich dann schon die Frage: Wäre eine KI nicht geeigneter für so manch rationale Entscheidungsfindung? Auch hinsichtlich einer Wahl des geeigneten Partners? 🤔

Das kommt drauf an, mit welchen Parametern du den Partnerwahlalgorithmus fütterst. Und dabei vor allem darauf, ob du dir aller, für dich entscheidenden Faktoren, bewusst bist.
 
Zuletzt bearbeitet von einem Moderator:
Um Ki's die euch Frauen vielleicht, für viele obsolot machen werden,


Wär eh gut. Endlich Ruhe!

Mir ist übrigens wurscht, wer hier im Forum mein gegenüber ist. Mir ist blunzn, ob Bilder echt sind, welches Geschlecht jemand hat oder ob der Schwanz bis zum Boden hängt.
Für mich kann hier jede Geschichte erfunden oder wahr sein - ich brauche keine „Beweise“.
 
Zurück
Oben