- Registriert
- 8.3.2012
- Beiträge
- 9.129
- Reaktionen
- 23.244
- Punkte
- 906
- Checks
- 43
Also erstmal: Das wurde von einer KI geschrieben.Dazu zweierlei:
Es gab schon vor Jahrzehnten, als Computer erstmals lernten, mit Buchstaben ("Symbolen") Worten, statt nur mit Zahlen umzugehen, Versuche mit automatisierter Textausgabe, bis hin zur legendären https://de.wikipedia.org/wiki/ELIZA , die eigentlich gegen die Intention des Erschaffers (Weizenbaum) von "Benutzern" als überraschend menschlich aufgefaßt wurde, obwohl damals, wie heute bei der Maschine keinerlei Bewußtsein oder echtes inhaltliches Textverständnis dahinter stand, denn auch wenn heutige Chatbots allerlei Kontext zu Begriffen gespeichert haben, fehlt natürlich immer noch jegliche Möglichkeit, einer Software inhärente Bedeutung beizubringen.
Ein anderes Beispiel aus der Steinzeit der Computerei schien altenglische Shakespeare-Texte zu erzeugen, machte aber nichts anderes als Wort- und Satzfetzen unterschiedlicher Nähe zu "erlernten" Fragmenten von gefüttertem Originalmaterial zusammenzupuzzeln, was an einem Ende der Skala Nonsens ergab, am anderen Ende die Originaltext mehr oder weniger nur anordnete und in der Mitte irgendwo scheinbar neue Gedichte und Monologe in holprigem Englisch (wie etwa Walther von der Vogelweide auf Deutsch) generierte. Nicht mehr als statistische Analyse und Zusammensetzen von Worten und Sätzen.
Der obige erzeugte Text ist durchaus verblüffend, auch weil er keine früheren Fehler abseits seiner "Muttersprache" Englisch macht. Aber dennoch muß man dem Text eine gewisse thematisch austauschbare Stereotypität unterstellen: Die genannten 5 Punkte bestehen aus 2x2 Bezug zu Foren als eben Kommunikationsplattform mit Beiträgen, 3x Woke-Blabla (Vielfalt, Inklusion, Ethik), Datenschutz - bei Informationssystemen+Kommunikationsplattformen IMMER ein anwendbares Thema, und Zukunftsaussichten ... sowieso.
ABER: Hat der Chatbot die eigentliche Frage beantwortet, oder genau genommen, im Grunde wie damals Eliza, nicht abermals nur stereotype Fragen aus einem Talon von kontextuell anwendbaren Schlagworten und erlernten, üblichen schematischen Fragehülsen zusammengeschustert?
Ist dieser Bot nun der menschlichen Intelligenz wirklich nahegekommen ... oder entzaubert er unsere vermeintliche Überlegenheit als zu 80% ewig ähnliches Geschnatter, weil die Menschen ja genau genommen auch nur immer wieder Gehörtes neu zusammensetzen, dem aber selten etwas Neues, aus eigenen Gedanken Gesponnenes oder neuer persönlicher Erkenntnis Entsprungenes hinzufügen?
Um mich nun vom Bot abzusetzen muß ich eine Postulierung folgen lassen: Ab jetzt wird sich eine breite Masse an den Fähigkeiten dieser Bots messen lassen müssen und die Folgen sind nicht abschätzbar.
In welchen Bereichen (wie Philosophie, Psychologie, Pädagogik, Religion, Geschichte, ...) diese AIs aber tatsächlich eigene Erkenntnisse auf Basis des bisherigen gefütterten Wissensstands, inkl. menschlicher Peer-Review hinzufügen wird, DAS wird zu beobachten sein. Erst einmal werden wir aber erleben, wie allerlei Bereiche inhaltlich erst einmal entzaubert werden und die Latte für menschliche Kompetitoren nach oben schrauben werden.
Ist mein Gefühl richtig oder falsch?
Weiterhin glaube ich nicht dass moderne KI-Systeme menschlicher Intelligenz in irgendeiner Art und Weise nahekommen! Ganz allgemein nicht. Interessant finde ich aber die Frage ob Sprache und Ausdruck schon eine Form von Intelligenz sind. Und ob ein Bot der in Sprache und Ausdruck brilliert nicht schon an menschliche Intelligenz heranreicht. Zumindest in diesen Aspekten.
Was diesen KI-Modellene fehlt ist in meinen Augen nur die Inspiration, die Motivation, der Wille oder das "Selbst". Die Frage nach den eigenen Motiven und den eigenen Zielen.
Ich weiß nicht ob "KI" schon eigene Ziele verfolgt oder jemals verfolgen wird.
...von mir geschrieben????