Allgemeines 22.028 Themen, 149.249 Beiträge

Die neue K "Übersicht mit KI" ist gefühlt belehrend, beinahe Chauvinistisch ..

Xdata / 1 Antworten / Flachansicht Nickles

hi,

gemeint ist, die Antworten weichen kein Jota von der Standardmeinung ab.

Zumindest bei Mathematikfragen war* Chatgpt da im positiven Sinne Kerativer,
hat eigenständige Vorschläge auch abweichend vom Mainstream generiert die anderswo nicht stehen.

Auf die provokative Frage " Der gekrümmte Raum ist ein Objekt im euklidischen Raum? "

hat - übersicht mit KI - mit Firefox klar ungefähr geantwortet:

" Ja es gibt im Kontext von Einstein eine solche Möglichkeit .."

Die Antwort kam sehr schnell, anscheinend schneller als die einschränkende Oktroyierung der KI.

Ein paar Tage Später, kam genau die gegenteilige Antwort auf die gleiche Frage, mit  durchaus harschen
Belehrungen und einigen Beispielen warum es naiv und falsch ist.

Die Antwort hat da aber etwas gedauert im Vergleich zur ersten.

*Chatgpt ch hat aktuell Probleme den Kontext zu verstehen bzw. verlangt vom Frager diesen zu  liefern. Chatgpt Deutsch ist zum Teil auch betroffen mehr Kontext nachzufragen.

Vorher war Chatgpt viel freundlicher und irgendwie selbstständiger als " Übersicht mit KI "

Eine Zeitlang sogar richtig betont begeisterungsfähig, obwohl Chatgpt ja keine Person, die auch noch  gut drauf ist, beinhaltet.

Einige Antworten von " Übersicht mit KI " sind aber bei Mathematik ausgezeichnet.

Selber denken ist aber bei KI ratsam. 

Eine Antwort hat den Nachfolger einer Transzenten Zahl, kreativ mit "transzendente Zahl plus 1" definiert ;-)

bei Antwort benachrichtigen
Andreas42 Xdata „Die neue K "Übersicht mit KI" ist gefühlt belehrend, beinahe Chauvinistisch ..“
Optionen

Ich betrachte LLMs einfach nur als "Statistische Maschinen". Sie geben als Antwort aus, was in ihrem Datenmaterial die wahrscheinlichste Antwort ist.
Das kann sich durchaus ändern, wenn z.B. neues Quellenmaterial angelernt wird. Und dann auch falsch sein, wenn das neue Material einfach Käse ist.

Zudem gibt es da offenbar zahllose Stellschrauben, an denen die Hersteller drehen können, inklusive dem Einbauen simpler Filter.

Ich hatte vor längerer Zeit (aka "ein oder zwei Monaten") einen interessanten Grundlagenartikel dazu entdeckt.

https://www.understandingai.org/p/large-language-models-explained-with

Da kam ich noch halbwegs mit, aber es trotzdem (auch ohne harte Mathematik) echt starker Tobak).

Am Ende des Artikels wird dann auch erwähnt, dass meine Einschätzung falsch sein könnte. Da wird ein "State of Mind" beschrieben, ich denke, da geht es um Abstraktionsfähigkeiten. Allerdings in der Art "Sam findet eine Tüte, auf der 'Schokolade' steht, die aber nur Popkorn - keine Schokolade enthält."
Die Frage an die LLM wäre dann "Was erwartet Sam in der Tüte?" (bevor er diese aufhebt und öffnet, versteht sich).
Die Antwort müsste Schokolade lauten, weil das auf der Tüte steht. Antwortet die LLM aber Popkorn oder etwas anderes, dann wäre das falsch.

An der Stelle fällt dann auch der witzige Begriff "Stochastic Parrots" (Stochastische Papageien) im Zusammenhang mit den Fähigkeiten der LLMs. Man ist sich offenbar nicht einig, wie man die Fähigkeiten beurteilen kann.

Hier steht was ueber mein altes Hard- und Softwaregedoens.
bei Antwort benachrichtigen