Off Topic 20.288 Themen, 225.278 Beiträge

ChatGPT: Wer ist Michael Nickles?

Michael Nickles / 22 Antworten / Flachansicht Nickles
(Screenshot: mn)

Jetzt hab ich grad erstmals ChatGPT ausprobiert und mit einer simplen Frage angefangen:

Wer ist Michael Nickles?

Die Antwort: 

Michael Nickles ist ein deutscher Autor, Blogger und Journalist. Er wurde am 20. Oktober 1965 in Frankfurt am Main geboren.

Nickles ist vor allem bekannt für seine Arbeit als IT-Journalist und -Blogger. Er schreibt seit vielen Jahren über verschiedene Themen im Bereich der Informationstechnologie, darunter Software, Hardware, Netzwerke und IT-Sicherheit.

Nickles ist auch Autor von mehreren Büchern, darunter "Virengefahr: So schützen Sie sich vor Trojanern und Hackern" und "PC-Tuning: Mehr Power für Ihren Computer".

Darüber hinaus betreibt Nickles einen eigenen Blog, auf dem er regelmäßig über aktuelle Entwicklungen in der IT-Branche berichtet.

Geburtstag und Geburtsort sind komplett falsch. Ein Buch namens "Virengefahr: So schützen Sie sich vor Trojanern und Hackern"  habe ich (soweit ich mich entsinnen kann) niemals geschrieben. Ein Buch mit (exakt) dem Titel oder einem Untertitel "PC-Tuning: Mehr Power für Ihren Computer", gab es auch niemals von mir.

Kundige Leser wissen, dass bereits die Sprachform dieser Titel weit von meiner in den Büchern verwendeten abweicht. Ich habe in sämtlichen Büchern die Leser ausnahmslos mit "Du" angesprochen (was ganz bewusst so gewollt war) und ich glaube auch niemals das Wort "Computer" verwendet zu haben, sondern natürlich "PC". 

Der Rest ist "okay", auch wenn ich mich nicht unbedingt als "Blogger" betrachte.

Wie kommt ChatGPT also auf diese teils komplett falschen Aussagen?

Eigentlich hätte ChatGPT es leicht gehabt. Seit vielen Jahren gibt es über mich einen sehr ausführlichen Wikipedia-Artikel, den irgendjemand (den ich nicht kenne) sehr gründlich führt und aktualisiert: Wikipedia-Artikel zu Michael Nickles. Dort steht alles korrekt drinnen, auch Geburtstag und Geburtsort und fast alle geschriebenen Bücher.

Nicht im Internet archiviert sind zig hunderte (oder tausende?) Artikel, die ich für alle erdenklichen Fachzeitschriften und Zeitungen verfasst habe. In denen wurde natürlich nach Verlagsvorgabe nicht "geduzt" - es wurde darauf bestanden den Leser mit "Sie" anzureden und das auch so oft wie irgendwie möglich.

Die Verlagschefs erhofften sich davon die "Leser-/Blatt-Bindung zu stärken, was natürlich Blödsinn ist. Persönliche Anrede des Lesers in einem Artikel ist immer sinnlose Wortfüllerei und macht Text nur schwerer lesbar ohne irgendeinen Informationsgehalt zu liefern. Leider verfassen auch heute noch viele "Autoren" ihre Texte mit persönlicher Anrede und entlarven sich damit, dass sie niemals eine journalistische Ausbildung hatten.

Sämtliche Texte, die ich als Autor für Fachzeitschriften abgeliefert habe, waren vollständig ohne persönliche Anrede verfasst. Die Redakteure waren verlagsseitig leider dazu gezwungen diese korrekten Texte mit "Sie"/"Ihr"/"Ihren" vollzubomben. Es hat mir immer den Magen umgedreht, wenn ich einen derart sprachlich vermurksten Text in einem Fachmagazin gelesen habe und ich als Autor drunter stand.

Dass ein Fachautor (in diesem Fall ich) seine Bücher bewusst in einer ganz speziellen Sprachform verfasst hat, da kommt eine künstliche Intelligenz aktuell wohl noch nicht drauf.

Vielleicht habt ihr Lust mal mitzurecherchieren, wie ChatGPT eigentlich auf die völlig falschen Geburtsangaben und die falschen Buchtitel gekommen ist. Irgendwo muss die KI ihr Wissen über mich schließlich zusammengekratzt haben... 

bei Antwort benachrichtigen
Michael Nickles Nachtrag zu: „ChatGPT: Wer ist Michael Nickles?“
Optionen

Mein Zwischenfazit zu ChatGPT:

Meine ersten Artikel zu "KI" - damals noch ein eher unbekannter Begriff - habe ich 1984 verfasst (also vor rund 40 Jahren!). Aufgrund der Faszination für englische Textadventures (Stichwort Infocom, Zork) habe ich mich an das damals als unmachbar geltende gewagt, einen Parser zu entwickeln, der mit der als zu kompliziert geltenden deutschen Grammatik umgehen konnte. Spracheingaben müssen von einem Spiel nicht nur verstanden werden, es muss auch passend darauf reagieren können. Das führte zwangsläufig in die Welt von "Eliza".

Gesprächspartner zum Abtippen

Als Übung habe ich damals Eliza eingedeutscht und auch eine selbstlernende Variante entwickelt. Kürzlich habe ich einen alten Beitrag mit einem Listing (Programm zum Abtippen) von mir im Speicher entdeckt der den Titel "Ein Gesprächspartner zum Abtippen" trägt (muss ich vielleicht mal Scannen und hier reinstellen). Es gilt zu bedenken, dass das alles quasi in einer Zeit passierte als Rechner (eher Heimcomputer) vergleichsweise stinklahm und mehr als 64 KByte Speicher schon fast unbezahlbarer Luxus waren.

Und mit dieser "Witz-Hardware" wurden damals sogar schon Expertensysteme ("selbstlernende" Programme) in der dafür gängigen Sprache "Prolog" geschrieben, über "Lisp" reden wir besser nicht.

Alter Wein in neuen Schläuchen

Ich erzähle das hier um mal klar aufzuzeigen, dass die Idee einer "KI", die über natürliche Sprache bedient wird, gespeichertes Wissen auswertet und mit natürlicher Sprache antwortet nicht alt sondern uralt ist. Die notwendigen Methoden wurden bereits vor einer Ewigkeit ersonnen. Das hat damals natürlich nur begrenzt funktioniert, weil Rechner halt lahm und Speicher sehr knapp war.

Heute ist die Hardware vergleichsweise unvorstellbar stärker geworden. Für eine "KI" wie ChatGPT steht prinzipiell unbegrenzte Rechenleistung und unbegrenzter Speicher parat. Und sie kann ihre Wissensbasis aus dem "unendlich" wachsenden Pool des Internet beziehen.

Viele Bekannte von mir wundern sich, warum ich mich (bis gestern) noch nicht mit ChatGPT beschäftigt habe. Vielleicht fehlt mir die Muse an diesem Hype teilzuhaben, weil ich mir anmaße mich mit den Grundlagen dieses "KI"-Krempels recht gut auszukennen. Die Mechanismen von ChatGPT sind knallhart gesagt die gleichen wie einst jene von Abenteuerspielen.

Früher hart heute Gimmick

Eingehende Sprache zu analysieren - konkret muss es eigentlich heißen "das Verständnis einer Spracheingabe vorzugaukeln" - ist Gimmick. Wissen in natürlichsprachlichem Format auszugeben und "umzuformulieren" ist ebenfalls Gimmick. Einem Rechner gewaltiges Wissen bereitzustellen (Internet) ist wiederum Gimmick. Ein bisschen aufwändiger ist es vielleicht ein selbstlernendes Regelwerk zu bauen, das diese Komponenten steuert.

Dieses Regelwerk kann durch die heutigen Möglichkeiten selbsterklärend so komplex werden, dass selbst seine Entwickler irgendwann nicht mehr verstehen, was es eigentlich exakt tut. Dann entsteht ein Dingsbums bei dem halt was rein geht und dann was raus kommt und keiner mehr schnallt, wie das Ergebnis entstanden ist. Und das wird jetzt eben als "Künstliche Intelligenz" gehypt. Eigentlich müsste es "ein Ding von dem man nicht weiß was es eigentlich genau tut" heißen.

Zu meiner Unterhaltung mit ChatGPT beziehungsweise Befragung über mich selbst stelle ich fest:

ChatGPT macht seinen Job scheinbar beeindruckend gut, suggeriert (wie ein gutes Textadventure) Sprache inhaltlich zu verstehen und lässt seine Ergebnisse auch sehr gut sprachlich raus. Das Regelwerk zwischen diesen beiden Dingen und die verwendete Wissensbasis scheint mir fragwürdig.

Warum hat ChatGPT nicht in Wikipedia nach "Michael Nickles" nachgeschlagen? Es hätte dort mühelos feststellen können, dass der dortige Beitrag von mir schon recht alt und auch gepflegt ist, die Informationen also einen durchaus hohen Glaubwürdigkeitsfaktor haben. Anscheinend vermeiden es die ChatGPT-Mache ausdrücklich, Wikipedia-Wissen zu nutzen. Vielleicht haben sie Angst, dass dann zu schnell der Eindruck entstehen könnte, ChatGPTs Antworten seien nur umformulierte "Internetartikel" - das würde den Hype zerstören und das Milliardengeschäft, das erhofft wird.

Alles was ChatGPT wirklich richtig über mich festgestellt hat, ist eigentlich sehr wenig:

Michael Nickles ist ein bekannter IT-Autor der viele Artikel und Bücher verfasst.

Erst bei gezielter Nachfrage nach "Michael Nickles und Abenteuerspiele" hat das System erkannt, dass ich mich auch mit Abenteuerspiele-Programmierung beschäftigt habe.

Das ist eigentlich nicht besonders viel. 

Erschreckend sind die Falschinformationen die ChatGPT über mich ermittelt hat beziehungsweise richtige Informationen von denen ich weiß, dass ChatGPT sie nur zufällig erraten hat, weil es diese Informationen nicht haben konnte.

- Geburtsdaten sind falsch (trotz leicht auffindbar richtigen in Wikipedia)

- ChatGPT suggeriert ich hätte für IBM und Microsoft gearbeitet (das ist falsch)

- die Buchtitel die ich angeblich geschrieben haben soll existieren nicht

- die Spiele die ich programmiert haben soll sind mir nicht einmal bekannt

- das Thema "IT-Sicherheit und Datenschutz" ist kein "Herzensthema" für mich

- nein, ich interessiere mich nicht für Fotografie

Beim genauen Betrachten der Antworten von ChatGPT fällt auf, dass sein vorgegebenes Regelwerk offensichtlich darauf trainiert ist Texte zu strecken. Es greift trickreich auf einen "Satz-/Floskelbaukasten" und unnötige Füllwörter zurück um Antworten "menschlicher" und glaubwürdiger erscheinen zu lassen. Das auch zum Preis, dass Informationen dadurch verfälscht werden.

Richtig schlimm bei ChatGPT: die Antworten werden in einer sehr glaubwürdigen Art und Weise präsentiert, Begriffe wie "eventuell", "vermutlich" und "vielleicht" scheint es nicht zu geben. Das "KI-Wissen" kommt in der Form "das sind die Fakten" rüber. Auch verrät ChatGPT natürlich nicht, wie es auf seine Antworten gekommen ist, aus welchen Quellen es sein Wissen bezogen hat. Das macht es schwer und zeitraubend den Wahrheitsgehalt der Aussagen zu verifizieren.

Okay. Vielleicht ist es der falsche Ansatz ChatGPT über sich selbst (also in diesem Fall mich selbst) zu befragen. Natürlich kann das Ding mehr.

Ein Freund hat mir gestern Abend (bevor ich ChatGPT erstmals selbst probiert habe) sehr begeistert erzählt, dass er sich "Programme" von ChatGPT entwickeln lässt und damit viel Zeit spart. Ich habe mir zwischenzeitlich noch den Spaß erlaubt ChatGPT mal zu bitten, mir ein "Hello World" Programm in C# zu schreiben.

Das hat ChatGPT super und tadellos richtig gemacht. Ich habe dann die völlig blödsinnige Aufgabe gestellt dieses Programm komplizierter zu machen. Auch das hat ChatGPT sagenhaft erledigt und auch sehr sehr gut kommentiert. Ich habe die "KI" dann schrittweise gebeten, das "Hello World" noch komplizierter zu machen. Der finale Auftrag lautete schließlich "schreibe in c# das schlechteste hello world programm aller zeiten". Auch das hat ChatGPT geschafft und mich baff gemacht. Schlechter und komplizierter (aber dennoch funktionierend) geht es nicht. Und wie "humorvoll" ChatGPT seine Programmierbeispiele und meine "Aufträge" kommentiert hat, war schlichtweg beeindruckend.

Ich hatte so viel Spaß, dass ich diese "Unterhaltung" noch im Programmieren-Forum von Nickles.de veröffentlichen werden um Euch daran teilhaben zu lassen.

Vielleicht werden ChatGPT und ich Freunde.

bei Antwort benachrichtigen