Bei ChatGPT in der Plus-Version gibt es Projekte, es gibt Chats und es gibt eine Speicherfunktion. Klingt erstmal geordnet. Du denkst, du hast da so etwas wie eine clevere Ordnerstruktur mit Erinnerungsfunktion. Du sagst einfach „Speichere das“, und das Ding merkt sich deinen Gedanken. Denkste.
Die Projekte sind keine Ordner. Sie sind eher Marker, eine Art stiller Anker für ChatGPT selbst, nicht für dich. Du siehst keinen Verlauf, keine Übersicht, keine Ordner, keine Struktur.
Du bekommst auch keine strukturierte Sammlung deiner Inhalte. Es bleibt eine Blackbox – mit einem netten Label obendrauf.
Die Chats? Auch da hatte ich gedacht, da passiert mehr. Dass wenigstens der Teil, den ich speichere, dauerhaft im System bleibt. Dass die gespeicherten Informationen beim nächsten Mal wieder auftauchen. Aber auch das ist Illusion. Denn die Wahrheit zeigt sich erst dann, wenn du mal komplett ausgeloggt bist.
Ich arbeite zurzeit mit fünf Projekten parallel.
Drei davon laufen auf Social Media, zwei sind offline. ChatGPT ist dafür immer ein Tab in drei unterschiedlichen Browsern (ein Browser pro Projekt) und immer auf meinem Handy.
In allen Projekten nutze ich ChatGPT als Gedächtnis, Analytiker, Strukturgeber, Erinnerer. Das klappt erstaunlich gut in den ersten Wochen. Danach wird es wild.
Denn egal, wie viele Chats du hast, egal, wie genau du die Chats themengerecht führst, egal, wie sorgfältig du die benennst – irgendwann wird’s unübersichtlich. Dann brauchst du einen zweiten Speicher. Zum Glück.
ChatGPT hat kein Gedächtnis. Gar keins!
Was ich nicht wusste: Wenn du ausgeloggt wirst – aus allen Tabs, allen Browsern, der Mobil-App – dann vergisst ChatGPT alles. Du kannst den Tab aktualisieren, du kannst den Browser schließen, solange irgendwo noch ein Zugang offen ist, bleibt der Kontext erhalten. Aber wenn du komplett raus bist, sei es durch ein Update, einen System-Reset oder einfach Inaktivität – ist alles weg. Komplett.
Das ist kein Langzeitgedächtnis. Das ist ein Pseudogedächtnis. Und es funktioniert nur, solange irgendwo noch eine Verbindung offen bleibt.
Das steht nirgends. Das musst du fragen, explizit. Die meisten erfahren es erst, wenn sie das erste Mal alles verloren haben.
Tatsächlich ist es noch da; was du in den einzelnen Chats lesen kannst, kann auch die KI wieder lernen. Aber nur, wenn du diesen Chat erneut öffnest. Denn die Chats verschwinden nicht, auch nach einem Ausloggen nicht. Aber die KI weiß nichts mehr davon – was ja genauso schlimm ist.
Was heißt das in der Praxis?
Es bedeutet, du brauchst ein Backup. Ein echtes, für alles, was du nicht verlieren willst.
Ich nutze Obsidian, aber Notion oder Evernote ist fast genauso gut. Dort halte ich alles fest, was nicht verloren gehen darf, und kann es bei Gedächtnisverlust der KI wieder in einen Chat kopieren und muss nicht von vorn beginnen.
ChatGPT kann viel. Aber es bleibt flüchtig.
Nichts ist nur schlecht.
ChatGPT kann in diesem Punkt viel weniger, als ich angenommen habe. Aber mit dieser Vorgehensweise bin ich auch nicht mehr an eine bestimmte KI gebunden. Denn wenn ich ein Backup habe, dann reicht das auch jeder anderen KI.
Danke fürs Lesen.
Die Bilder stammen von einem 21-km-Spaziergang mit meiner Freundin, die seitdem etwas fußlahm ist und dementsprechend „gute“ Laune hat.
Mit Flipflops sollte man auch keine 21km gehen :)
Klarer Fall, Du brauchst eine Obermotz-AI, die Deinen AIs anschafft, wo es lang geht.
Gibt es das schon?
Oh nein, sie hat Muskelkater in den Waden und Oberschenkeln. Und das ärgert sie, weil sei weiß, dass ich , doppelt so alt und doppelt so schwer , Kettenraucher und mit einem interessanten Leben gesegnet, beschwerdefrei längere Strecken und diese schneller gehe.
Ich hab festgestellt, dass Flipflops sogar besser sind als Barfussschuhe, zumindest hier, im Warmen, solange sie rutschfest sind, auch wenns nass oder schwitzig ist.
Ki ist ein Effizienzsteigerer, wie ich es mir nicht hätte vorstellen können für meine Arbeit. Ohne sie würde ich nicht ein Drittel schaffen und ich lasse sie nicht mal Posts schreiben.
Nicht weil ich dagegen wäre, sondern weil sie das noch nicht kann, weil sie noch immer nicht versteht, wie ich schreibe und warum.
Aber es ist, als hättest du ein ganzes Backupteam zur Verfügung. Nur ist sie eben auch extrem schlecht dokumentiert. Keine Ahnung, warum. Man muss alles erfragen.
Und manchmal kommt dabei eben Unerwartetes hervor, wie das fehlende Langzeitgedächtnis.
Eine KI-Instanz, die ausführende KI überwacht, könnte man installieren, aber wozu? KI-kontrolliert sich selbst, wenn man es ihr sagt, spielt also Hierarchieebenen selbst durch.
Das Problem ist ein anderes: Wenn man nach einem Ausloggen neu anfangen muss, kann man ihr zwar alles wieder einspielen, aber stundenlange Chats über Monate hinterlassen so viele kleine Spuren, dass sie danach doch nicht wieder dieselbe ist. Und das wäre dann weg.
Probier´ mal Grok, da kann man seine chat-Historie abrufen
Kann ich bei CahtGPD auch. Bringt nur nichts, wenn man das schon ein paar Tage macht.