Man sucht den eigenen Domainnamen bei Google. Aus reiner Neugier, vielleicht aus Eitelkeit, vielleicht auch nur, weil man wissen will, was „die Maschine“ über einen weiß. Und dann liest man dort Dinge, die man selbst noch nie gehört hat. In meinem Fall: byronic.de leite auf eine Schweizer Medienfirma weiter, die Audioproduktion betreibt, Skateboards verkauft, Musikdownloads anbietet und Workshops rund ums Rollbrett veranstaltet. Byronic Radio inklusive.
Man sitzt kurz da, liest den Text noch einmal, und fragt sich, ob man in den letzten Jahren versehentlich ein zweites Leben geführt hat.
Zur Klarstellung: byronic.de ist ein privates Weblog. Kein Medienunternehmen. Keine Agentur. Kein Shop. Keine Skateboards, keine Jingles, kein Radio. Nicht einmal heimlich. Und schon gar keine Weiterleitung auf irgendeine .com-Adresse. Die Google-KI hatte schlicht zwei Dinge zusammengeworfen, die sich ähnlich anhören, und daraus eine hübsch formulierte, aber vollständig falsche Geschichte gebaut.
An dieser Stelle hätte man nun in den technischen Unterbau abtauchen können. DNS, Redirects, HTTP-Statuscodes, Providerwechsel. Man hätte testen, messen, debuggen, Logs produzieren und Beweise sammeln können. Man hätte sich für einen Moment in den unbezahlten Außendienst eines Multimilliarden-Dollar-Konzerns verwandeln können.
Habe ich nicht getan.
Ich habe Google stattdessen höflich, knapp und bestimmt darauf hingewiesen, dass die Aussage falsch ist. Keine Verbindung. Weder organisatorisch noch wirtschaftlich noch technisch. Punkt. Mehr nicht. Keine Erklärung, keine Rechtfertigung, keine pädagogische Nachhilfe.
Google reagierte – und zwar in einer Weise, die selbst wieder Stoff liefert. Zunächst wurde die falsche Zuordnung eingeräumt und korrigiert. Dann erklärte mir die KI, sie habe leider keinen Zugriff auf aktuelle Webseiten und wisse deshalb nicht, ob byronic.de überhaupt aktiv sei. Auch das war falsch. Ein Blick auf die Seite hätte gereicht. Anschließend bat man mich freundlich, doch kurz zu skizzieren, worum es auf meiner Website gehe, damit man die Beschreibung „präziser ergänzen“ könne.
An diesem Punkt wurde mir klar, was hier eigentlich passiert:
Die KI hatte einen Fehler gemacht. Und nun sollte ich ihr helfen, ihn dauerhaft zu verwalten.
Ich habe abgelehnt. Ebenfalls höflich, aber unmissverständlich. Als privater Betreiber eines unabhängigen Weblogs sehe ich es nicht als meine Aufgabe an, ehrenamtlich Inhalte für KI-Datenbanken zu kuratieren. Die korrekte Abgrenzung war hergestellt, der Sachverhalt geklärt. Mehr gibt es nicht zu tun.
Die Antwort der KI war bemerkenswert: verständnisvoll, respektvoll, abschließend. Der Fall sei erledigt. Man stehe mir aber jederzeit gern wieder zur Verfügung.
Und genau da wurde es interessant.
Denn aus dieser kleinen Episode lässt sich einiges lernen. Erstens: KI-Zusammenfassungen sind keine Recherche, sondern Synthese. Sie klingen plausibel, solange man sie nicht am eigenen Objekt überprüft. Zweitens: Korrekturen funktionieren – aber sie verschieben Arbeit nach unten. Drittens: Es ist legitim, diese Arbeit nicht zu übernehmen.
Und viertens, vielleicht der angenehmste Punkt:
Solche Begegnungen liefern Material. Kostenlos. Unfreiwillig. Direkt ins Haus.
Google erfindet mir eine Medienfirma, ich bekomme einen neuen Blogbeitrag.
Am Ende also doch eine Art Wertschöpfung. Nur eben nicht dort, wo Google sie vermutet hätte.
Nachtrag: Gleichstand auf niedrigem Niveau
Auslöser für diesen Nachtrag ist eine weitere, fast schon lehrbuchhafte Zuspitzung des Vorgangs. Aus reinem Interesse habe ich die identische Anfrage nach byronic.de wenige Minuten später noch einmal gestellt – diesmal über einen anderen Browser, ohne jeden Bezug auf den vorherigen Dialog. Das Ergebnis war ernüchternd und zugleich aufschlussreich: Die Google-KI lieferte erneut exakt dieselbe falsche Behauptung über einen angeblichen Redirect auf byronicmedia.com. Nach erneuter Korrektur folgte wieder eine Entschuldigung, wieder der Hinweis auf einen „technischen Fehler“, wieder die Bitte um Mithilfe, um den Wissensstand „für diesen Chat“ zu fixieren. Spätestens an diesem Punkt war klar, dass es sich nicht um einen Einzelfehler, sondern um ein strukturelles Muster handelt – und genau das macht den Vorgang über den konkreten Anlass hinaus interessant.
Nach dieser Episode drängt sich noch eine zweite, unangenehme Erkenntnis auf, die man fairerweise nicht Google allein anlasten kann. Die Sache ist nämlich keine Google-Spezialität. Sie betrifft ChatGPT genauso.
Auch hier habe ich in den letzten Tagen erlebt, wie zäh es sein kann, eine KI dazu zu bewegen, tatsächlich und konkret auf eine benannte Webseite zuzugreifen, statt über deren mutmaßlichen Inhalt zu spekulieren. Das kostete Zeit, Geduld und ein Maß an insistierender Hartnäckigkeit, das man eigentlich eher aus jahrzehntelanger Behörden- oder Versicherungskommunikation kennt als aus dem Umgang mit einem digitalen Werkzeug. Erst nach mehrfacher Intervention geschah dann das, was man naiv voraussetzt: ein tatsächlicher Blick auf die Seite.
Der strukturelle Befund ist derselbe wie bei Google:
Jeder Dialog steht für sich. Nichts wird dialogübergreifend gelernt. Korrekturen haben keine Dauer. Einsicht ist situativ, nicht persistent. Der nächste Chat beginnt wieder bei null – so, als hätte es die vorherige Auseinandersetzung nie gegeben.
Bei Google kommt noch hinzu, dass man diese Dialoge nicht einmal speichern oder sinnvoll dokumentieren kann. Sie verpuffen. Bei ChatGPT ist das immerhin anders. Chatverläufe lassen sich aufbewahren, zitieren, weiterverarbeiten. Das ist kein Qualitätsmerkmal im Sinne von „klüger“, sondern ein rein praktischer Vorteil. Und genau aus diesem Grund zahle ich hier ein Abonnement – nicht aus Technikbegeisterung, nicht aus Markentreue, sondern aus nüchternem Nutzwertdenken.
In der Sache selbst gibt es also keinen Sieger. Weder Googles KI-Suche noch ChatGPT ist dem anderen prinzipiell überlegen. Beide produzieren plausible Antworten, beide produzieren hartnäckige Fehler, beide entschuldigen sich höflich, beide vergessen zuverlässig. Wer hier auf dramatische Qualitätsunterschiede hofft oder Lust hat, Benchmarks zu vergleichen, Tabellen zu pflegen oder Ranglisten zu erstellen, möge das gern tun. Es ist nicht mein Metier. Ich habe weder die Lust noch die Zeit noch ein finanzielles Interesse daran.
Was bleibt, ist eine einfache Beobachtung aus der Praxis:
KI ist kein Gedächtnis, sondern ein Generator.
Sie korrigiert, ohne zu lernen.
Sie erklärt, ohne zu erinnern.
Und sie delegiert Arbeit gern nach unten – an den Nutzer.
Auch das ist kein Skandal, sondern eine Zustandsbeschreibung.
Und damit ist auch dieser Nachtrag abgeschlossen.
Hinweis des Autors
Kommentare sind hier möglich, aber nicht als Debattenarena gedacht. Erwünscht sind sachliche, begründete Anmerkungen, Ergänzungen oder abweichende Beobachtungen, sofern sie respektvoll formuliert sind.
Nicht beabsichtigt sind Schlagabtausch, Empörung, Parteipositionen oder persönliche Zuschreibungen. Dieses Weblog versteht sich als Denkraum, nicht als Meinungsplatz.
Wer kommentiert, möge sich daran orientieren.