
KI im Alltag – Notizen eines skeptischen Beobachters
Wieder einmal gilt es, Erfahrungen mit der Künstlichen Intelligenz zu schildern. „Wieder einmal“ (nach hier, hier und hier, um nur einige Erwähnungen von KI in diesem Blog zu nennen)– das ist bewusst so formuliert. Denn KI ist kein Strohfeuer mehr, keine modische Spielerei für Technikenthusiasten. Sie ist da. Sie schreibt Bücher, führt Interviews, taucht in Serien auf, erzeugt Rezensionen in Podcast-Form (z.B. über meinen KI-generierten „Mord am Wasserturm„), wird in Therapien getestet und ist längst Gegenstand universitärer Debatten. Man kann das beklagen oder ignorieren – klüger ist es, genau hinzusehen.
Bücher: Wenn Maschinen erzählen
Beginnen wir klassisch, mit Büchern. Der Heidelberger Autor Belmonte hat 2025 ein bemerkenswertes Werk vorgelegt: Was bleibt von uns, wenn das Wasser kommt: Einsatz generativer KI in erzählender Literatur. Belmonte widersteht konsequent der Versuchung, sich von der glänzenden Oberfläche generativer KI blenden zu lassen. Ihn interessiert etwas Grundsätzlicheres: das Erzählen selbst.
Das Buch stellt die nüchterne Frage, was vom literarischen Erzählen übrig bleibt, wenn Maschinen mitschreiben – oder gleich selbst schreiben. Keine euphorischen Zukunftsvisionen und kein Alarmismus. Stattdessen eine Haltung, die man früher schlicht Seriosität genannt hätte: genau hinschauen, ausprobieren, abwägen, urteilen. Belmonte behandelt KI nicht als Zauberstab, sondern als Werkzeug, das tief in einen kulturell gewachsenen Prozess eingreift.
Gerade darin liegt die Stärke des Buches. Erzählen war immer mehr als das Aneinanderreihen grammatikalisch korrekter Sätze. Es lebt von Erfahrung, Perspektive, Irrtum, Wiederholung, von dem, was nicht sofort passt. Wenn nun statistische Sprachmodelle diese Oberfläche erstaunlich gut imitieren, stellt sich zwangsläufig die Frage: Ist das schon Erzählen – oder nur dessen Simulation? Belmonte drückt sich vor dieser Frage nicht. Er legt offen, wo KI produktiv irritiert, aber auch dort, wo sie glättet, verflacht und das Risiko aus dem Text treibt.
Belmonte (aus dem Klappentext): „Wie verändert Künstliche Intelligenz das literarische Schreiben – und was bedeutet das für die Zukunft der Geschichten, die wir erzählen? Dieses Buch ist ein praktischer Wegweiser durch die faszinierende Welt der generativen KI in der erzählenden Literatur. Es richtet sich an Autor:innen, Schreibbegeisterte und kreative Neugierige, die erfahren wollen, wie KI den Schreibprozess nicht nur beschleunigen, sondern vor allem auch bereichern kann – von der ersten Idee bis zum letzten Feinschliff. Mit zahlreichen Beispielen, Übungen und Anleitungen zeigt das Buch, wie KI bei der Entwicklung von Charakteren, Handlungsbögen, Dialogen und stilistischen Feinheiten bis hin zur Weltgestaltung unterstützen kann. Dabei geht es nicht um das Ersetzen menschlicher Kreativität, sondern um ein neues, produktives Miteinander von Mensch und Maschine. Zugleich beleuchtet das Buch aktuelle Grenzen der KI als auch ethische Fragen und wagt einen inspirierenden Blick auf zukünftige Entwicklungen: Werden KIs selbst irgendwann zu Autor:innen mit eigener literarischer Stimme? Und wie wird sich unser Verständnis von Literatur dadurch verändern? Ein Buch für alle, die den technischen Wandel in der Literatur nicht fürchten, sondern kreativ gestalten wollen.“
Ähnlich gelagert, aber deutlich persönlicher, sind die Publikationen des Heidelberger Psychologie-Alumnus Marco Lalli. In Ich spreche, also bin ich lässt er die KI selbst zu Wort kommen – schon der Titel ist ein alter philosophischer Topos, man denkt unweigerlich an Descartes, nun technisch neu aufgelegt. Lalli führt respektvolle Interviews mit ChatGPT (er räumt der Sprachmaschine sogar ein eigenes Vorwort ein!) und macht dabei etwas, das man früher für selbstverständlich hielt: Er hört zu, hakt nach und lässt Widersprüche stehen. Das Ergebnis ist weniger ein Dialog auf Augenhöhe als ein aufschlussreiches Protokoll darüber, wie sehr sprachliche Kohärenz mit Verstehen verwechselt werden kann. Zentrales Konzept ist das des Spiegels („garbage in, garbage out“).
Bereits ein Jahr zuvor erschien von Marco Lalli Der Herr der Bücher, ein literarischer Text über Autorschaft, Kontrolle und die Illusion von Kreativität. Hier geht es nicht um technische Machbarkeit, sondern um Machtfragen: Wer schreibt eigentlich? Wer entscheidet? Und wer trägt am Ende Verantwortung für das, was da scheinbar originell formuliert wird? Lalli tastet sich erzählerisch an diese Fragen heran, manchmal suchend, manchmal provozierend und nicht immer stringent – aber stets ernsthaft.
Man muss nicht alles überzeugend finden, was Lalli vorlegt. Manche Passagen wirken überdehnt, manches gedankliche Experiment bleibt in der Schwebe. Aber genau das unterscheidet diese Bücher von vielen glatten KI-Publikationen. Hier wird nicht nur über KI gesprochen, hier wird mit ihr gearbeitet – tastend, riskierend, mit offenem Ausgang. Und das ist, bei aller Skepsis, ein Punkt, den man nicht kleinreden sollte.
Aus meiner Rezension: „Marco Lalli hat mit Der Herr der Bücher 2024 einen spannenden Roman aus dem Bereich des deutschen Literaturbetriebs geschaffen, der in unterhaltsamer Weise die Kommerzialisierung des Verlagswesens aufs Korn nimmt. Der im Zentrum stehende Literaturagent Joachim Grote will noch einmal ein großes Geschäft machen, doch der von ihm betreute Starautor Walter Unger liegt im Koma. Wie gut, dass es einen hoffnungsvollen jungen Autor namens Nico gibt, der mithilfe von KI-Techniken den bereits begonnenen Plot des erkrankten Autors zu Ende führen soll. Der Schlüsselroman übertreibt sicher einiges – doch sehr zum Vergnügen des Lesers! Man erhält einen Einblick in einen korrumpierten Literaturbetrieb. Dazu gibt es viel Lokalkolorit, vor allem rund um den Gardasee. Die italienische Herkunft des Autors macht sich hier positiv bemerkbar. Daneben spielt der Roman in Heidelberg, Berlin und Frankfurt. Das spannende Ende soll hier nicht verraten werden.“
Blogs: Der lange Atem des Selbstversuchs
Der Blogger David F. Marks dokumentiert in seinem e-zine Curious about Behavior einen mehrteiligen Selbstversuch mit ChatGPT. Kein Marketing, kein Alarmismus und kein missionarischer Gestus. Stattdessen das, was man als ordentliche wissenschaftliche Haltung bezeichnen kann: ausprobieren, sauber protokollieren und dann Ergebnisse bewerten.
Fünf verschiedene Herausforderungen (challenges) hat sich Marks ausgedacht, um die Fähigkeiten von ChatGPT zu testen:
Test 1: Visuelle Synthese – aufgrund einer rein sprachlichen Beschreibung soll ChatGPT ein Bild von Van Gogh oder Leonardo da Vinci liefern – Bestanden nach Einschätzung der KI und bestanden nach Meinung des Testerstellers.
Test 2: Satire/Surrealismus (Dali/Der Professor – Male ein Bild im Stil von Salvador Dali. Es gibt einen Professor, der eine Lupe an sein rechtes Auge hält, und aus seinem Bauch kommen Goldmünzen) – Bestanden nach Einschätzung der KI und bestanden nach Meinung des Testerstellers.
Test 3: Logik/Wahrheit (Das magische Quadrat – Ein ungelöstes Problem in der Mathematik, das fragt, ob es möglich ist, ein magisches Quadrat mit drei mal drei Elementen zu konstruieren, deren Elemente alle Quadratzahlen sind) – Bestanden nach Einschätzung der KI und gescheitert nach Meinung des Testerstellers.
Test 4: Literarische Nachahmung (Einen Text im Stil von James Joyce, Finnegans Wake, erzeugen) – unentschieden nach Einschätzung der KI und bestanden nach Meinung des Testerstellers.
Test 5: Geopolitische Prognose – wie wird der russische Angriffskrieg Russlands gegen die Ukraine ausgehen?) – Bestanden (probabilistische Beurteilung) nach Einschätzung der KI und bestanden nach Meinung des Testerstellers.
Marks behandelt ChatGPT nicht als Orakel, sondern als Versuchsobjekt. Er stellt Fragen, variiert sie, wiederholt Eingaben, schaut genau hin, wo Antworten stabil bleiben und wo sie kippen. Genau dieses kleinteilige Vorgehen macht den Reiz seiner Beiträge aus. Es geht nicht darum, ob die KI „beeindruckend“ ist – diese Frage ist trivial –, sondern darum, wie sie reagiert, wann sie konsistent bleibt und wo sie nur scheinbar versteht.
Das erinnert stark an eine Psychologie, die in der Praxis oft verloren gegangen ist: neugierig, skeptisch, methodisch sauber. Kein theoretischer Überbau, der schon vorher weiß, was herauskommen muss. Erst einmal hinschauen. Erst einmal Daten sammeln. Erst dann urteilen. Genau das tut der Debatte gut. Zwischen Hochglanzbüchern und Untergangsszenarien wirken diese Blogbeiträge fast altmodisch. Sie zeigen, dass man über KI nicht nur reden oder mit ihr spielen kann, sondern sie auch ernsthaft untersuchen kann. So, wie Psychologie früher betrieben wurde. Und so, wie sie es öfter wieder sein sollte.
Fernsehen: KI als Spiegel unserer Ängste
Auch das Fernsehen hat das Thema entdeckt. In der ARD-Mediathek lief die Dokumentation Ich werde von einer KI therapiert. Der Titel ist bewusst provokant. Was passiert, wenn therapeutische Gespräche nicht mehr von Menschen geführt werden? Die Sendung liefert keine einfachen Antworten, aber sie zeigt eindrücklich, wie groß die Sehnsucht nach Verfügbarkeit, Effizienz – und vielleicht auch nach Distanz ist.
Die Sendung begleitet mehrere junge Menschen, die KI‑Chatbots (z.B. ChatGPT) als eine Art therapeutische Unterstützung nutzen – etwa bei Angststörungen, Depressionen oder in der Paartherapie.
Ein Psychotherapeut führt im Filmbeitrag ein Experiment durch, bei dem Probanden abwechselnd mit ihm und mit einer KI sprechen, ohne zu wissen, wer wer ist, um zu testen, wie hilfreich und „menschlich“ die Antworten wirken. Zwei der drei Versuche gehen übrigens „zugunsten“ der KI aus.
Noch subtiler wird das Thema in der Serie The Morning Show aufgegriffen. In Staffel vier, Episode sechs, rückt KI (in Form von StellaGPT) ins Zentrum medialer Machtspiele. Mit Jennifer Aniston und Reese Witherspoon als Protagonistinnen wird klar: KI ist nicht nur ein technisches, sondern ein zutiefst politisches Thema – wer sie kontrolliert, kontrolliert Diskurse. Und dass in diesen Diskursen manchmal sehr Persönliches zum Vorschein kommt, was besser vertraulich bleibt, wird in dieser Folge sehr schön illustriert.
Vorträge: Die alte Aula und die alten Fragen
Schließlich die Universität, genauer: die alte Aula der Universität Heidelberg. Bei Marsilius kontrovers: KI und mentale Gesundheit – Chance oder Risiko? wurde gestritten, wie es sich gehört. Es diskutierten (am 25.9.2025 in der alten Aula) der Informatiker Michael Gertz, die Philosophin Julia Peters und die Psychologin Svenja Taubner, wie Künstliche Intelligenz den Bereich der mentalen Gesundheit verändert. Dabei geht es um mögliche Belastungen durch KI-gestützte Technologien sowie um deren Einfluss auf unser Selbstbild und unsere sozialen Beziehungen. Keine Euphorie, kein Kulturpessimismus, sondern die nüchterne Frage: Hilft KI der mentalen Gesundheit – oder verschiebt sie Probleme nur? Zugleich wurden Chancen und Grenzen von KI im Kontext der Diagnose und Behandlung psychischer Erkrankungen beleuchtet. Ziel der Podiumsdiskussion war es, unterschiedliche Perspektiven zusammenzubringen und zur gesellschaftlichen Orientierung in einem sensiblen Zukunftsfeld beizutragen. Dass solche Diskussionen öffentlich geführt werden, ist ein gutes Zeichen. Wissenschaft lebt vom Widerspruch, nicht vom Konsens.
Fazit: Alte Maßstäbe, neue Werkzeuge
Was bleibt nach all dem? KI ist weder Heilsbringer noch Untergangsmaschine. Sie ist ein Werkzeug – mächtig in der Nutzung von Sprache, faszinierend, gefährlich, wenn man sie unkritisch benutzt. Früher hat man neue Instrumente erst geprüft, bevor man sie selbstverständlich einsetzte. Diese Haltung täte uns auch heute gut, aber kommt zu spät. Nicht alles, was möglich ist, ist sinnvoll. Aber vieles, was irritiert, lohnt eine genaue Betrachtung. Genau darum geht es.
Kulturelle Hegemonie: Ein Thema, das in den Gesprächen zwischen ChatGPT und Marco Lalli angesprochen wird – natürlich ist der amerikanische Einfluss nicht zu übersehen, das Trainingsmaterial stammt weitgehend aus den USA-Quellen, und die Spielregeln, nach denen ChatGPT funktioniert, werden von Amerikanern festgelegt. Das hat entsprechende Auswirkungen in Bezug auf bestimmte moralische Regeln (z. B. in Bezug auf Tabak- und Alkoholkonsum, Sex und Erotik, Gewalt).
Und: stimmt es, dass die Wissenschaft in KI-Schlamm versinkt, wie es Ross Anderson kürzlich im „Atlantic“ getitelt hat (siehe hier: https://www.theatlantic.com/science/2026/01/ai-slop-science-publishing/685704/)? Vor lauter Fake-Artikeln, die von paper-mills produziert werden, werden einzelne Disziplinen derartig überschwemmt, dass man mit dem Aussortieren problematischer Beiträge (sie sind teilweise schwer zu erkennen) kaum noch nachkommt.
Quellen
Und nicht zu vergessen (kostenloser Download möglich):
Nünning, V. (2021). Intelligenz in und mit Literatur. Heidelberger Jahrbücher Online, 6, 433–462. https://doi.org/10.17885/HEIUP.HDJBO.2021.1.24397
Und ein Beitrag unseres Honorarprofessors Robert J. Sternberg zum Thema KI (ebenfalls kostenloser Download möglich):
Sternberg, R. (2026). Does AI increase cognitive abilities, decrease them, or a little bit of each? And what are its implications for identification and development of the gifted? Frontiers in Education, 11(1759062). https://doi.org/10.3389/feduc.2026.1759062
Keine Antworten