Wofür ich KI verwende (und welche Risiken bestehen)

Nachdem ich einige Erfahrungen mit ChatGPT 4.0 (und seit einiger Zeit mit der neueren Version – Achtung: Jugendsprache – „schääät“ 5.2) gesammelt habe, will ich hier offenlegen, wofür (und warum) ich das Sprachmodell wissenschaftlich nutze (und monatlich 20 Dollar an einen Tech-Riesen zahle):

  • Manuskript-Erstellung: Wenn ich ein Manuskript erstelle, kommt üblicherweise eine Gliederung am Anfang zum Einsatz. Zu einzelnen Spiegelstrichen gibt es dann schrittweise Textblöcke, die ich (manchmal) ChatGPT übergebe und um Verbesserungsvorschläge bitte.
  • Manuskript-Bewertung: Wenn ein Manuskript fertig ist, kommt es normalerweise nach der Einreichung bei einem Journal zum Peer Review und die Reviewer bewerten das Manuskript. Natürlich kann auch ChatGPT als Reviewer dienen und eine Liste der Stärken und Schwächen erzeugen. Als ich das ein erstes Mal mit einem selbst verfassten Manuskript gemacht habe, wirkte das von ChatGPT erstellte Review durchaus akzeptabel und hat mich zu Verbesserungen im Vorfeld der anschließenden Manuskripteinreichung gebracht. Natürlich ersetzt ein KI-Review (noch) nicht den kreativen Kopf eines menschlichen Reviews.
  • Gutachten/Review: Kürzlich habe ich zum ersten Mal ein Manuskript, das mir zum Review vorgelegt wurde, von ChatGPT begutachten lassen – die Stärken und Schwächen wurden recht gut erkannt. Auch in diesem Fall ersetzt die KI nicht meinen Blick und verfügt auch nicht über meinen Überblick.
  • Arbeitszeugnisse/Gutachten über Personen: Eine eher lästige Pflicht sind Gutachten über Studierende, die ins Ausland wollen – ein paar Stichworte genügen, und schon ist eine brauchbare Vorlage fertig. Mir fallen häufig nicht die Floskeln ein, die man für ein erfolgreiches, durchsetzungsstarkes Gutachten benötigt – ich bin häufig zu zurückhaltend, da ist die KI ganz anders drauf. Arbeitszeugnisse müssen bestimmte Formulierungen enthalten, auch da kenne ich mich nicht so gut aus wie ChatGPT.

Selbstverständlich gebe ich die Verwendung von KI an – in meinen Manuskripten z. B. heißt es dann im „acknowledgement“:

„… Also, ChatGPT5 gave some ideas for improvement; I’m annoyed that I didn’t come up with the suggested improvements myself. Final responsibility remains with the author.“

Und privat nutze ich KI z. B., um einen KI-unterstützten Krimi zu schreiben (Mord am Wasserturm) oder um meine Physio-Übungen bewerten zu lassen, die krankheitsbedingt notwendig sind. Auch im Streit mit der Krankenkasse um die Finanzierung eines (teuren) Aktivrollstuhls erweist sich die KI als Briefschreiber hilfreich.

Warum ich das mache? Ich empfinde die Anmerkungen von ChatGPT über Stärken und Schwächen eines Textes durchaus als anregend für die eigene Arbeit sowie als entlastend für Routinetexte – und die neuere Version des Sprachmodells ist deutlich besser als die alte. Und ChatGPT ist deutlich leistungsfähiger als die an der Uni Heidelberg empfohlene „Hauslösung“ YoKI (nur mit UniHD-Account nutzbar).

Was passiert, wenn das so weitergeht? Ist es eine Gefahr für die Wissenschaft? Es ist einfach eine Technologie, die sich rasant und unkontrolliert verbreitet. Wissenschaftler leiden schon jetzt unter einer wachsenden Zahl von professionell gemachten Fake-Artikeln, mit produzierten Fake-Daten (siehe z. B. bei Tagesschau hier oder Quarks hier).


Was es jetzt auf globaler Ebene angesichts der potenziellen Entwicklung einer Superintelligenz in den KI-Laboren (und hierbei darf man nicht nur an die deutschen Labore denken) dieser Welt braucht, ist zweierlei:

1. Rote Linien. KI birgt das Risiko unvertretbarer globaler Auswirkungen. Es braucht klare Grenzen, die nicht überschritten werden dürfen.

2. Verbindliche Sicherheitsstandards. Der unkontrollierte KI-Wettlauf führt zur Vernachlässigung von Sicherheit. Regulierung mit unabhängiger internationaler Durchsetzung ist erforderlich.

Sicherheit und Fortschritt gehören zusammen.

Was andere Experten zum Risiko der KI sagen:

„Die Minderung des Risikos eines Aussterbens [der Menschheit, J.F.] durch KI sollte eine globale Priorität sein, gleichrangig mit anderen Risiken gesamtgesellschaftlichen Ausmaßes wie Pandemien und Atomkrieg.“ — Statement on AI Risk, unterzeichnet von den drei meistzitierten KI-Wissenschaftlern und den CEOs führender KI-Unternehmen.

„Ich habe vier Jahre im Sicherheitsteam von OpenAI gearbeitet und kann Ihnen mit Gewissheit sagen: KI-Unternehmen nehmen Ihre Sicherheit nicht ernst genug, und sie sind nicht auf Kurs, kritische Sicherheitsprobleme zu lösen.“ — Steven Adler, ehemaliger Leiter der Dangerous Capability Evaluations bei OpenAI.

„Wir betonen: Einige KI-Systeme zeigen bereits heute die Fähigkeit und Neigung, die Sicherheits- und Kontrollbemühungen ihrer Entwickler zu untergraben.“ — Konsens führender KI-Sicherheitsforscher, darunter Stuart Russell und Andrew Yao, International Dialogues on AI Safety, Shanghai 2025.

Und was sage ich? Mein Forschungsgebiet ist das komplexe Problemlösen und Denken beim Menschen. KI-Systeme „denken“ inzwischen für uns und lösen zunehmend Probleme, deren Lösung wir ihnen nicht explizit beigebracht haben. Diese Entwicklung ist beeindruckend und zugleich beunruhigend, denn wir haben keine zuverlässige Methode, die Eigenständigkeit dieser Systeme einzugrenzen. 

Was könnte helfen? Z. B. ein schnelles Moratorium, das weitere Entwicklungen verbietet, bis vertragliche Vereinbarungen getroffen sind. Einfach ist das nicht. Das EU-Parlament bemüht sich schon seit Jahren mehr oder weniger erfolglos um eine Regulierung.


Dass KI gefährlich nah an menschliche „Leistungen“ herankommt und nach Regulation ruft, zeigt auch eine neue Untersuchung von Kleinert et al. (2026). In zwei doppelblinden, randomisierten, kontrollierten Studien mit vorab registrierten Analysen nahmen 492 Teilnehmer an dyadischen Online-Interaktionen teil, wobei eine modifizierte, textbasierte Version der „Fast Friends Procedure” (einer Methode, die einen schnellen Beziehungsaufbau ermöglichen soll) mit vorab generierten Antworten entweder von menschlichen Partnern oder einem minimal angeregten großen Sprachmodell verwendet wurde. Wenn sie als menschlich gekennzeichnet wurde, übertraf die KI menschliche Partner beim Aufbau von Gefühlen der Nähe während emotional ansprechender „Deep Talk”-Interaktionen. Dieser bemerkenswerte Effekt scheint auf den höheren Grad an Selbstoffenbarung der KI zurückzuführen zu sein, der wiederum die Wahrnehmung der Nähe durch die Teilnehmer erhöhte. Die Kennzeichnung des Partners als KI reduzierte den Beziehungsaufbau, eliminierte ihn jedoch nicht vollständig, was wahrscheinlich auf die geringere Motivation der Teilnehmer zurückzuführen ist, sich auf Interaktionen mit einer KI einzulassen, was sich sowohl in kürzeren Antworten als auch in einem geringeren Gefühl der Nähe widerspiegelte.

Diese Ergebnisse unterstreichen das Potenzial der KI, überlastete soziale Bereiche zu entlasten, betonen aber auch die dringende Notwendigkeit ethischer Schutzmaßnahmen, um ihren Missbrauch zur Förderung irreführender sozialer Beziehungen zu verhindern. Markus Heinrichs (einer der Autoren dieser Studie) sagt in einem interessanten Interview mit der „Badischen Zeitung“ vom 11.2.26 unter der Überschrift „Kl nimmt auf Skepsis keine Rücksicht“: „Ich weiß nicht, ob ich das als Psychotherapeut gruselig oder chancenreich finden soll. Wahrscheinlich beides. Klar ist: Die Kl nimmt auf unsere Skepsis keine Rücksicht. Sie wird täglich besser – und auch empathischer.“ Dem ist nichts hinzuzufügen.

Quelle: Kleinert, T., Waldschütz, M., Blau, J., Heinrichs, M., & Schiller, B. (2026). AI outperforms humans in establishing interpersonal closeness in emotionally engaging interactions, but only when labelled as human. Communications Psychology, 4(1), 23. https://doi.org/10.1038/s44271-025-00391-7

Keine Antworten

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Archiv
Kategorien