In einem lesenswerten Artikel für die Zeitschrift „Current Affairs“ mit dem Titel „AI is Destroying the University and Learning Itself“ schreibt Ronald Purser über den Niedergang nordamerikanischer Unis infolge von KI (insbesondere durch kostenlose ChatGPT-edu-Lizenzen, die die größte private Universität CSU – California State University – mit 23 Campus (korrekter Plural!), annähernd einer halben Million Studierenden und >40.000 Mitarbeitenden kostenlos zur Nutzung anbietet).
In der Euphorie über „personalisierte, zukunftsorientierte Lernwerkzeuge“ und dahinterstehende „KI-getriebene Ökonomie“ wurden ganze Departments geschlossen (allein an der Sonoma State Univ sah man sich wohl mit einem Defizit von 24 Millionen Dollar konfrontiert und kündigte daher Pläne an, 23 Studiengänge – darunter Philosophie, Wirtschaftswissenschaften und Physik – zu streichen und über 130 Stellen für Lehrkräfte zu kürzen, was mehr als einem Viertel des Lehrpersonals entspricht). Die Zahlen sind brutal und der Kontrast eklatant: Millionen Dollar werden für OpenAI ausgegeben, während langjährige Dozenten ihre Kündigung erhalten.
Wissen als Ware und Studierende als Konsumenten: „Akademischen Kapitalismus“ nennen das die Autoren Sheila Slaughter und Gary Rhoades in einem Artikel, der bereits im Jahr 2000 erschienen ist.
Ist das auch an deutschen Unis vorstellbar? Ich denke (noch) nicht! Kritisches Denken ist so wichtig wie nie zuvor – und natürlich sollen und müssen unsere Studierenden den Umgang mit KI lernen! KI-Kompetenz wird mindestens so wichtig wie Medienkompetenz!
Und vor allem geht es um mutigen Widerspruch! Widerstand gegen die herrschende Lehre (in der Juristerei gibt es dafür das Kürzel HL bzw. HM, herrschende Meinung) ist ein Leitprinzip der Wissenschaft, ein Großteil meiner eigenen Karriere beruht darauf!
Deshalb sollte man beim Umgang mit LLMs (= large language models) wie ChatGPT immer im Kopf behalten, dass diese Textproduktionsmaschinen konservativ (sie re-produzieren) weil sie auf veröffentlichten Texten beruhen und deren Übergangswahrscheinlichkeiten die Zeichen- und Wortfolgen bestimmen – nicht viel Neues also.
Die Qualität der KI-Systeme verbessert sich rapide: Habe ich mich vor 1 oder 2 Jahren noch sehr kritisch zu den Halluzinationen der generativen KI geäußert (siehe hier und hier), sind diese Probleme heute weitgehend überwunden. Das Problem heute könnte darin bestehen, dass wir uns zu sehr auf diese Tools verlassen und damit eigene Fähigkeiten „verhungern“ (nach dem Motto „use it or lose it“ – so auch unser Heidelberger Honorarprofessor Robert Sternberg in einem neuen Artikel: Sternberg, R. J. (2026). AI Yai Yai: The fate of creativity in the age of generative AI. In M. J. Worwood & Kaufman, James C. (Eds.), Generative Artificial Intelligence and Creativity. Precautions, Perspectives, and Possibilities (pp. 147–156). Elsevier. https://doi.org/10.1016/B978-0-443-34073-4.00001-0).
Keine Antworten