Lesedauer ca. 4 Minuten

Wer heute studiert, schreibt Hausarbeiten oft nicht mehr allein. Zwischen Literaturdatenbank und Texteditor läuft ein drittes Programm mit: ein Dialogfeld, das auf Knopfdruck antwortet, flüssig formuliert, manchmal erstaunlich brillant.

Viele nehmen das als nützliche Abkürzung hin. Andere beginnen zu fragen, was hinter dieser sprachlichen Souveränität steckt und wo ihre Grenzen liegen.

Für sie hat Lena Kölmel am ifab einen Bildungs-Use-Case im Projekt KARL mitentwickelt: einen Demonstrator, der die Mechanik der großen Sprachmodelle sichtbar macht.

Von Ariane Lindemann 

Als der Demonstrator entstand, war vieles noch Neuland. Sprachmodelle wurden genutzt, aber selten verstanden. Studierende schrieben mit ihnen, Unternehmen experimentierten damit, Schulen tasteten sich heran. Eine Frage stellte sich immer wieder: Wie erklärt man ein System, das so selbstverständlich klingt und doch nichts weiß?

Ein Demonstrator, der zeigt, wie ein Satz entsteht

Der Demonstrator wirkt auf den ersten Blick unscheinbar: eine Website, ein paar Icons, kurze Erklärtexte. Doch wer hinein klickt, sieht schnell, worum es wirklich geht. Die Anwendung zeigt, wie ein Sprachmodell Entscheidungen trifft. Nicht politisch oder moralisch, sondern rein statistisch. Man gibt einen Satzanfang vor, und das System erzeugt zwei Fortsetzungen: eine vorsichtig und nüchtern, die andere freier, beinahe erzählerisch. Der Unterschied entsteht nicht aus Wissen, sondern aus Wahrscheinlichkeiten. Und genau das macht der Demonstrator sichtbar.

Chemie in Klasse 7 und in Klasse 13

Der Demonstrator arbeitet wie ein Schulfach, dem man zweimal im Leben begegnet: einmal in der 7. Klasse, einmal in der 13. Der Stoff ist derselbe, nur der Blick ein anderer.

Wer nur Grundverständnis sucht, erhält klare, knappe Texte. Wer mehr will, findet tiefergehende Erklärungen etwa zur Tokenisierung oder zur Segmentierung von Wahrscheinlichkeitsräumen.

Lena blickt nicht aus der Perspektive des Codes, sondern aus der der Menschen. „Mich interessiert weniger, wie man Systeme technisch immer weiter perfektioniert“, sagt sie. „Mich interessiert, wie sie gestaltet sein müssen, damit Menschen gut mit ihnen umgehen können.“ Der Demonstrator folgt dieser Haltung: Er schafft Zugang, nicht Überforderung. Er erklärt, ohne zu missionieren. 

Die Zielgruppe ist größer als gedacht

Zunächst waren Studierende die Hauptzielgruppe – jene Generation, die KI schon selbstverständlich nutzt, ohne sie jedoch zwingend zu verstehen. Doch schnell zeigte sich: Der Bedarf ist größer.
Berufsschüler:innen, Weiterbildungsprogramme, Beschäftigte in Unternehmen, Projektverantwortliche. Sie alle treffen Entscheidungen, die von einem Grundverständnis großer Sprachmodelle profitieren.

Für Datalyxt, den Unternehmenspartner im Use Case, ist der Demonstrator zudem zu einem Werkzeug geworden: Wer einmal gesehen hat, wie sich ein Modell durch einen einzigen Parameter grundlegend verändert, versteht schneller, welche Möglichkeiten in realen Anwendungen stecken – und welche Grenzen.

Was die Evaluation gezeigt hat

Um herauszufinden, ob der Demonstrator tatsächlich wirkt, hat das ifab eine Laborstudie mit KIT-Studierenden durchgeführt. Zuerst ein Quiz: Grundlagen, Funktionsweise, Einsatzgebiete. Dann eine halbe Stunde Zeit mit dem Demonstrator. Anschließend erneut dieselben Fragen, ergänzt um ein vertiefendes Quiz zu den Hyperparametern.

Die Ergebnisse zeichnen ein zweigeteiltes Bild. Erstens: Das Verständnis der Hyperparameter stieg spürbar. Die Stellschrauben wurden nachvollziehbar, das Prinzip dahinter blieb haften. Zweitens:
Beim allgemeinen LLM-Wissen blieb vieles unsicher. Selbst Vielnutzer:innen machten grundlegende Fehler.

Ein Beispiel: die Frage, ob ChatGPT wie eine Suchmaschine nutzbar sei. Zwei Drittel antworteten mit Ja. „Genau das sollte man nicht tun“, sagt Lena. „Die Souveränität der Antworten ist kein Beleg für ihre Richtigkeit- Ein Missverständnis, das größer ist, als man denkt.“
Die Studie zeigt: Interesse ist reichlich vorhanden. Wissen dagegen weniger. Digitale Mündigkeit ist keine Selbstverständlichkeit.

Nach dem Projekt ist vor der Aufgabe

Das Projekt KARL endet im März 2026. Die Frage, wie man KI verständlich macht, endet damit nicht.
Der Demonstrator bleibt öffentlich zugänglich und kann weiter genutzt werden – in Bildung, Ausbildung und Unternehmen. Denn eines ist offensichtlich: Eine Gesellschaft, in der KI längst zum Alltag gehört, braucht Werkzeuge, die ihre Funktionsweise erklären. Das Projekt endet. Die Aufgabe bleibt.

Wer steckt hinter KARL?

KARL ist eines von aktuell 13 regionalen Kompetenzzentren und zwei wissenschaftlichen Begleitprojekten, das die Auswirkungen von Künstlicher Intelligenz (KI) auf die Lern- und Arbeitswelt untersucht. Ziel von KARL ist es, menschenzentrierte, transparente, lernförderliche und KI-unterstützte Arbeits- und Lernsysteme zu konzipieren und in konkreten Praxisanwendungen vorzeigbar zu machen.

Die Region Karlsruhe mit dem nationalen Digital Hub für angewandte KI und einem der führenden IT-Cluster in Europa bietet dafür großes Entwicklungspotenzial. Konsortialführer ist die Hochschule Karlsruhe.

Zum Projektkonsortium gehören neben neun Forschungs- und Transferpartnern auch elf regionale Unternehmen sowie das CyberForum, das eine zentrale Rolle in der Öffentlichkeitsarbeit, im Community-Management sowie im Nachhaltigkeitskonzept übernimmt.

Bis 2026 wird KARL vom Bundesministerium für Bildung und Forschung (BMBF) mit knapp zehn Millionen Euro gefördert.