Prof. Dr. Doris Nitsche-Ruhland ist seit 2023 Vizepräsidentin für Lehre und Qualitätsmanagement der Dualen Hochschulen in Baden-Württemberg (DHBW). Die Informatikerin beschäftigt sich seit 40 Jahren mit dem Thema Künstliche Intelligenz. Wie steht sie - und wie steht die Institution DHBW - der Nutzung von KI gegenüber? Überwiegen die Chancen oder die Risiken? Wie prüft man überhaupt noch die Leistung von Studierenden, die KI benutzen? Ein Gespräch:
Wie würden Sie die grundsätzliche Haltung an der DHBW gegenüber dem Thema KI charakterisieren? Ist das etwas, wo Sie sagen, endlich ist es so weit, oder ist es eine heikle Sache?
Wir stehen dem offen gegenüber. KI-Kompetenzen, gerade auch im eigenen Berufsfeld, anwenden zu können, ist eine Kernkompetenz für die Zukunft. Da kommen wir gar nicht mehr drum herum. Als Informatikerin begleitet mich das Thema seit über 40 Jahren. Aber: KI ist mächtig und es braucht einen verantwortungsvollen Umgang mit ihr. Man muss wissen, was dahintersteht und wie man sie anwenden kann.
Soll man sie denn anwenden?
Ja, es ist ein Werkzeug, das einem viel erleichtern kann, und wir wollen natürlich als Hochschule diese Kompetenzen auch vermitteln. In der Lehre, natürlich, und zwar passend zum Berufsbild, aber auch intern in der Verwaltung. Dabei muss man natürlich immer die ethischen und rechtlichen Grenzen beachten. Aber es sind Kompetenzen, die man für die Zukunft braucht, denn KI wird die Arbeitswelt revolutionieren. Das muss uns einfach klar sein. Ohne KI-Kompetenzen kommt man nicht mehr weiter. Wir brauchen sie, dagegen kann man sich auch nicht wehren.
Ist KI schon voll in den Studiengängen und im Hochschulalltag angekommen?
Für die Informatik und für die Wirtschaftsinformatik ist das schon lange Alltag, klar. Einige andere Fachbereiche haben auch schon vor zwei, drei Jahren – bezogen auf ihr Fachgebiet – angefangen, diese Werkzeuge für sich einzusetzen. Zum Beispiel in Digital Commerce Management ist das schon länger Thema. Wir haben auch einen neuen Studiengang, Data Science, da wird sogar ein Schwerpunkt darauf gelegt. Ganz generell beinhalten viele unserer Studienangebote das Thema KI. Das wird sich sicherlich in den kommenden Jahren auch noch verstärken.

Würden Sie sagen, dass die DHBW da schon weiter ist als die Betriebe, in denen die Studierenden beschäftigt sind?
Sehr unterschiedlich. Es gibt Betriebe, in denen die KI bereits stark verankert ist, zum Beispiel beim Softwareentwickler SAP. Bei den dualen Partnern im Sozialwesen dürfte das anders sein. Und was den Einsatz von KI in der Hochschulverwaltung angeht, haben wir, wie viele öffentliche Verwaltungen, noch Aufholbedarf. Da sind wir noch in der Evaluation. Was passt zu uns, was braucht man, was können wir hier sinnvoll einsetzen?
Kommen wir auf den Alltag der Studierenden zu sprechen. Mal ganz provokant gefragt: Ist die klassische Hausarbeit tot? Weil im Prinzip haben Dozenten doch kaum eine Möglichkeit zu überprüfen, was von der KI stammt und was die eigene Leistung des Studierenden ist?
Ja, in der klassischen Hausarbeit ist es schwierig. Aber das ist es nicht erst, seit es KI gibt. Wenn die Arbeit früher jemand anders für einen geschrieben hat, konnte man das auch nicht verifizieren.
Und wie begegnen Sie dem?
Es braucht zukünftig eine Verteidigung der Arbeiten, zum Beispiel mündlich. Es ist nichts dagegen einzuwenden, KI als Hilfsmittel zu verwenden. Ich muss aber wissen, worüber ich schreibe, und ich muss es erläutern können. Wenn jemand seine Arbeit komplett von KI hat schreiben lassen und dazu keine Fragen beantworten kann, dann hat man über die Prüfungsordnung natürlich Sanktionsmaßnahmen. Aber es ist nicht einfach, den Einsatz von KI zu beweisen. Ähnlich, wie es früher auch schwierig war herauszufinden, ob jemand abgeschrieben hat. Zumindest, wenn er schlau genug war, kreativ zu paraphrasieren und nicht wortwörtlich. Die gute wissenschaftliche Arbeit und die Redlichkeit - diese Prinzipien gelten nach wie vor. Und deshalb wird es fürs Prüfungswesen große Änderungen geben. Zudem ist für jede Arbeit eine Selbstständigkeitserklärung zu unterzeichnen, mit der der Prüfling die Eigenständigkeit seiner Leistung bestätigt.
Halten Sie es für vorstellbar, dass man künftig neben dem Literaturverzeichnis für eine solche Arbeit auch ein Verzeichnis der verwendeten Prompts abgeben muss? Um offenzulegen, welchen Anteil die KI geleistet hat?
Ja, das wird jetzt zum Teil schon gemacht. Aber das kann und muss der Prüfer jeweils selbst bestimmen. Schwierig wird es, nachzuvollziehen, welche Quellen die KI wiederum verwendet, oder wenn sie halluziniert und etwas erfindet.
Die Problematik ist ja auch, dass die KI auf ein und dieselbe Frage an zwei unterschiedlichen Tagen auch unterschiedliche Antworten geben kann.
Ja, absolut. Und ich glaube, das ist ein großer Fallstrick, auch für Studierende. Aber auch für alle anderen Menschen, die im Umgang mit KI davon ausgehen, dass das, was die KI liefert, wirklich und immer stimmt. Und dieses Bewusstsein – oder auch das Bewusstsein, wie kommt es überhaupt dazu, dass die KI diese und jene Aussagen macht – das ist die Schwierigkeit im Umgang mit ihr. Dieses gesunde Maß an Misstrauen muss man lernen. Man sagt ja immer, man sollte sich besser auskennen als die KI und nur das fragen, worin man sich gut auskennt. Aber das macht man ja nicht, oder? (lacht)

Werden mündliche Prüfungen künftig mehr Stellenwert bekommen?
Vor dem Hintergrund, dass man Kompetenzen abprüfen will, müssen wir aufpassen, dass wir nicht dahin zurückverfallen, alles wieder mit Klausuren zu prüfen, denn in Klausuren kann man nicht alle Kompetenzen abprüfen. Man kann aber, wie gesagt, Hausarbeiten und Bachelorarbeiten wunderbar kombinieren mit einer mündlichen Prüfung. Das wird sicher einen größeren Stellenwert bekommen. Und die Kompetenz zu vermitteln, wie man KI in seinen Arbeiten adäquat einsetzt, um Aufwände zu reduzieren. Das ist eine Kernkompetenz in der Zukunft, die brauchen wir auf alle Fälle.
Wie erleben Sie die Studierenden im Umgang mit der KI? Benutzen die das ganz selbstverständlich und unkritisch? Verlassen die sich voll und ganz auf die KI?
Es wird benutzt, klar. Meine große Sorge ist ehrlicherweise aber nicht, dass die KI zu selbstständig wird. Meine große Sorge gilt eher dem Menschen, der sie verwendet. Wer kann heute noch eine Straßenkarte lesen? Verlässt man sich nicht eher voll auf sein Navigationssystem? Bei mir ist es deswegen eher die Furcht davor, dass der Mensch seinen gesunden Menschenverstand und seine Kritikfähigkeit ablegt und sich komplett auf die diversen Hilfsprogramme verlässt. Und das sollte man natürlich nicht. Wobei, und das muss ich einschränken, es KI-Systeme gibt, die gerade in technischen Systemen höchste Zuverlässigkeit haben. Wenn dann Fehler passieren, hat es meist eine menschliche Ursache.
Gibt es in Studiengängen wie Data Science, wo viel mit KI gearbeitet wird, eigene Kurse, in denen die Studierenden sich Gedanken machen über die Themen Bias, Halluzination, Ethik, Genderfragen oder Rassismus – alles Themenfelder, die für die KI problematisch sind?
Ja, gibt es. Das Thema ist in den Studiengängen verankert. Ohne geht's auch nicht. Und zwar sowohl für die Entwickler als auch für die Anwender.
Glauben Sie, dass die KI bald im großen Stil Berufe wegrationalisieren wird, oder werden die Menschen nur anders eingesetzt, um beispielsweise die KI richtig zu benutzen?
Manche Berufe werden sicher überflüssig. Einfaches Beispiel: Protokollantinnen in großen Sitzungen. Das machen einige Firmen jetzt schon vollautomatisiert. Also ja, es werden Berufe wegfallen, wie bei allen neuen Technologien. Aber es werden auch viele neue entstehen und neue Kompetenzen benötigt.
Haben Sie ein Beispiel?
Zum Beispiel im Bereich Data Science. Hier nimmt uns die KI viele Dinge ab, die bisher Menschen machen. Aber, und das ist ein großes Aber: Daten liegen in der unterschiedlichsten Form vor. Sie sind eben nicht so einfach vergleichbar und analysierbar. Man muss nach Auffälligkeiten schauen. Der Mensch muss immer noch erkennen: Passt da was oder passt da was nicht? Außerdem die Frage: Wie gehe ich mit den Daten um? Was frage ich die Daten überhaupt, damit ich das herausbekomme, was ich brauche? Daten werden die Welt beherrschen, aber es wird immer den Menschen brauchen, der die Richtung vorgibt.
Zur Person
Prof. Dr. Doris Nitsche-Ruhland ist Informatikerin, studierte in Stuttgart und Uppsala (Schweden) und war bis zur Übernahme des Vizepräsidentenamtes in den Fachbereichen Software Engineering, Agile Prozesse, Informatik Grundlagen, Mensch-Computer-Systeme, Wissensbasierte Systeme und Natürlichsprachliche Systeme in der Lehre tätig.
Seit 2016 war sie nebenamtliches Präsidiumsmitglied der DHBW, im Mai 2023 wurde sie zur Vizepräsidentin für Lehre und Qualitätsmanagement der Dualen Hochschulen Baden-Württemberg gewählt.
Mit dem Thema künstliche Intelligenz beschäftigt sie sich seit Beginn ihrer Laufbahn in verschiedensten fachlichen Zusammenhängen.
Ist die DHBW im Vorteil gegenüber der Ausbildung an Universitäten in Sachen KI, weil sie praxisnäher arbeiten können?
Jein. Die Uni hat ihren Schwerpunkt auf der Forschung, wohingegen unsere Studierenden sicherlich mehr Praxisbezug haben. Aber es hängt eben auch stark vom dualen Partnerunternehmen ab. In Firmen, die viel KI nutzen, kommen unsere Studierenden natürlich super fit aus ihrem Studium und das ist auch ein Erfolgsrezept unseres dualen Studiums: die hohe Employability.
Wenn man so in die Welt schaut, sind die KI-Hotspots in Kalifornien und in China. Europa fällt da bisher nicht wahnsinnig auf, Deutschland schon gar nicht. Wie sehen Sie es vom Standort her? Müssen wir massiv investieren oder haben wir genug schlaue Köpfe, nur die brauchen eben noch ein bisschen?
Nein. Wir müssen dringend investieren, sonst werden wir abgehängt. Wenn ich die Industrie anschaue und sehe, wie sie sich entwickelt, dann muss ich sagen, da müssten wir schon noch ordentlich aufholen. Dabei kann uns unsere, für Deutschland ja auch ein bisschen typische Wissenschafts- oder Technikkritik gegenüber Neuem helfen, sachlich und überlegt zu bleiben und nicht gleich alles vorschnell hochzujubeln. Aber die Welt wird sich weiterdrehen mit KI.
Und das geht schneller, als man denkt?
Ja. Mich erstaunt – und manchmal auch erschreckt – die Geschwindigkeit, mit der die Entwicklungen vorangehen. Wenn Sie zum Beispiel schauen, wie KI neue Stoffe erfinden kann – auch Kampfmittel – oder künstliche Intelligenz in der Kriegsführung eingesetzt wird. Das sind Themen, vor denen ich unheimlich viel Respekt habe, und die – wie alles – zum Vorteil verwendet werden können, aber eben auch zum Nachteil. Deshalb wünsche ich mir, dass der Mensch immer seinen gesunden Menschenverstand beibehält und sich nicht komplett und ohne kritisch zu prüfen von KI leiten lässt. Das ist in Sachen KI, wenn man so will, meine größte Sorge: der Mensch.
Die wichtigsten KI-Begriffe einfach erklärt
Generative KI
Generative KI-Modelle sind Programme, die auf Basis von vorhandenen Daten neue Inhalte erstellen können – etwa Texte, Bilder, Musik oder sogar Videos. Sie lernen aus großen Datenmengen Muster und Strukturen und erzeugen daraus neue Inhalte, die dem Gelernten ähneln.
Prompt
Ein Prompt ist die Eingabe, die man einer KI gibt, also zum Beispiel eine Frage oder Anweisung. Wie gut die Antwort der KI ist, hängt maßgeblich davon ab, wie klug der Prompt formuliert wurde.
LLM
LLM steht für Large Language Model, also ein großes Sprachmodell. Diese Modelle wurden mit enormen Mengen an Text trainiert, um natürliche Sprache zu verstehen und selbst zu erzeugen.
Halluzination
Halluzinationen bei KI beziehen sich auf KI-generierte Inhalte, die zwar realistisch erscheinen, aber von den vorgegebenen Quelleninputs abweichen. Man spricht von fehlender Übereinstimmung (faithfulness) oder mangelnder faktischer Richtigkeit (factualness). Kurz: Die KI erfindet plausible, aber unwahre Sachverhalte.
Bias
Bias (engl. für Voreingenommenheit) bezeichnet systematische Diskriminierung in KI-Systemen, die vorhandene menschliche Voreingenommenheit begünstigen und Diskriminierung, Vorurteile und Stereotypisierung verstärken kann (z.B. Rassismus, Geschlechterungerechtigkeit, Diskriminierung von Minderheiten). Die Ursache dafür liegt in den Daten, die zum Anlernen der KI verwendet wurden.
Quellen: RWTH Aachen, Fraunhofer-Institut, SAP, Uni Paderborn