KI in der Vorlesung: Wie verändert sie unser Lernen? | AI EXPLAINED
Shownotes
Wie gut versteht Künstliche Intelligenz eigentlich unsere Sprache – und was bedeutet das für Bildung und Lernen? Zwischen technischen Möglichkeiten und menschlicher Kommunikation entsteht ein neues Spannungsfeld, das unseren Alltag zunehmend prägt.
In dieser Folge sprechen wir mit Prof. Dr. Jan Niehues vom Karlsruher Institut für Technologie über die Sprache als zentrales Bindeglied zwischen Mensch und Maschine, über die Chancen und Grenzen von KI-gestützter Lehre und darüber, warum überzeugend formulierte Antworten nicht immer zuverlässig sein müssen. Wir schauen außerdem auf Anwendungen wie den Lecture Translator und den Lecture Assistant, die zeigen, wie KI Barrieren abbauen und Lernumgebungen inklusiver gestalten kann.
Zwischen digitalem Fortschritt und Verantwortung gegenüber Lernenden diskutieren wir, wie viel Vertrauen KI verdient, wo sie uns unterstützen kann – und warum der menschliche Blick auf Sprache weiterhin unverzichtbar bleibt. Ein Blick auf die Zukunft der Bildung im Zeitalter intelligenter Systeme.
Links & Quellen:
News 1: Diskussion um mögliche Werbung bei ChatGPT
News 2: Überschalltriebwerk soll Energie für KI-Rechenzentren liefern
Link zum Female Excellence Award: https://www.arrti.kit.edu/female-excellence-award.php
Tipp der Woche: LMArena: https://lmarena.ai/
Kontakt:
Gast: Prof. Dr. Jan Niehues I LinkedIn
Moderation: Anja Hartwich | LinkedIn
Anregungen & Feedback: podcast@telekom.de
Transkript anzeigen
00:00:00: Deswegen sollte man ja die KI eher nicht wie ein Lehrer ansehen, sondern nicht sagen, sondern eher wie ein Mitsch Studenten, der vielleicht auch noch was falsch verstanden hat.
00:00:09: Und dann sollte man eher das kritisch überprüfen.
00:00:19: Herzlich willkommen zurück zu einer neuen Folge von Explained, dem KI-Podcast der Deutschen Telekom.
00:00:26: Wir freuen uns sehr, dass ihr den Weg zu unserem Podcast gefunden habt.
00:00:29: Und bevor wir uns in eine Winterpause verabschieden, möchten wir heute über etwas sprechen, das uns alle betrifft.
00:00:35: Und worauf das Format eines Podcasts im Grunde auch aufbaut, nämlich das Thema Sprache.
00:00:41: Und Sprache begleitet uns durchs ganze Leben.
00:00:44: Sie hilft uns zu lernen, miteinander ins Gespräch zu kommen und die Welt ein Stück besser zu verstehen.
00:00:49: Und gleichzeitig verändert sich unser Umgang mit Sprache gerade rasant, weil künstliche Intelligenz eben immer öfter eine Rolle spielt.
00:00:56: Besonders im Bereich der Bildung sorgt das für neue Chancen, aber auch für viele kritische Fragen.
00:01:02: Wie gut versteht KI eigentlich die Vielfalt unserer Sprache?
00:01:05: Wie verlässlich sind die Antworten?
00:01:07: Und was bedeutet das für Lernende und Lehrende?
00:01:10: Und genau darüber wollen wir heute sprechen.
00:01:13: Nach unseren KI-News der Woche.
00:01:14: Wie immer eingesprochen von unseren KI-Stimmen.
00:01:17: Mein Name ist Anja Hartwig und Redaktionsschluss für diese Ausgabe war Donnerstag, der elfte Dezember, twenty-fünfundzwanzig.
00:01:30: OpenAI sorgt für Diskussionen.
00:01:33: Nachdem in ChatGPT sogenannte Partnervorschläge aufgetaucht sind, die viele Nutzerinnen und Nutzer als Werbung wahrgenommen haben.
00:01:41: OpenAI betont jedoch dass es sich nicht um Werbeanzeigen handelt und aktuell keine entsprechenden Tests laufen.
00:01:48: Dennoch bleibt offen, ob kommerzielle Inhalte künftig eine größere Rolle in ChatGPT spielen könnten.
00:01:55: Boom!
00:01:56: Super Sonic!
00:01:57: Ein Unternehmen, das eigentlich Überschallflugzeuge entwickelt, nutzt sein Triebwerksdesign nun für KI-Rechenzentren.
00:02:04: Die modifizierte Turbine soll als Gaskraftwerk dienen und Generatoren für den wachsenden Energiebedarf großer KI-Serverfarmen antreiben.
00:02:13: Ein einzelnes Aggregat kann laut Unternehmen jährlich bis zu zwei Gigawattstunden Strom erzeugen.
00:02:28: Wir wollen in unserer heutigen Explain-Folge gemeinsam darauf schauen, wie KI-Modelle überhaupt Sprache lernen, warum sie oftmals so überzeugend klingen und gleichzeitig aber auch Fehler machen und welche Rolle solche Systeme in der digitalen Bildung schon heute aber eben auch künftig spielen könnten.
00:02:44: Und um all das besser einordnen zu können, freue ich mich heute einen Gast bei uns begrüßen zu dürfen, der genau dort forscht, wo Sprache und KI sozusagen aufeinandertreffen.
00:02:52: Prof.
00:02:53: Dr.
00:02:53: Jan Niehus ist vom Karlsruher Institut für Technologie, auch bekannt unter dem Kürzel KIT und er leitet dort den Bereich Künstliche Intelligenz für Sprachtechnologien und beschäftigt sich in seiner Forschungsarbeit mit maschineller Übersetzung, automatischer Spracherkennung und System, die mit Menschen kommunizieren können.
00:03:12: Ja, Herr Nihus, ich freue mich sehr, dass Sie heute bei uns sind.
00:03:14: Ganz herzliches Willkommen.
00:03:16: Ja, vielen Dank für die Einladung.
00:03:18: Ich bin auch gespannt aufs Gespräch.
00:03:21: Dann lassen wir uns gerne mal starten, aber bevor wir sag ich mal, darauf zu sprechen kommen, was im Umgang mit KI vielleicht schon gut funktioniert oder wo?
00:03:30: man auch an die Grenzen noch stößt, würde ich ganz gerne mit Ihnen einmal ein paar grundlegende Fragen erst mal klären, um zu verstehen, wie solche Systeme überhaupt arbeiten.
00:03:39: Daher vielleicht erst mal die Frage, ob Sie mir und unseren Zuhörerinnen und Zuhörern zu beginnen, ja, vielleicht in einfachen Worten mal erklären könnten, wie ein KI-Modell Sprache lernt.
00:03:51: Ja,
00:03:51: also das erste Wichtigste ist vielleicht, dass man ihn nicht explizit irgendwie sagt.
00:03:57: Wenn das als Eingabe kommt, dann macht eben wie das, sondern das Interessante beim maschinellen Lernen allgemein ist erst mal, dass wir ganz viele Beispiele geben und wir dann Algorithmen haben, die automatisch daraus lernen, wie man aus einer Eingabe dann auch darauf reagieren soll und eine Ausgabe generiert.
00:04:16: Der große Fortschritt, den wir jetzt gesehen haben bei großen Sprachmodellen ist, dass es häufig schwierig ist, viele dieser Beispiele zu generieren und viele dieser Daten zu generieren, aus denen man lernt.
00:04:27: Und was ich da gezeigt hat, ist, dass was jetzt unter dem Big Test selbst überwacht ist oder selbst überweis-learning gemeint ist.
00:04:35: dass man sich künstliche Aufgaben ausdenkt, mit denen man sehr viel lernen kann.
00:04:40: Und eine Aufgabe ist da besonders interessant, und das ist das nächste Wort vorherzusagen.
00:04:45: Das Schöne ist, dieses Spiel kann man auf jedem Text generieren.
00:04:49: Man kann immer versuchen, was für das nächste Wort im Text sein, vorherzusagen.
00:04:54: Es gibt dafür ganz viele Daten.
00:04:56: Andererseits braucht der Mensch sehr viel Wissen, um eine gute Abschätzung zu haben, was denn das nächste Wort wäre.
00:05:04: Und sie hatten gerade gesagt, dass es schwierig oder sich als schwierig herausstellte, eben solche Beispiele zu generieren oder zu finden.
00:05:12: Worin besteht denn aus ihrer Sicht diese Schwierigkeit?
00:05:14: Schwierig
00:05:15: war vielleicht der falsche Ausdruck.
00:05:17: Also der Ausdruck ist sehr, sehr zeitaufwendig.
00:05:19: Und da sind die Modelle gerade eigentlich noch sehr schlecht sonst.
00:05:23: Sie brauchen sehr, sehr viele da.
00:05:25: Sie haben ja momentan gesehen, dass ich arbeite seit langem an der maschinellen Übersetzung.
00:05:29: Da geht es sogar noch relativ gut.
00:05:31: Aber selbst da ist es teilweise schwierig.
00:05:33: Was man dann braucht, ist zum Beispiel immer ein Satz in deutschen und ein Satz im Englischen.
00:05:37: Und dann kann man daraus versuchen zu lernen.
00:05:40: Dann kann man natürlich Daten sammeln.
00:05:42: Wir haben das zum Beispiel im Europäischen Parlament.
00:05:44: Das ist ein großer Korkus.
00:05:46: Aber typischerweise hat man dafür natürlich viel weniger Daten, als es jetzt einfach Texte im Internet gibt.
00:05:52: Und für andere Aufgaben, wenn ich jetzt einen Chatbalt entwickeln will, dann ist es vielleicht schwierig.
00:05:58: ganz viele Beispielkonversationen zu sammeln.
00:06:01: Und das Interessante ist, dass man so halt einfach lernen kann, mit Text und Tee durch das Internet einfach auf viel Bösen.
00:06:08: Und ich meine, wenn man jetzt so an menschliche Sprache denkt, dann denke ich direkt an unterschiedliche Akzente, an Ironien, die man vielleicht auch mit Sprache irgendwie vermitteln möchte.
00:06:19: Ist das tatsächlich eine Herausforderung?
00:06:22: Aus jedem Fall sind zum Beispiel die Adekte auch schwierig.
00:06:26: Da es ist teilweise ein bisschen anders, als bei Menschen vielleicht.
00:06:29: typischerweise treten die Schwierigkeiten auch, wenn es nicht genug Daten gibt.
00:06:33: Also, weil Dialekten ist jetzt nur so, die meisten Daten, Audios, die im Internet verfügbar sind, sind irgendwie vielleicht auf Hofdeutsch.
00:06:40: Man hat jetzt so nicht weniger Daten in Dialekten.
00:06:43: Und dieses Thema funktionieren eigentlich immer so, dass sie besser sind, je mehr Daten wir da haben.
00:06:48: Das heißt, tendenziell ist es schon so, aber es gibt natürlich vielleicht auch Ausnahmen, also zum Beispiel Für Englisch ist es fraglich, ob Internet eigentlich das beiste Muttersprachlich ist oder nicht.
00:06:59: die meisten englischen Daten im Internet mit gewissen Akzenten deutschen oder so dabei sind.
00:07:04: Und dann ist es halt teilweise so, dass es sogar besser klappt, wenn es auch diesen Akzent hat.
00:07:09: Typische Häuser sind halt.
00:07:11: diese Systeme funktionieren besser, je ähnlicher die eigentlich Aufgabe ist.
00:07:14: Es ist vielleicht sogar eher auch, ich meine, für Menschen ist es teilweise auch einfacher, wenn wir daran gebühnt sind, können wir es auch besser in Englisch mit einem starken deutschen Akzent.
00:07:24: Wenn wir hin gegen andere Akzente ran, dann wird es vielleicht teilweise schwierig.
00:07:28: Das stimmt.
00:07:29: Und ich meine, also diejenigen, die ich sage mal regelmäßig mit KI arbeiten und da schließe ich mich mal mit ein, haben wahrscheinlich schon häufiger erlebt, dass eine Antwort auch ziemlich überzeugend klingen kann.
00:07:40: Und erst, wenn man genauer hinschaut, dass man einfach merkt, dass da irgendwas nicht stimmen kann.
00:07:46: Und ich habe das vor allem im Umgang mit Zahlen erlebt.
00:07:50: Daher würde ich auch gerne mit Ihnen darüber ein bisschen sprechen, was dahinter steckt.
00:07:53: Also warum kommt es vor, dass KI Antworten falsch oder ungenau sind und trotzdem aber so sicher formuliert sind?
00:08:01: Also wie gesagt, ein wichtiges Prozess beim Training, weil diese Vorjahrsagen des nächsten Wortes und genauso funktioniert eigentlich auch die Antwort-Generierung.
00:08:09: Wir sagen immer, was das wahrscheinlichste nächste Wort ist.
00:08:12: Dadurch, weil wir auch sehr viel Daten trainiert haben, können wir typischerweise sehr flüssige Texte generieren, weil sie sich einfach erst mal gut anhören.
00:08:20: Das ist das, was typischerweise auch in den Trainingsdaten vorkommt.
00:08:24: Und es gibt vielleicht nicht, wo ist ja so ein... bei?
00:08:28: es beim Menschen gibt, wenn es flüssig ist, dann ist es eher auch richtig.
00:08:32: Und wenn man, wenn es sich eher die Häufeliges Deutsch ist, dann sind wir dem eher kritisch.
00:08:36: Das haben wir da typischerweise nicht.
00:08:38: Bei Zahlen hingegen ist ein Problem, dass in diesen Modellen auch Zahlen als einfache Tokens oder Strings bearbeitet werden.
00:08:48: Und jetzt hohe Zahlen, zum Beispiel hat man vielleicht selten gesehen, weil nicht so häufig vorkommen.
00:08:52: Er hat nicht ein richtiges Verständnis, was die Zahl denn jetzt in ihrer Einzelteile bedeutet.
00:08:57: Und dann haben wir wieder etwas aus selten gesehen wurde und deswegen nicht so gut modelliert.
00:09:03: Sie beschäftigen sich ja viel damit, wie man Sprachsysteme auch bewertet und lässt sich das tatsächlich.
00:09:10: Also, oder wie lässt sich das genau testen, ob ein Modell zuverlässig ist?
00:09:14: Also zum Beispiel in der Übersetzung oder in der Spracherkennung?
00:09:16: Ja, also
00:09:17: ich würde sagen, dass eine der größten Schwierigkeiten bei Sprachübersetzungssystemen und allgemeinsten Systemen die natürliche Sprache arbeiten, weil es daher nicht die eine korrekte Antwort gibt.
00:09:28: Und deswegen ist eigentlich die Forschung an der Evolution der Systeme fast genauso alt wie die Forschung an den Systemen selber.
00:09:36: Man kann natürlich versuchen, das jetzt wieder mit User Studies und menschlicher Evaluation zu machen.
00:09:42: Das Problem ist, dass das Ganze natürlich nicht unbedingt immer skaliert und wir dann das sehr aufwendig ist.
00:09:48: Deswegen gibt es auch viel Forschung.
00:09:49: Dazu kann man das automatisch evaluieren.
00:09:53: Das Feld ist gerade ein sehr breites und großes Forschungsgebiet, auch das Benchmarking,
00:09:58: was
00:09:59: natürlich auch dazu führt, dass viele Sachen vielleicht nicht immer optimal gelöst werden.
00:10:04: Das heißt, es ist einfach schwierig festzustellen, erst mal, ob eine Antwort richtig oder falsch ist.
00:10:09: Dann kommt das zweite Sinn zu.
00:10:11: Typischerweise, was man macht, ist, man nimmt sich irgendwie Daten, kann ja das gleiche vorher sagen.
00:10:16: Bei großen Sprachmodellen, die auf der ganzen Internet getrainiert wurden, wird es teilweise schwierig, Daten zu finden, die es noch nicht gesehen hat.
00:10:22: Und wir können häufig gar nicht mehr sicherstellen, dass wir wirklich neue Daten nehmen.
00:10:26: Weil wir natürlich die Systeme genauso evaluieren wollen, die ist bei Testen von Menschen auch mal, wir wollen in die neue Daten gehen und gucken, ob sie einen Transferien bekommen auf neue Daten.
00:10:36: Nur zu evaluieren auf Sachen, die man bereits kennt, ist nicht wirklich hilfsbreit.
00:10:42: Und das macht es gerade schwieriger bei diesen neuen Pavatigma, wo man halt nicht mehr ein festes Datenmengat auf den Moment trainiert, sondern bei den Modellen, die einfach auf allen Daten trainiert werden, die irgendwie zur Verfügung stehen.
00:10:56: Was ich ganz oft irgendwie erlebe und was mir auch tatsächlich auf Social Media öfter mal angezeigt wird, ist, wie man die KI auch dahin bekommt, dass man wirklich sicher geht, dass der Inhalt an sich stimmt.
00:11:08: Also Zahlen, Daten, Fakten sage ich mal, die da auch vermittelt werden.
00:11:13: Also ich weiß nicht, gibt es da irgendwie einfache Tricks, die jeder oder jeder mal selbst anwenden kann, um einzuschätzen, wie verlässlich eine KI-Antwort ist?
00:11:21: Also ein Beispiel, was ich gesehen habe, ist, die KI zu fragen, bist du dir hundertprozentig sicher, dass die Antwort jetzt korrekt ist?
00:11:28: Also gibt es da Tipps und Tricks, wie man die KI austricksen kann?
00:11:33: So einfach würde ich sagen, jetzt weiß es nicht, weil ich meine, die KI sind teilweise auch dazu trainiert worden.
00:11:40: ... dem Benutzer immer zuzustimmen, das heißt, wenn man ihn sagt, ist es nicht falsch, dann wird er ganz schnell sagen, ja, das ist falsch, weil er einfach da drin auf Daten trainiert wurde, freundlicher zu sein.
00:11:52: Ich meine, es ist so ein bisschen so wie auch hier sonst gegen anderen Meinungen allgemein, wir sollten alles kritisch prüfen und das ist hier halt ... eigentlich nochmal wichtiger.
00:12:02: Das heißt, man sieht es ja inzwischen schon häufiger, dass KI's vielleicht auch an Referenzen angeht.
00:12:07: Das ist natürlich aufwendig, aber dann bei wichtigen Fakten ist es natürlich schon sinnvoll, die ganzen auch zu überprüfen.
00:12:14: Deswegen sollte man ja die KI eher nicht wie ein Lehrer ansehen, sondern ich sage es immer eher wie vielleicht ein Mitstudenten, der kann vielleicht auch noch was falsch verstanden haben und dann sollte man eher das kritisch überprüfen.
00:12:25: Ich stimme aber zu, das geht mir genauso und es ist eine große Schwierigkeit dabei, dass Wir einfach die Vorstellungen haben, wenn das sich alles so gut anrührt, dann bitte schon stimmen.
00:12:36: Und das stimmt halt nicht immer, wenn wir jetzt die Keris arbeiten.
00:12:41: Ja, definitiv.
00:12:42: Also ich meine, das kritische Denken ist, denke ich mal, insbesondere im Bereich der Bildung etwas.
00:12:48: Also ja, der Bildungsbereich ist ja auch etwas, was einen verantwortungsvollen Einsatz und Vertrauen auch voraussetzt.
00:12:55: Daher stellt sich für mich die Frage, also wenn wir ein KI im Bildungsbereich denken und wenn wir darüber nachdenken, dass KI eben auch manchmal einfach daneben liegt, wie können denn Lernende und auch Lehrende trotzdem sinnvoll mit ihr arbeiten?
00:13:12: verschiedene Bereiche, wie man es machen kann.
00:13:15: Wir haben es hier am KIT zum Beispiel schon gemacht, in dem wir Vorlesungen transkribieren und übersetzen.
00:13:21: Wenn ich sie transkribiere, kann ich sie einfacher durchsuchen, dann kann ich vielleicht direkt dahin springen, um mir das nochmal anzugucken.
00:13:27: Bei der Übersetzung habe ich es gleich in anderen Sparungsaufregungen.
00:13:30: Wenn ich dann zum Beispiel eine Frage zu einer Vorlesung frage, dann will ich vielleicht, kriege ich natürlich eine Antwort, aber das Wichtigere ist vielleicht, dass ich zu der Stelle in der Vorlesung springe, wo ich mir dann nochmal die Vollesungsfolien angucken kann.
00:13:44: Das heißt, da geht es auch wieder darum, dass ich den Antworten musste, einfach für Trauer habe, ich kann vielleicht schneller Sachen finden.
00:13:51: Und das sind anders dargestellt haben, dass vielleicht mehr denen spricht, wie ich es habe.
00:13:55: Das heißt, ich kriege viele persönlichere... zugeschnittener Erfahrung der Lernmaterial.
00:14:01: Bei der Telekom haben wir den Leitlinien für den Umgang mit KI definiert und also um Beispiel zu nennen, daran heißt es zum Beispiel, dass am Ende letztlich immer der Mensch in der Verantwortung bleibt.
00:14:13: Was würden Sie dann sagen, braucht es aus Ihrer Sicht, ich sag mal irgendwie Voraussetzung oder tatsächlich irgendwie Art Bedingungen, Leitlinien, damit Sprach KI auch in der Bildung verlässlich, transparent und fair eingesetzt wird?
00:14:25: Natürlich muss man sich mit allen neuen Techniken dann anschauen, wie das Ganze am besten eingesetzt wird und dafür auch Einschränkungen.
00:14:33: Also im KIT haben wir uns überlegt, wie dürfen Studenten-JPT erst mal in der Prüfung und für Prüfungen und so weiter auch benutzen, weil das war vielleicht das erste Mal der der der größte Schwierigkeit.
00:14:45: Und andererseits halte ich es jetzt auch nicht für sinnvoll zu sagen, KI kann gar nicht benutzt werden, weil Wir werden sie in der Zukunft weiter benutzen und wir sollen Studierende ja auch dabei vorbereiten, erfolgreich später zu sein.
00:14:58: Und da ist es ein wichtiger Punkt, dass sie gerade in Informatik zum Beispiel ist, ist es heutzutage halt schon häufig so, dass man gemeinsam mit der KI irgendwie implementiert und die auch benutzt.
00:15:09: Die meisten meiner Doktoranden schreiben die Code nicht mehr komplett alleine, aber sie lassen sich dabei von der KI helfen.
00:15:16: Aber das Wichtige ist natürlich, wie schon erwähnt wurde, die End.
00:15:21: Verantwortung trägt natürlich der Mensch und das ist auch wichtig.
00:15:25: Deswegen ist es halt umso wichtiger, das Ganze kritisch zu hinterfragen und sich das genau anzugucken.
00:15:32: Und die Aufgabe wird dadurch nicht unbedingt einfacher, als sie ohne Kali fahre.
00:15:37: Absolut.
00:15:38: Und Sie hatten eben schon eine Anwendung am KIT genannt, die Sie bereits zum Einsatz haben.
00:15:44: Also Sie haben ja einige tolle Beispiele wie KI-Nerbildung jetzt heute schon helfen kann.
00:15:49: Und wenn wir beim Thema Übersetzen bleiben, Sie haben ja den sogenannten Lecture Translator bei Ihnen am KIT im Einsatz.
00:15:56: Können Sie einmal erklären, was genau der Lecture Translator ist und wie er Studierende in Ihrem Alltag unterstützt?
00:16:06: Langeheirnkeite entwickelte im Einsatz schon bevor ich überhaupt hierhin gekommen bin und er erlaubt es halt, dass Vorlesungen entweder live oder in Nabineien automatisch transkribiert werden, automatisch dann übersetzt werden in verschiedene Sprachen, dass auch Tourerum dargestellt wird, dass man sieht über welche Themen wurde gesprochen und dass man auch Fragen zur Vorlesung stellen kann, unter praktisch entweder direkt die Antworten sieht oder auch dann zudem Teil der Vorlesung bringt, woher genau das beantwortet wird.
00:16:39: Wir haben zwar immer mehr Vorlesung, die auf Englisch gehalten werden, aber es gibt auch noch einige, die auf Deutsch gehalten werden.
00:16:44: Und da kannst du z.B.
00:16:46: deine Hilfreichsein für Studierende, die gerade erst in Deutschland sind, das als Hilfestellern zu bekommen.
00:16:50: Ich meine, es sind ja auch unterschiedliche Informationskanäle, die auch synchronisiert werden müssen, also gesprochener Textfolien, Grafiken, die vielleicht gezeigt werden, Formeln.
00:16:59: Was in dem Kontext auch für mich super spannend war, es gibt nicht nur den Lecture-Translator, sondern es gibt auch den Lecture-Assistent, der bei Ihnen am KIT schon im Einsatz ist und der blinde und sehbehinderte Studierende beim Lernen unterstützt.
00:17:14: Können Sie hier einmal... erklären, wie das System dahinter genau funktioniert.
00:17:19: Das ist hauptsächlich eine Arbeit von einer Doktorandin.
00:17:22: Da ging es als direkt, dass sie Gespräche geführt hat, auch mit den Studierenden und sich angeschaut hat, wie können wir sie unterstützen.
00:17:30: Und dann findet erst mal auch eine Transkription statt, aber sie guckt sich auch die Folien an und hat Vorschläge gemalt, können wir irgendwie automatisch feststellen.
00:17:39: welche Inhalte vielleicht auf der Folie sind, aber nicht gesagt wurde, weil dies vielleicht die Inhalte sind, die jetzt gerade besonders hilfreich und noch erklärt werden sollen.
00:17:48: Wie können wir akustische Signale geben, wenn der Folie gewechselt wird, damit der Studierende dann bei ist, okay, jetzt wird vielleicht etwas anderes dargestellt.
00:17:56: Das heißt, da gibt es sowohl im KDI, aber auch um die Schnittstelle zwischen Menschen und Maschine, um dann halt praktisch eine möglichst gute Erfahrung für den Studierenden zu erreichen.
00:18:08: Und gerade durch die neuen KI-Modelle, die vielleicht auch mehrere Modalitäten gleichzeitig behandeln können, gibt es da einfach auch neue Möglichkeiten, um solche Sachen zu entwickeln.
00:18:20: Und wie ist so das erste Feedback von den Studierenden?
00:18:23: Also wie wird das angenommen?
00:18:24: Also direkt bei sie eingeschreckten Studierenden war das schon positiv.
00:18:29: Aber das ist teilweise gar nicht so einfach, da die Testpersonen zu bekommen.
00:18:35: Das sind wir auch noch auf der Suche.
00:18:36: Also wenn sie interessiert waren, können sie mich gerne kontaktieren.
00:18:40: Aber bisher war das auf jeden Fall ein sehr positives Feedback.
00:18:44: Ja, und weil wir jetzt auch gerade über fairen Zugang oder für alle sprechen.
00:18:51: Am KIT wird jedes Jahr in Kooperation mit der Deutschen Telekom ja auch da viel mehr Excellence Award vergeben, der junge Forscherin ja auszeichnet, die besonders innovative wissenschaftliche Beiträge leisten, häufig eben genau zu solchen gesellschaftsrelevanten Themen und eine der ausgezeichneten Arbeiten beschäftigt sich mit sogenannten Diversity-Personen.
00:19:13: Also Ja, der Idee, unterschiedliche Perspektiven und Vielfalt bewusst in Lernangebote auch einzubeziehen und dadurch auch Verzerrungen zu reduzieren, so aus ihrer fachlichen Perspektive.
00:19:24: Wie bewerten Sie so einen Ansatz?
00:19:26: Ja, ich finde es einfach wieder sehr interessant, dass man... Ich meine, ursprünglich ist es sehr einfach eine Technologie wie large language models, was man für interessante Anwendungen damit entwickeln kann.
00:19:37: Also ich glaube, die meisten Leute, die sich ursprünglich vielleicht mit der Technik beschäftigt haben, haben mir auf die Idee gekommen, dass man so etwas damit machen kann.
00:19:45: Und ich glaube, es stellt daher auch schön dar, was überhaupt die Möglichkeiten sind und dass wir wahrscheinlich viele dieser Möglichkeiten noch gar nicht entdeckt haben, dass zum Beispiel jetzt dadurch die Möglichkeit haben irgendwie wenigstens mal zu simulieren, weil gerade für so Simulationen ist es glaube ich sehr hilfreich, wie man aus verschiedenen Blickwinkeln da raufblicken kann.
00:20:08: Das ist vielleicht auch ein guter Punkt, ich meine am Anfang haben wir über Halluzinationen gesprochen.
00:20:13: Das ist ein Newscase, wo man sagt, okay, da kann es vorkommen, aber das ist jetzt ja nicht super kritisch.
00:20:18: Dann muss ich halt feststellen, okay, diese Situation war nicht so gut oder nicht so hilfreich.
00:20:23: Aber ich kann überhaupt erst mal die Möglichkeit, irgendwie neue Eigenplätze darauf zu kriegen.
00:20:29: Und deswegen finde ich so was eigentlich sehr interessant, dass man ein Tool hat, das... Auf jeden Fall würde ich sagen, wo das jetzt nicht die erste Einsetzung war, wo man gesehen hat, okay, man kann damit noch viel mehr Sachen machen als ursprünglich.
00:20:42: Ja, weil wir auch zu Beginn ja auch von den Testdaten gesprochen haben, also eben auch Testfälle zu definieren und auch zu berücksichtigen, die ich sage mal auch Menschen oder Gruppen berücksichtigen, die eben sonst unter dem Radar bleiben, also super wichtige Arbeit.
00:20:59: Also vielleicht abschließend noch mal eine Frage, wenn Sie einmal ganz persönlich für sich so nach vorne schauen.
00:21:05: Was glauben Sie, wie wird sich unser Umgang mit Sprache verändern, wenn KI-Systeme immer besser darin werden, um uns zu verstehen und auch um Antworten zu geben?
00:21:16: Ich muss zugeben, das wird immer schwieriger für mich.
00:21:18: Ich denke dann immer so ein bisschen zurück, was wir vor fünf Jahren und vor schon Jahren gab es keinen Chef, die PC und wir hätten alle, glaube ich, Selbst wir, die in dem Bereich gefordert haben, haben nie gedacht, dass es so schnell und so weit kommt.
00:21:32: Deswegen ist das immer relativ schwierig.
00:21:35: Ich glaube aber, dass der Einsatz auf jeden Fall noch deutlich weitergeht.
00:21:40: Und das Schwierige ist, glaube ich eher, dass wir uns irgendwie anschauen müssen, wie können wir das Beste integrieren.
00:21:46: Denn wenn man vorhin gesagt hat, man kann fleiß daran erkennen, wie viel Zeit produziert wurde, das ist heutzutage kein direktes Maß mehr, wenn man das relativ einfach machen kann.
00:21:57: Das heißt, ja, ich glaube, die schwierigste Aufgabe, die können wirklich effizienter und interessant in der Diskussion führen und diese tools hilfreich benutzen und nicht irgendwie nur um mehr Text zu produzieren.
00:22:10: Denn ich glaube, alle merken auch schon, dass sie super hilfreich sind.
00:22:15: Nachfrage, man kann deutlich schneller teilweise Antworten finden.
00:22:20: Man kann teilweise Sachen noch besser darstellen oder klarer formulieren, als man das jetzt auf jeden Fall auf den schnellsten Blick selber hinkriegt.
00:22:29: Natürlich ist es immer so, dass es vielleicht Experten gibt, die viele Sachen noch besser können.
00:22:34: Aber es ist halt schon sehr überraschend, auf welchen Niveau das teilweise schon ist.
00:22:39: Und ich glaube, das ist schon eine Chance.
00:22:41: viele Sachen, äh ja, welche Zentren und vielleicht uns dann hoffentlich, dass immer meine Aufmerksamkeit, dass wir uns auf die, die interessanten Sachen konzentrieren können und die Sachen, die vielleicht nicht so interessant sein, automatisieren können.
00:22:55: Ja, absolut.
00:22:55: Also ich glaube, da werden sich einige Aufgaben, die wir bisher machen, die routiniert sind, auch nochmal ganz anders verändern.
00:23:01: Und ja, wie Sie schon sagten, wenn man irgendwie zurückblickt vor fünf Jahren, wo wir da standen, wo wir heute stehen, also es ist schon echt der absolute Wahnsinn.
00:23:09: Und Wir sind gespannt, was uns die nächsten fünf Jahre erwarten wird.
00:23:13: Herr Nius, in dem Sinne ganz, ganz lieben Dank für Ihre Zeit hier bei uns im Podcast zu sein und ja auch persönliche Einblicke in Ihre Arbeit zu geben.
00:23:21: und ganz, ganz lieben Dank.
00:23:23: Vielen Dank für Ihre Einblicke.
00:23:24: Bevor wir heute zum Ende kommen, haben wir wie immer noch einen kleinen KI-Tooltip für euch.
00:23:34: Wenn ihr Lust habt, ein wenig mit KI zu experimentieren, dann schaut mal bei LM Arena vorbei.
00:23:39: Dort könnt ihr verschiedene Sprachmodelle direkt gegeneinander antreten lassen und vergleichen, wie unterschiedlich sie auf gleiche Fragen reagieren.
00:23:48: Und das ist eben super spannend, gerade wenn man ein Gefühl dafür bekommen möchte, wie KI-Modelle funktionieren und wo ihre Unterschiede und Schwächen liegen.
00:23:56: Den Link findet ihr in den Show Notes dieser Folge.
00:23:59: Und damit sind wir am Ende dieser Folge und auch am Ende unseres Podcast-Jahres angekommen.
00:24:04: Ja, wie eingangs schon erwähnt, machen wir jetzt eine Winterpause und wünschen euch eine richtig schöne und erholsame Weihnachtszeit, ruhige Feiertage und natürlich einen guten Start ins neue Jahr.
00:24:16: Ganz lieben Dank fürs Zuhören und bis bald bei Xplained, dem KI-Podcast der Deutschen Telekom.