Veröffentlichungen
Kann ChatGPT Lehrende an der Universität ersetzen?
In diesem Aufsatz in der Juristischen Schulung widmen sich die Wiss. Mitarbeiter Christian Braun, Sarah Großkopf und Simon A. Nonn der Frage, ob ChatGPT Lehrende an der Universität ersetzen kann – vor allem mit Blick auf die Vermittlung der juristischen Argumentationsfähigkeiten und speziell des Gutachtenstils anhand von KI-Feedback.
Die Corona-Pandemie und die damit einhergehenden immer rasanter werdenden Entwicklungen und Fortschritte im Bereich Digitalisierung haben in den letzten Jahren gezeigt, dass sich Didaktik im Hochschulbereich aktuell im Wandel befindet und dass dieser Prozess aktiv beeinflusst werden kann und sollte, um die Zukunfts- und Wettbewerbsfähigkeit der Universitäten zu erhalten. Ein großer Bestandteil dessen ist die Nutzung innovativer Technik und Tools, wie zB Künstliche Intelligenz (KI), insbesondere large language models (LLM) und natural language processing (NLP), um digitale Lehr- und Lernräume für Studierende zukünftiger Generationen zu schaffen.
Ist GPT-4 ein zuverlässiger Bewerter? Bewertung der Konsistenz der Textbewertungen von GPT-4
Diese Studie berichtet über die Intraclass-Korrelationskoeffizienten von Feedback-Bewertungen, die von OpenAIs GPT-4, einem großen Sprachmodell, über verschiedene Iterationen, Zeitrahmen und stilistische Variationen hinweg erzeugt wurden. Das Modell wurde verwendet, um Antworten auf Aufgaben im Zusammenhang mit der Makroökonomie in der Hochschulbildung auf der Grundlage ihres Inhalts und Stils zu bewerten. Es wurde eine statistische Analyse durchgeführt, um die absolute Übereinstimmung und Konsistenz der Bewertungen in allen Iterationen sowie die Korrelation zwischen den Bewertungen in Bezug auf Inhalt und Stil zu ermitteln. Die Ergebnisse zeigten eine hohe Interrater-Reliabilität mit ICC-Werten zwischen 0,94 und 0,99 für verschiedene Zeiträume, was darauf hindeutet, dass GPT-4 in der Lage ist, konsistente Bewertungen zu erstellen. Der in dieser Studie verwendete Prompt wird ebenfalls vorgestellt und erläutert.
Leistungsanalyse großer Sprachmodelle für Legal Argument Mining
In dieser Studie untersuchen wir (Abdullah Al Zubaer, Michael Granitzer und Jelena Mitrović) die Effektivität von GPT-3.5 und GPT-4 für das Argument-Mining im juristischen Bereich und konzentrieren uns dabei auf die Formulierung von Befehlen ("Prompts") und die Auswahl von Beispielen unter Verwendung von modernen Einbettungsmodellen von OpenAI und Satztransformatoren. Unsere Experimente zeigen, dass relativ kleine domänenspezifische Modelle GPT 3.5 und GPT-4 bei der Klassifizierung von Prämissen und Schlussfolgerungen übertreffen, was auf eine Lücke in der Leistung dieser Modelle bei komplexen Rechtstexten hinweist. Wir beobachten auch eine vergleichbare Leistung zwischen den beiden Einbettungsmodellen, mit einer leichten Verbesserung der Fähigkeit des lokalen Modells bei der Prompt-Auswahl. Unsere Ergebnisse deuten darauf hin, dass die Struktur von Prompts die Leistung von GPT-Modellen erheblich beeinflusst und bei der Entwicklung von Modellen berücksichtigt werden sollte.
So wird KI in der Hochschulbildung eingesetzt
In dieser Interviewreihe stellt die Bundeszentrale für politische Bildung drei vom Bundesministerium für Bildung, Wissenschaft und Forschung geförderte Projekte vor. Im Rahmen dieser Reihe durfte Veronika Hackl den Lesern das Projekt DeepWrite näherbringen.
Tagungsbericht zur Zweiten Passauer Junikonferenz
Vom 24.-26. Juni 2022 veranstaltete ELSA-Passau die zweite Junikonferenz unter dem Motto "Smart Law". Bei dieser Tagung sollte nichts Geringeres als die Zukunft der Rechtswissenschaften sowie die Digitalisierung der juristischen Berufe behandelt werden. Im anliegenden Tagungsbericht wird unter anderem das Projekt DeepWrite behandelt.