Themen für Bachelorarbeiten im WS 2025/2026


Themen für Bachelorarbeiten im WS 2025/2026

Im Folgenden finden Sie einige Themenvorschläge für Bachelorarbeiten im WS 2025/2026. Die Themen werden bis zur Vorbesprechung laufend ergänzt. Sie können bei Interesse schon vorab mit dem jeweiligen Betreuer Kontakt aufnehmen.

Konfiguration und Deployment von Digitalen Zwillingen mittels Asset Administration Shells

Mit dem Aufkommen der Industrie 4.0 wurde das Konzept der Asset Administration Shell (AAS) als digitaler Repräsentant physischer und digitaler Assets etabliert. Neben der Zustandsbeschreibung und Verwaltung von Fähigkeiten eröffnet die AAS auch Möglichkeiten zur Verwaltung von Deployment- und Konfigurationsinformationen – eine Funktion, die insbesondere bei verteilten IoT- oder Edge-Geräten mit digitalen Zwillingen von hoher Relevanz ist.

Ziel dieser Arbeit ist es, ein AAS-Submodell zu entwickeln, das Deployment-Informationen (wie z.B. Docker-Compose-Dateien, Shell-Skripte, Git-Repositories oder Parameterkonfigurationen) eines digitalen Zwillings beschreibt. Das physische bzw. digitale Gerät soll bei jedem Systemstart sowie in regelmäßigen Abständen dieses Submodell abfragen und sich selbstständig konfigurieren.

Literaturanalyse

  • Analyse bestehender Forschung zu AAS und deren Einsatz für Lifecycle-Management und Deployment
  • Untersuchung existierender Konzepte für Konfigurationsmanagement und Self-Configuration von Edge Devices
  • Erhebung von Anforderungen an Deployment-Informationen in typischen Digital-Twin-Anwendungsfällen

Praktischer Teil

  • Konzeption und Implementierung eines AAS-Submodells zur Beschreibung von Deployment-Informationen
  • Umsetzung eines leichtgewichtigen Client-Prozesses (z.B. in Python oder Bash), der das AAS regelmäßig abfragt und die Deployment-Instruktionen ausführt
  • Erprobung und Evaluation des entwickelten Systems auf einem realen Beispielsystem an der JKU (z.B. Raspberry Pi Car, Smart Device oder Roboterarm)

Betreuung: Stefan Klikovits
Status: Verfügbar

Entwicklung einer Szenarien-Datenbank für autonome Fahrzeuge

Für die Entwicklung, das Testen und die Verifikation autonomer Fahrsysteme sind reproduzierbare, vielfältige und gezielt auffindbare Szenarien von zentraler Bedeutung. Neben der Speicherung ist es daher essenziell, auch die Beziehungen zwischen einzelnen Szenarien – etwa Variantenbildung, Vererbung oder Kombination – strukturiert abzubilden und effiziente Such- und Filtermöglichkeiten bereitzustellen. Eine gut durchdachte, erweiterbare Datenstruktur sowie die Wahl einer geeigneten Speicher- und Abfragetechnologie sind entscheidend für die langfristige Nutzbarkeit und Skalierbarkeit in komplexen Simulationsumgebungen.

Ziel dieser Arbeit ist die Konzeption und Umsetzung einer Szenarien-Datenbank, die nicht nur relevante Verkehrsszenarien speichert und strukturiert verknüpft, sondern auch eine zielgerichtete Suche nach Szenarien anhand definierter Eigenschaften (z.B. Anzahl der Fahrspuren, Verkehrsdichte, Anzahl von Kurven) ermöglicht. Ein besonderer Fokus liegt auf der Modularität und Erweiterbarkeit des zugrundeliegenden Datenmodells, um zukünftige Anforderungen – wie zusätzliche Szenarioeigenschaften, neue Simulatortypen oder Domänenerweiterungen – problemlos integrieren zu können. Anschließend sollen ausgewählte Szenarien direkt über eine Simulationsschnittstelle (z.B. zu esmini) testbar gemacht werden.

Literaturanalyse

  • Analyse bestehender Ansätze zur Szenarienmodellierung und -verwaltung im Bereich autonomer Fahrzeuge
  • Untersuchung von Standards wie OpenSCENARIO, OpenDRIVE oder verwandten Formaten
  • Erhebung von Anforderungen an ein flexibles, erweiterbares und durchsuchbares Datenmodell für Szenarien und Straßenkarten

Praktischer Teil

  • Entwicklung eines modularen und erweiterbaren Domänenmodells zur Repräsentation, Kategorisierung und Verknüpfung von Verkehrsszenarien
  • Auswahl und Implementierung einer geeigneten Technologie zur Speicherung und Abfrage (z.B. relationale Datenbank mit Indexierung oder Graphdatenbank mit Attributfilterung)
  • Umsetzung einer Suchfunktion zur gezielten Auswahl von Szenarien basierend auf inhaltlichen Eigenschaften
  • Demonstration anhand realistischer und strukturiert auffindbarer Szenarien auf Basis vorhandener Simulationsdaten
  • Optional: Schnittstelle zur automatisierten Ausführung ausgewählter Szenarien in einem geeigneten Simulator (z.B. esmini)

Betreuung: Stefan Klikovits
Status: VERGEBEN

Automatisierte Analyse von Fahrszenarien

Für die Entwicklung und das Verständnis autonomer Fahrsysteme ist eine detaillierte Analyse von Szenarien essenziell. Neben der visuellen oder manuellen Betrachtung gewinnt die automatisierte Szenarioanalyse an Bedeutung, etwa zur Merkmalserkennung, Transformation oder Bewertung. Solche Analysen können z.B. helfen, strukturelle Eigenschaften eines Straßennetzwerks zu erkennen oder die Komplexität eines Szenarios zu klassifizieren.

Ziel dieser Arbeit ist die Entwicklung einer flexiblen Tool-Pipeline, mit der verschiedene Analyse- und Transformationstools auf Fahrszenarien angewendet werden können. Diese Tools sollen aus den Szenariendaten (z.B. aus OpenSCENARIO oder CommonRoad Dateien) automatisiert Merkmale extrahieren – wie etwa die Topologie des Straßennetzes, die Anzahl der Fahrspuren oder die Dichte des Verkehrs – und die Ergebnisse strukturiert abspeichern.

Literaturanalyse

  • Analyse bestehender Verfahren zur strukturierten Analyse und Feature-Extraktion in simulierten Fahrszenarien
  • Untersuchung von existierenden Szenarien und Toolsets für gängige Simulatoren wie Carla, esmini, Apollo oder Autoware
  • Anforderungen an Pipelines zur automatisierten Verarbeitung von Simulationsdaten

Praktischer Teil

  • Entwicklung einer modularen Pipeline zur Analyse und Transformation von Szenarien
  • Implementierung ausgewählter Analyse-Tools (z.B. Straßennetz-Extraktion als Graph, Feature-Klassifikation)
  • Zusammenstellung eines repräsentativen Datensatzes aus verschiedenen Simulatoren (z.B. Carla, esmini, Apollo, Autoware) zur Evaluation
  • Speicherung und strukturierte Dokumentation der Ergebnisse für Vergleichs- oder Weiterverwendungszwecke

Betreuung: Stefan Klikovits
Status: Verfügbar

Web-basierter Editor für OpenDRIVE und OpenSCENARIO

Die Entwicklung und das Testen autonomer Fahrsysteme erfordern die Erstellung komplexer Verkehrsszenarien, die typischerweise in den Standards OpenDRIVE (Straßennetzwerke) und OpenSCENARIO (dynamische Verkehrssituationen) beschrieben werden. Während spezialisierte Desktop-Editoren existieren, fehlen zugängliche, plattformunabhängige webbasierte Lösungen, die eine intuitive Visualisierung und Bearbeitung dieser Formate ermöglichen. Eine webbasierte Lösung würde nicht nur die Kollaboration erleichtern, sondern auch die Einstiegshürde für Entwickler:innen und Forscher:innen reduzieren, die keine dedizierte Software installieren möchten.

Ziel dieser Arbeit ist die Entwicklung eines webbasierten Editors, der OpenDRIVE- und OpenSCENARIO-Dateien visualisiert und editierbar macht. Der Editor soll eine grafische Darstellung des Straßennetzes sowie der darin ablaufenden Szenarien bieten und grundlegende Bearbeitungsfunktionen (z.B. Hinzufügen, Verschieben oder Löschen von Straßenelementen, Fahrzeugen oder Trajektorien) unterstützen. Ein besonderer Fokus liegt auf der Benutzerfreundlichkeit und der korrekten Interpretation der beiden XML-basierten Standardformate.

Literaturanalyse

  • Analyse der OpenDRIVE- und OpenSCENARIO-Standards sowie deren Datenmodelle und Beziehungen
  • Untersuchung existierender Editoren und Visualisierungstools für autonome Fahrszenarien (z.B. esmini, CARLA, AutoWare)
  • Erhebung von Anforderungen an webbasierte grafische Editoren für strukturierte Datenformate
  • Analyse geeigneter Webtechnologien und Frameworks für 2D/3D-Visualisierung (z.B. Three.js, Canvas API, WebGL)

Praktischer Teil

  • Konzeption und Implementierung eines webbasierten Editors mit folgenden Kernfunktionen:
    • Parser für OpenDRIVE- und OpenSCENARIO-XML-Dateien
    • Grafische 2D- oder 3D-Visualisierung von Straßennetzen und Verkehrsszenarien
    • Interaktive Bearbeitungsfunktionen (z.B. Bearbeiten von Straßenabschnitten, Fahrzeugen, Trajektorien)
    • Export der modifizierten Dateien im jeweiligen Standardformat
  • Entwicklung einer benutzerfreundlichen Oberfläche mit Fokus auf Usability
  • Validation der generierten Dateien gegen die jeweiligen XML-Schemata
  • Demonstration anhand repräsentativer Beispielszenarien
  • Optional: Integration einer Vorschaufunktion zur Simulation der erstellten Szenarien (z.B. via esmini-Integration)

Betreuung: Stefan Klikovits
Status:
Verfügbar

Automatisierte Identifikation sicherer Library Alternativen

Software Bill of Materials (SBOMs) gewinnen zunehmend an Bedeutung für die Nachvollziehbarkeit und Sicherheit von Softwarekomponenten, insbesondere im Zuge regulatorischer Vorgaben wie dem Cyber Resilience Act (CRA). SBOMs ermöglichen durch standardisierte Beschreibungen (z.B. im CycloneDX- oder SPDX-Format) die genaue Auflistung aller im System verwendeten Komponenten inklusive Version, Quelle, Konfiguration und Lizenz.

Ziel dieser Arbeit ist es, auf Basis einer gegebenen SBOM mögliche Alternativen für jede gelistete Komponente automatisch zu identifizieren, die weniger oder keine bekannte Sicherheitslücken aufweisen, kompatible Lizenzen besitzen und funktional vergleichbar sind. Dadurch soll ein erster Schritt in Richtung automatischer Resilienz und Austauschbarkeit von Softwarearchitekturen geschaffen werden.

Literaturanalyse

  • Analyse bestehender SBOM-Standards (CycloneDX, SPDX) und deren Datenmodelle
  • Untersuchung von Ansätzen zur Schwachstellenbewertung anhand öffentlich zugänglicher Datenquellen (z.B. NVD, CVE, OSV.dev, CVSS)
  • Analyse von Plattformen und Tools zur Komponentenverwaltung und -vergleich (z.B. Libraries.io, Deps.dev, ClearlyDefined)
  • Überblick über bestehende Lizenzklassen und -einschränkungen (z.B. MIT, Apache, GPL) sowie Tools zur Lizenzprüfung

Praktischer Teil

  • Entwicklung eines Tools, das aus einer gegebenen SBOM (CycloneDX/SPDX) die enthaltenen Komponenten extrahiert
  • Abfrage geeigneter Plattformen zur Identifikation potenzieller Alternativen (z.B. via Libraries.io oder deps.dev API)
  • Implementierung von Filtermechanismen zur Bewertung der Alternativen nach:
    • Sicherheitsstatus (CVE-Freiheit, CVSS-Score)
    • Lizenztyp (vergleichbare oder freizügigere Lizenzen)
    • Beliebtheit und Community-Aktivität (Downloads, Maintenance)
    • Funktionale Ähnlichkeit (z.B. Package-Kategorie, Dependency-Struktur)
  • Zusammenstellung und Visualisierung der Alternativen mit Bewertung
  • Optionale Erweiterung: Export einer neuen „empfohlenen SBOM“ auf Basis der Alternativen

Demonstration:

Die entwickelte Lösung soll exemplarisch auf reale oder synthetische SBOMs angewendet und evaluiert werden (z.B. durch gezielte Auswahl verwundbarer Komponenten mit vorhandenen Alternativen).

Betreuung: Stefan Klikovits
Status: Verfügbar

 

Software Engineering mit KI-Agenten

Der rasante Fortschritt in der KI-basierten Agententechnologie wird wesentliche Auswirkungen auf die Art und Weise haben, wie wir in Zukunft Software entwickeln. In einem sehr realistischen Szenario werden Softwareentwickler in Zukunft gemeinsam mit KI-Agenten Aufgaben in der Softwareentwicklung übernehmen. Ziel der Arbeit ist es, typische Muster für die KI-Agentenentwicklung zu recherchieren und für ausgewählte Software Engineering Aufgaben ein KI-Agentensystem prototypisch zu implementieren.

Literaturanalyse

  • Software Engineering 3.0 (agentenbasiertes Software Engineering)
  • Patterns für KI-Agentenentwicklung (in der Softwareentwicklung)
  • Sammlung von best-practices und Fallbeispielen für agentenbasiertes Software Engineering

Praktischer Teil

  • Auswahl von einem oder zwei typischen Software Engineering Aufgaben, für die eine agentenbasierte Unterstützung entwickelt werden soll. Beispiele dafür könnten sein:
    • Basierend auf einem Commit in GIT: automatische Prüfung der Qualität von Unit-Tests sowie Generierung/Erweiterung von Unit-Tests und KI-gestützte Verbesserung der Unit-Tests
    • Automatische Generierung und Verbesserung der (Java-)API-Dokumentation
    • Automatische Behebung ausgewählter SonarQube-Smells/-Bugs und automatische Qualitätsprüfung
  • Realisierung des Agentensystems unter Verwendung von https://n8n.io mit entsprechender Integration in unser Gitlab-System. Etwaige Kosten für die Nutzung von KI-Diensten, etc. werden vom Institut getragen.

Betreuung: Reinhold Plösch
Status: VERGEBEN

 

Automatische Dokumentation von ABAP Code mit GenAI Systemen

Die Programmiersprache ABAP spielt für die Realisierung von ERP-Systemen eine große Rolle. Die Dokumentation von ABAP-Code wird oft vernachlässigt, was dazu führt, dass keine oder nur eine veraltete Dokumentation zur Verfügung steht, was negative Auswirkungen auf die Wartbarkeit und Evolvierbarkeit von Software hat.

Ziel dieser Arbeit ist es herauszufinden, wie gut GenAI Systeme in der Lage sind ABAP Code so zu verstehen, dass gute und sinnvolle Dokumentation erzeugt werden kann.

Literaturanalyse

  • Dokumentation von Source-Code mit GenAI-Systemen – idealerweise mit Fokus auf ABAP
  • Agentenbasierte-Systeme für die Dokumentation von Source Code – idealerweise mit Fokus auf ABAP
  • Dokumentations-Best-Practices für ABAP Code

Praktischer Teil

  • Durchführen eines Experimentes zur Dokumentation von ABAB Code. Fokus des Experimentes ergibt sich aus der Literatur. Hier zwei mögliche Experimente:
    • Generierung von Dokumentation mit unterschiedlichen GenAI Systemen und quantitative (ROUGE, BLEU, Reading Indizes) und qualitative Analyse der generierten Dokumentation
    • Generierung und Verbesserung der Dokumentation auf Basis eines Agentensystems (samt Realisierung des Agentensystems)
    • Ganz allgemein, könnte man auch das Design eines Experimentes aus der Literatur nehmen und eine Replikationsstudio mit ABAP machen – so es Literatur mit guten Experimenten in diesem Bereich gibt.

Betreuung: Reinhold Plösch
Anmerkung: Diese Arbeit kann nur von Studierenden bearbeitet werden, die Erfahrung mit ABAP haben. Etwaige Kosten für die Nutzung von KI-Diensten, etc. werden vom Institut getragen.
Status
: VERGEBEN

Agentenbasiertes Qualitätsmodellmanagement

Qualitätsmodelle spielen eine wichtige Rolle bei der Sicherstellung der Qualität in Softwareprojekten. Standards wie ISO 25010 bzw. Ansätze für Qualitätsmodelle wie Quamoco sind etabliert in der Industrie. Eines der Hauptprobleme ist die systematische Wartung der Qualitätsmodelle. Bei der Wartung sind typischerweise folgende Tätigkeiten durchzuführen: (1) Hinzufügen, Ändern und Löschen von Qualitätsattributen und (2) Hinzufügen und Ändern von Metriken von Messwerkzeugen zu den richtigen Qualitätsattributen.

Ziel dieser Arbeit ist es herauszufinden, wie gut KI-basierte Agentensysteme in der Lage sind, bei den Wartungsaufgaben von Qualitätsmodellen zu unterstützen.

Literaturanalyse

  • Wartung von Qualitätsmodellen mit KI-Systemen mit Fokus auf Agentensysteme
  • Patterns für KI-Agentenentwicklung für Klassifikationsprobleme
  • Best-Practices für die Kategorisierung von Metriken

Praktischer Teil

Prototypische Entwicklung eines Agentensystems auf Basis von https://n8n.io, das beispielhaft folgende Wartungsaktivitäten unterstützt (Etwaige Kosten für die Nutzung von KI-Diensten, etc. werden vom Institut getragen):

    • Automatisches Hinzufügen von neuen Metriken zu einem Qualitätsmodell
    • Verbesserung der Beschreibung von Qualitätsattributen
    • Beurteilung der Vollständigkeit der Metriken für ein Qualitätsattribut
    • Beurteilung der korrekten Zuordnung von Metriken zu einem Qualitätsattribut und ggfs. Zuordnung zu  einem anderen Qualitätsattribut

Der Prototyp soll auch zeigen, dass die Wartung des Qualitätsmodells automatisch erfolgt:

    • wenn beispielsweise eine neue Metrik verfügbar ist, soll diese automatisch zugeordnet werden
    • wenn beispielsweise die Beschreibung zu einem Qualitätsattribut geändert wird, soll automatisch geprüft werden, ob die Metriken noch passend sind oder besser anderen Qualitätsattributen zugeordnet wird.

Betreuung: Reinhold Plösch
Status: VERGEBEN

 

Benchmarking von Software Requirements Prompts

INCOSE stellt sog. writing guidelines für Software Requirements zur Verfügung. Für diese 40+ writing guidelines wurde im Rahmen einer Masterarbeit untersucht, wie gut deren Einhaltung von ChatGPT sichergestellt werden kann. Im Zuge dieser Arbeit hat sich u.a. gezeigt, dass das recht gut möglich ist und dass es je nach writing guideline unterschiedliche Prompts verwendet werden müssen.

Ziel der Arbeit ist es ein vollautomatisches Benchmarking-System zu entwickeln, das es erlaubt, die Performance unterschiedlicher GenAI Systeme bei der Beurteilung der Qualität von Requirements mit Hilfe der INCOSE writing guidelines zu messen.

Literaturanalyse

  • Benchmarking von GenAI Systemen
  • Metriken für das Benchmarking von Requirements (F1, BLEU, ROUGE, readability indices, …)
  • KI-basierte Beurteilung der Einhaltung von INCOSE writing guidelines

Praktischer Teil

  • Entwicklung eines vollautomatischen Benchmark-Systems für die INCOSE writing guidelines unter Verwendung von https://chainforge.ai/. Etwaige Kosten für die Nutzung von KI-Diensten, etc. werden vom Institut getragen
  • Gegebenenfalls Entwicklung von Vorschlägen für die Visualisierung der Ergebnisdaten
  • Systematischer Vergleich der Ergebnisse für unterschiedliche GenAI Systeme

Betreuung: Reinhold Plösch
Status: VERGEBEN

 

SlideAId – Automatische Erzeugung von Vortragsvideos

Im Lehrbetrieb an Universitäten wird es immer wichtiger, den Studierenden Videoinhalte (auf Basis von Powerpoint-Präsentationen) zur Verfügung zu stellen.

Ziel der Arbeit ist die Entwicklung eines Python-basierten Services, das Vortragende bei der AI-basierten Erzeugung von Präsentationsvideos unterstützt. Gleichzeitig soll die Eignung, Robustheit und Qualität von Text-To-Speech (TTS) Angeboten verglichen werden.

Literaturanalyse

  • Vergleich von TTS Systemen in Bezug auf Leistungsfähigkeit, Natürlichkeit des generierten Audio, Kosten, API-Qualität, etc. für englische und deutsche Texte.
  • Vergleich von Lösungsalternativen für die TTS-Erzeugung für Powerpoint Präsentationen. Dabei sind sowohl Windows-spezifische als auch plattformunabhängige Lösungen zu untersuchen.

Praktischer Teil

  • Entwicklung eines Python-basierten Services (z.B. auf Basis von Flask), das Vortragende bei der AI-basierten Erzeugung von Präsentationsvideos unterstützt. Als Basis stehen eine Reihe von Python-Skripts für die Extraktion von Notitzen aus Powerpoint-Folien, für die Generierung von Audio mit Hilfe von OpenAI und für die Integration des generierten Audio in Powerpoint zur Verfügung.

Betreuung: Reinhold Plösch
Status: VERGEBEN

 

SustainScrum for Jira: Forge-Plugin zur Operationalisierung nachhaltiger Scrum-Praktiken

Der SustainScrum-Prozess integriert Nachhaltigkeitsaspekte systematisch in Scrum-Aktivitäten. Kernelemente sind Sustainability Stories, die Sustainability Management Matrix (SuMM) mit gewichteten SusAF-Dimensionen, sprintbegleitende Bewertungen und KPI-Berechnungen aus denen Reports generiert werden können. Ziel des Prozesses ist es, Nachhaltigkeit für Teams direkt im agilen Alltag messbar und nachvollziehbar zu machen.

Ziel der Arbeit ist es, ein Jira-Forge-Plugin zu entwickeln, das SustainScrum in Jira Cloud umsetzt: Konfiguration der SuMM, Abbildung von Sustainability Stories, automatisierte KPI-Berechnung, Workflow-Validatoren (z. B. Done nur bei erfüllten Green-Kriterien) sowie ein Projekt-Dashboard mit KPI-Reports und Trends sowie Trade-Off Analysen.

Literaturanalyse

  • Nachhaltigkeit in der (agilen) Softwareentwicklung
  • SustainScrum-Prozessmodell 
  • Atlassian Forge/Jira Cloud REST API, Workflow-Validatoren
  • Atlassian Design System/Atlaskit für UI-Design

Praktischer Teil

  • Entwicklung eines Forge-Plugins für Jira Cloud
  • SuMM-Konfiguration & Sustainability-Story-Mapping
  • SusAF-Assessment-Wizard mit automatischer KPI-Berechnung 
  • Workflow-Validatoren (z. B. Green DoD) und Projekt-Dashboard mit KPI-Trends
  • Evaluation in einer Test-Jira-Instanz mit Beispielprojekt

Betreuung: Iris Groher
Status: Verfügbar

 

Tool zur Extraktion und Analyse von Programmierlösungen aus Lernplattformen

In der Programmierausbildung entstehen durch wiederholte Abgaben von Programmieraufgaben auf Plattformen wie Artemis oder Moodle CodeRunner umfangreiche Daten über Lernprozesse. Diese Daten enthalten wertvolle Informationen über den Entwicklungsverlauf von Studierendenlösungen, z. B. wie sich Programme zwischen einzelnen Abgaben verändern oder wie viele Versuche benötigt werden, bis eine Aufgabe korrekt gelöst ist. Derzeit liegen diese Informationen jedoch meist nur in Form von Rohdaten oder in proprietären Formaten vor und können daher nur schwer analysiert oder weiterverarbeitet werden.

Ziel der Arbeit ist es, ein Tool zu entwickeln, das solche Lösungsversionen (Snapshots) automatisiert aus Lernplattformen extrahiert, aufbereitet und in einem strukturierten Format abspeichert. Darüber hinaus soll das Tool Unterschiede (Diffs) zwischen einzelnen Versionen berechnen, um spätere Analysen – etwa zu Lernverhalten, Fehlertypen oder Code-Entwicklung – zu ermöglichen. Der entwickelte Prototyp soll modular aufgebaut sein, sodass künftig Anbindungen an weitere Systeme ergänzt werden können.

Literaturanalyse

  • Learning Analytics und Educational Data Mining in der Programmierausbildung
  • Code-Evolution und Lernverhalten in Programmierkursen
  • Datenformate, Schnittstellen und APIs von Lernplattformen (Artemis, Moodle CodeRunner)
  • Werkzeuge und Methoden zur Analyse von Code-Diffs

Praktischer Teil

  • Analyse der verfügbaren Datenquellen und Schnittstellen (Artemis- und Moodle-Exportformate)
  • Entwicklung eines Prototyps zur Extraktion und Speicherung von Studierendenlösungen
  • Implementierung einer Komponente zur automatischen Generierung und Speicherung von Diffs zwischen Versionen
  • Design eines strukturierten Datenformats für spätere Analysen 
  • (Optional) Prototypische Analyse der Daten
  • Demonstration anhand realer Beispieldatensätze aus Programmierkursen

Betreuung: Iris Groher
Status: Verfügbar

 

LLM-gestütztes Tool für Kompetenzzuordnung von Programmieraufgaben

In der Programmierausbildung ist es wichtig, Aufgaben klar mit entsprechenden Kompetenzen aus einem Kompetenzmodell zu verknüpfen. Diese Zuordnung erfolgt derzeit meist manuell und ist zeitaufwändig und erfordert Detailwissen über die jeweiligen Aufgaben und Inhalte. Moderne LLMs können hier unterstützen, indem sie aus Aufgabenbeschreibung und Musterlösung automatisch eine Kompetenzzuordnung vorschlagen und somit den Aufwand signifikant reduzieren.

Ziel der Arbeit ist es, ein Tool zu entwickeln, das auf Basis von Aufgabenbeschreibung und Musterlösung mittels eines LLM Vorschläge für Kompetenzzuordnungen generiert. Ein Human-in-the-Loop (Lehrende:r) kann die Vorschläge im Tool überprüfen, anpassen oder freigeben.

Literaturanalyse

  • Kompetenzmodelle in der Informatik (z. B. ACM CS2023, DigCompEdu, institutsinterne Modelle)
  • Ansätze zur automatisierten Aufgabenklassifikation (NLP, LLM-basierte Ansätze)
  • Human-in-the-Loop-Verfahren für AI-Systeme in der Lehre

Praktischer Teil

  • Implementierung eines Prototyps 
  • LLM-gestützte Generierung von Kompetenzvorschlägen zu einer Aufgabenbeschreibung und der entsprechenden Musterlösung aus einem vorgegebenen Kompetenzmodell
  • Oberfläche für Lehrende zur Prüfung, Anpassung und Freigabe der Vorschläge
  • Speicherung der finalen Kompetenzzuordnung in einer Datenbank 
  • Erste Evaluation an Beispielaufgaben aus Einführungsprogrammierkursen

Betreuung: Iris Groher
Status: VERGEBEN

 

Dashboard zur Fehler- und Kompetenzanalyse in Programmierkursen

In der Programmierausbildung treten bei Studierenden häufig wiederkehrende Fehlermuster auf (z.B. fehlerhafte Schleifen, falsche Indizierung, unklare Funktionsdefinitionen, etc.). Lehrende erhalten diese Informationen bisher nur in Form von Rohdaten aus den Abgabesystemen, die dann ausgewertet werden müssen. Dies erschwert nicht nur das Auffinden solcher Muster, sondern auch die gezielte Unterstützung der Studierenden. Ein Dashboard, das diese Daten systematisch aufbereitet, kann Lehrenden und Studierenden wertvolle Einblicke in den Lernfortschritt geben.

Ziel der Arbeit ist es, ein Dashboard zu entwickeln, das auf Basis von eingereichten Studierendenlösungen typische Fehlermuster und -kategorien, sowie den Stand erreichter Kompetenzen sichtbar macht. Lehrende erhalten eine aggregierte Übersicht über die häufigsten Fehler und die erreichten Kompetenzen in der gesamten Gruppe; Studierende sehen ein personalisiertes Feedback mit ihren individuellen Fehlerprofilen und bereits erreichten Kompetenzen.

Literaturanalyse

  • Typische Fehlermuster in der Programmierausbildung (Syntaxfehler, Logikfehler, Konzeptfehler)
  • Kompetenzmodelle für Programmieren (z. B. Variablen, Schleifen, Funktionen, Datenstrukturen)
  • Learning Analytics und Visualisierung

Praktischer Teil

  • Entwicklung einer Datenpipeline zur Analyse von Studierendenlösungen 
  • Mapping von erkannten Fehlern und Lösungsmustern auf vordefinierte Kompetenzen
  • Implementierung eines Dashboards mit zwei Sichten:
    • Lehrendenansicht: Häufigste Fehlerkategorien, Kompetenzübersicht pro Kurs, Trends
    • Studierendenansicht: Individuelle Fehleranalyse, bereits erreichte Kompetenzen, Empfehlungen
  • Evaluation anhand von Beispieldatensätzen aus Programmierkursen

Betreuung: Iris Groher
Status: VERGEBEN

 

Evaluierung und prototypische Umsetzung einer webbasierten Lernplattform für Python-Einführungskurse

Webbasierte Lernplattformen wie DataCamp oder Codecademy ermöglichen Studierenden, Programmierkonzepte direkt im Browser zu erlernen und zu üben. Diese Tools kombinieren Tutorials, interaktive Übungen sowie automatisiertes Feedback und Self-Assesments für meist relativ abgegrenzte Themenbereiche und Problemstellungen. Im Rahmen dieser Arbeit soll untersucht werden, wie solche Plattformen für einen universitären Einführungskurs in Python nutzbar sind. Dazu werden ausgewählte Plattformen systematisch verglichen und für ein zentrales Thema (z. B. Schleifen oder Collections) ein eigenes Modul umgesetzt.

Ziel der Arbeit ist es, die Stärken und Schwächen gängiger Plattformen zu analysieren und ein Pilotmodul für einen Einführungskurs aufzusetzen, das als Grundlage für eine mögliche Integration in die Lehre dienen kann.

Literaturanalyse

  • Didaktische Ansätze interaktiver Programmierplattformen (z. B. immediate feedback, gamification, adaptive learning)
  • Vergleich bestehender Plattformen (DataCamp, Codecademy, JetBrains Academy, …)
  • Best Practices für den Einsatz in Hochschulkursen

Praktischer Teil

  • Kriterienkatalog entwickeln 
  • Systematische Gegenüberstellung ausgewählter Plattformen anhand dieses Katalogs
  • Entwicklung eines eigenen Moduls (z. B. zu Schleifen oder Collections) auf einer gewählten Plattform
  • Evaluation durch Pilot mit Studierenden im aktuellen Wintersemester

Betreuung: Iris Groher
Status: VERGEBEN

Themen für Bachelorarbeiten im WS 2025/2026