Professur für Technology-Enhanced Learning
print


Navigationspfad


Inhaltsbereich

Abschlussarbeiten

Sie sind an einem Thema für eine Abschlussarbeit oder Zulassungsarbeit interessiert, die im Zusammenhang mit unseren Forschungsgebieten Bildungstechnologie, E-Assessment oder Didaktik der Informatik steht?

Wir sind auch immer Ihren eigenen Vorschlägen, Ideen und Beiträgen aufgeschlossen - zögern Sie nicht, uns zu kontaktieren, wenn Sie daran interessiert sind, eine Bachelor-, Master- oder Zulassungsarbeit in einem unserer Forschungsgebiete zu schreiben.

Sie können Ihre Abschlussarbeit sowohl in deutscher als auch in englischer Sprache verfassen.

Offene Themen

Im Folgenden finden Sie eine Auswahl an Themenvorschlägen für Bachelor-Abschlussarbeiten im Bereich Bildungstechnologie, E-Assessment oder Didaktik der Informatik.

  • Qualitätsfragen an die KI – Nutzungsmuster von LLMs im Programmierkontext
    Diese Arbeit könnte untersuchen, wie Studierende ChatGPT und andere Large Language Models (LLMs) nutzen, um ihre eigenen Programmierlösungen im Hinblick auf Codequalität zu verbessern. Im Zentrum stünden dabei Fragen wie: In welchen Situationen wird AI um Hilfe gebeten? Welche Formulierungen wählen Studierende in ihren Prompts? Welche Art von Rückmeldungen erhalten sie und wie bewerten sie deren Nützlichkeit und Qualität? Je nach methodischem Ansatz könnte die Arbeit auf einer qualitativen Analyse von Prompt-Antwort-Paaren, einer Tagebuchstudie oder einer Nutzer:innenbefragung basieren. Ziel wäre es, Einblicke in realistische Nutzungsmuster und das Vertrauen in KI-gestütztes Feedback zu gewinnen mit Relevanz für die Gestaltung von Lehrangeboten und Toolunterstützung im Programmierunterricht.
    Quality Questions for the AI – Usage Patterns of LLMs in the Programming Context
    This thesis could explore how students use ChatGPT and other large language models (LLMs) to improve the quality of their programming solutions. Central questions might include: In what situations do students seek help from AI? How do they phrase their prompts? What kind of feedback do they receive, and how do they evaluate its usefulness and quality? Depending on the chosen methodology, the study could be based on a qualitative analysis of prompt–response pairs, a diary study, or user interviews. The goal would be to gain insights into realistic usage patterns and the level of trust students place in AI-generated feedback to provide implications for the design of teaching strategies and tool support in programming education.
    Ansprechpartnerin: Sigrid Klinger
  • Untersuchung zur automatisierten Generierung von Reflexionsfragen zur Codequalität mit LLMs
    Diese Arbeit könnte untersuchen, wie sich große Sprachmodelle (LLMs) wie GPT oder LLama dazu einsetzen lassen, gezielte Fragen zur Codequalität zu generieren. Insbesondere solche, die Studierende zur Reflexion über eigene Lösungen anregen sollen. Auch bei automatisiert detektierbaren Problemen (z. B. über PMD oder andere statische Analysetools) könnten LLMs verwendet werden, um statt klassischem Feedback verständnisfördernde Rückfragen zu formulieren. Die Arbeit könnte zudem einen kleinen Prototypen realisieren, um die Qualität, Korrektheit und Rechenzeit verschiedener Prompt-Varianten (z. B. Zero-/Few-shot) systematisch zu vergleichen. Ziel wäre es, erste Aussagen über die Praxistauglichkeit solcher Systeme im E-Assessment-Kontext zu ermöglichen.
    Investigation into Using LLMs to Generate Reflective Questions About Code Quality
    This thesis could explore how large language models (LLMs) such as GPT or LLama can be used to generate targeted questions about code quality—especially questions designed to foster reflection on one's own or others' code. The approach might include scenarios where static analysis tools (e.g. PMD) detect issues automatically, and LLMs are then used to phrase these findings as reflective prompts rather than direct feedback. A prototype could be developed to evaluate the accuracy, runtime performance, and quality of generated questions under different prompting strategies (e.g. zero-shot vs. few-shot). The goal would be to assess the practical potential of this approach for use in automated assessment and learning support systems.
    Ansprechpartnerin: Sigrid Klinger
  • „Was ist guter Code?“ – Eine Analyse von Code-Qualitätsaspekten in Lehrbüchern und Online-Ressourcen
    Diese Arbeit könnte untersuchen, wie Aspekte von Codequalität in aktuellen Programmier-Lehrbüchern und Lernplattformen dargestellt und diskutiert werden. Aufbauend auf einem in früheren Studien verwendeten Analyseansatz könnte eine Auswahl weit verbreiteter Materialien dahingehend analysiert werden, welche normativen Aussagen sie zur Verständlichkeit von Code und verwandten Teilaspekten treffen. Ziel der Arbeit könnte es sein, mögliche Veränderungen in den inhaltlichen Schwerpunkten, der Begrifflichkeit und den didaktischen Strategien im Zeitverlauf aufzuzeigen und so Impulse für die curriculare Gestaltung sowie für die Entwicklung automatisierter Feedbacksysteme für Programmieranfänger:innen zu geben.
    “What Makes Good Code?” – A Comparative Analysis of Code Quality Guidelines in Programming Textbooks and Online Resources
    This thesis could investigate how aspects of code quality are represented and discussed in contemporary programming textbooks and learning platforms. Building upon a framework used in earlier studies, a selection of widely used materials might be analyzed to identify normative statements on code understandability and related sub-characteristics. The study could aim to uncover potential shifts in emphasis, terminology, and didactic strategies over time, thereby offering insights for both curriculum development and the design of automated feedback systems for novice programmers.
    Ansprechpartnerin: Sigrid Klinger

In Bearbeitung

  • Bachelorarbeiten
    • Tatjana Riedmaier: KI-Feedback zur Tutorenrückmeldung: Möglichkeiten und Ansätze
    • Stefan Damböck: Assisting Tutors in Giving Feedback on Programming Assignments with Adaptable Templates
    • Felippo Konrad: Untersuchung der Feedbackqualität und Performance von freien State-of-the-Art LLMs für Programmieraufgaben
    • Justus Sayer: Informatikunterricht in Deutschland: Ein systematischer Vergleich der Lehrpläne an Gymnasien
  • Masterarbeiten
    • Martina Georgieva: The Effects of Comments and Indentation on Code Quality Perception: An Eye-Tracking Study of CS1 Students
    • zwei in Vorbereitung
  • Zulassungsarbeiten
    • eine in Vorbereitung

Abgeschlossen

  • Bachelorarbeiten
    • Burhan Karababa (2025): Digitale Unterstützung bei der Formulierung von Lernzielen zur Förderung des selbstregulierten Lernens
    • David Schmutz (2025): Ein adaptives Lernunterstützungstool für die Chomsky-Normalform (Kooperation mt TCS-Lehrstuhl)
    • Anni Zhang (2025): Untersuchung von Open Source LLMs zur Generierung von Feedback für Programmieraufgaben
    • Simeon Weigel (2025): Ansätze zur einfachen Datenerhebung im traditionellen Übungsbetrieb
    • Maxim Smirnov (2025): On the Influence of HATC Parameters on Collusion Detection in Online Exams (Kooperation mit DBS-Lehrstuhl)
    • Zoe Jebing (2024): Unterstützungstool für die Erstellung von Protokollen mündlicher Prüfungen und Nutzung von Assessment Analytics
    • Elisabeth Simbürger (2024): Qualitative Trendanalyse von Haskell-Peer-Code-Reviews
    • Marvin Hager (2024): Student-centered Live-Feedback using Error-Clustering in an Introductory Programming Course
    • Victoria Possart (2024): Analyse und Entwicklung eines Workflows und Austauschformats für Forschungsdaten über E-Assessment Systeme
    • Lea Patricia Sigethy (2024): Evaluation einer mobilen Anwendung zur Studienorientierung im Fach Informatik
    • Andreas Götzfried (2024): Supporting Classroom Orchestration Using a Live Teacher Dashboard
    • Isabel Klug (2023): Investigating Motivational Designing Features For Improving E-Learning User Interfaces
    • Leo Egorov (2023): Automatic Generation of Feedback for Multiple Choice Questions to Support Teaching Assistants
    • Vasco Mano (2023): Quantitative and Qualitative Analysis of Peer Reviews from an Introductory Programming Course
    • Markus Manlik (2023): A Didactic, Web-based Tool for the Powerset Construction of Finite Automata
    • Zoë Schreiner (2023): A Prototype for Efficiently Marking Large Amounts of (Short) Open-Ended Questions
    • Isabell Wanderwitz (2023): Using Peer Review to Learn Programming – A Literature Review
    • Halim Lawal (2022): Secure Integration of External Services into the E-Assessment Environment GATE
    • Cosima Schenk (2022): Anforderungsanalyse und Design eines Tools zur Bildung von Lerngruppen
    • Julia Lapin (2022): Gamification & selbstreguliertes Lernen: Ein erweiterter Ansatz der Gamification zur Förderung von ökologischem und nachhaltigem Handeln
    • Zora Wurm (2021): Design und Evaluation einer Plattform zur Unterstutzung des agilen Unterrichtens
    • Jana Klinitska (2021): Vergleich von Plagiatserkennungsmethoden für Programmieraufgaben
    • Moritz Böhm (2021): Unterstützung von Lehrenden und Lernenden durch Learning Analytics Visualisierungen
  • Masterarbeiten
    • Sigrid Klinger (2024): Untersuchung eines adaptiven, auf der Etymologie basierenden Referenzwerks zum Kanji-Studium
    • Maximilian Kristen (2024): Crowdsourcing Dialectal and Situational Utterances for Training Cochlear Implant Wearers
    • Felix Gutjahr (2023): Erkennung von Plagiaten bei Programmier-Lückentext-Aufgaben in Online-Prüfungen
    • Viola Weickenmeier (2023): Identifying hidden structures among Research Papes for E-Assessment Systems
    • Tamia Bosch (2022): Self-reflection and Peer-Feedback as Tools to support long-term sustainable shopping behavior
    • Jennifer Herner (2022): Scaffolding and Orientation Support in Video Learning Using a Hierarchical Knowledge Mapping System
    • Florian Holzinger (2021): Kollaborative Unterstützung bei der semi-automatisierten Bewertung von
      Programmieraufgaben
    • Michael Käsdorf (2021): Designing Memory Palaces for Virtual Reality Environments
    • Herrmann Elfreich (2020): Konzeption und Evaluation eines mobilen unterrichtsbegleitenden Unterstützungssystems
  • Zulassungsarbeiten
    • Luca Weyhofen (2025): Entwicklung und Evaluation einer interaktiven Lernumgebung zur Förderung der Fehlerbehebungskompetenz von Programmieranfängern in Java
    • Bastian Göhler (2025): Entwicklung und Untersuchung eines Drill & Practice-Systems mit Automatischer Aufgabengenerierung zur Wiederholung von Programmiergrundlagen
    • Josef Guggenberger (2024): IT-Sicherheit Lehren und Lernen – Didaktische Ansätze zur Vermittlung von Websicherheitskonzepten im Informatikunterricht
    • Dennis Stanglmair (2022): Entwicklung und Evaluation eines webbasierten Lernpfads für Binärbäume
    • Patrick Kaufmann (2021): Unterrichtsequenz zum Thema Blockchain im Informatikunterricht