Thema5019
Abschlussarbeitstyp: Bachelor, Master
Betreuer: Andreas Oberweis, Martin Forell
Forschungsgruppe: Betriebliche Informationssysteme
Archivierungsnummer: 5019
Abschlussarbeitsstatus: Abgeschlossen
Beginn:
24. März 2023
Abgabe: unbekannt
Die Textgenerierung ist eine wichtige Aufgabe im Bereich des Natural Language Processing (NLP), die viele Anwendungen hat, wie z.B. Chatbots, Textzusammenfassung, kreative Schreibhilfe und mehr. Die Textgenerierung basiert auf der Erzeugung von natürlichsprachlichen Ausgaben aus verschiedenen Eingaben, wie z.B. Schlüsselwörtern, Bildern oder anderen Texten.
In den letzten Jahren haben sich Transformer-Modelle als sehr leistungsfähig für die Textgenerierung erwiesen. Transformer sind eine Art von neuronalen Netzwerken, die auf der Idee der Selbst-Aufmerksamkeit basieren und es ermöglichen, komplexe Abhängigkeiten zwischen den Eingabe- und Ausgabesequenzen zu erfassen. Es gibt verschiedene Varianten von Transformer-Modellen, die sich in ihrer Architektur, ihrem Training oder ihrer Anwendung unterscheiden.
Ziel dieser Abschlussarbeit ist es, einen systematischen Vergleich zwischen verschiedenen Transformer-Modellen zur Modellgenerierung durchzuführen. Die Forschungsfragen sind:
- Welche Transformer-Modelle gibt es und wie unterscheiden sie sich in ihrer Funktionsweise? - Wie kann man die Qualität und Vielfalt der generierten Texte / Modelle messen und bewerten? - Welche Faktoren beeinflussen die Leistung der Transformer-Modelle zur Modellgenerierung? - Welche Herausforderungen und Grenzen gibt es bei der Anwendung von Transformer-Modellen zur Modellgenerierung?