Das Teilprojekt 4 führt am 21.05.2025 einen internen Workshop zum Thema Finetuning von LLMs durch.
Darin werden Verfahren besprochen und verglichen, mit denen sich das Verhalten von LLMs jenseits von Prompt-Engineering steuern und beeinflussen lässt.
Thema sind neben Supervised Finetuning, Preference Optimization und Reinforcement-Learning from Verifiable Rewards auch modellerhaltende Methoden wie Prompttuning und Prefixtuning.