hw3
Collection
Коллекция из дз по PEFT
•
3 items
•
Updated
Следовало дообучить базовую модель с помощью самописной реализации LoRA
Морозились все слои кроме слоев лоры Параметры Лоры - r=8, alpha=16, target_submodules=["k_proj", "v_proj"] Гиперпараметры самые удачные - BATCH_SIZE = 16
LEARNING_RATE = 3e-4
NUM_EPOCHS = 1 И бралось всего 30к из тренировочной выборки
Удалось достичь Validation F1: 0.35012584001260394 На тесте же
P.S.
Слишком много рандома, почти всегда вначале были метрики 0 и плохая генерация при рестарте с теми же параметрами выходили метрики сильно лучше.
Base model
OuteAI/Lite-Oute-1-300M-Instruct