Definition
Övervakad finjustering (SFT) är processen att träna en förtränad modell på märkta data för en specifik uppgift, och justera alla eller delar av dess parametrar.
Syfte
Syftet är att anpassa generella modeller till specialiserade uppgifter med förbättrad noggrannhet.
Betydelse
- Kärnteknik i NLP och visionsuppgifter.
- Kräver högkvalitativa märkta data.
- Riskerar med överanpassning med små datamängder.
- Ofta en föregångare till RLHF.
Så fungerar det
- Välj en förutbildad modell.
- Samla in märkta data för måluppgiften.
- Träna modellen med övervakad inlärning.
- Validera på en avstängd testuppsättning.
- Implementera och övervaka prestanda.
Exempel (verkliga världen)
- GPT finjusterade kundtjänstkonversationer.
- BERT finjusterad för igenkänning av namngivna enheter.
- Syntransformatorer finjusterade för medicinsk bildklassificering.
Referenser / Vidare läsning
- Devlin et al. “BERT: Förträning av djupa dubbelriktade transformatorer.” NAACL 2019.
- Dokumentation om Hugging Face Transformers.
- Stanford CS224N: NLP med djupinlärning.
- Vad är SFT? Varför är det viktigt?