LoRA
Low-Rank Adaptation. Fine-tune un modèle sans réentraîner ses poids : on fige W et on apprend une petite mise à jour A·B.
Continuer
Low-Rank Adaptation. Fine-tune un modèle sans réentraîner ses poids : on fige W et on apprend une petite mise à jour A·B.
Continuer