정의
매개변수 효율적 미세 조정(PEFT)은 전체 모델 대신 매개변수의 작은 부분 집합만 업데이트하여 대규모 사전 학습된 모델을 새로운 작업에 맞게 조정하는 기술입니다.
목적
목적은 강력한 작업 성능을 유지하는 동시에 계산 비용과 저장 공간의 필요성을 줄이는 것입니다.
중요성
- 대규모 리소스가 없는 조직에서도 세부 조정이 가능합니다.
- 전체 모델 훈련에 비해 탄소 발자국이 줄어듭니다.
- 생산에서 효율적인 작업 전환이 가능합니다.
- LoRA 및 어댑터와 같은 방법과 관련이 있습니다.
작동 원리
- 대규모 사전 학습된 기본 모델을 선택합니다.
- 매개변수 하위 집합(예: 낮은 순위 어댑터)을 식별합니다.
- 대상 작업 데이터에 대해서만 이러한 하위 집합을 훈련합니다.
- 다른 매개변수는 고정해 두세요.
- 최소한의 리소스 오버헤드로 배포합니다.
예시(실제 세계)
- LoRA(Low-Rank Adaptation): LLM 미세 조정에 널리 사용됨.
- Hugging Face PEFT 라이브러리: 효율적인 미세 조정 툴킷.
- Google 연구: 다국어 NLP 작업을 위한 어댑터.
참고문헌 / 추가 자료
- Hu et al. “LoRA: 대규모 언어 모델의 저순위 적응.” arXiv.
- Houlsby 외. "자연어 처리를 위한 매개변수 효율적 전이 학습." ACL.
- 허깅 페이스 PEFT 문서.