HF-NLP-FINE-TUNING A PRETRAINED MODEL-Fine-tuning, Check!
2023. 12. 26. 14:48 |
반응형
https://huggingface.co/learn/nlp-course/chapter3/5?fw=pt
Fine-tuning, Check!
That was fun! In the first two chapters you learned about models and tokenizers, and now you know how to fine-tune them for your own data. To recap, in this chapter you:
재미있었어요! 처음 두 장에서는 모델과 토크나이저에 대해 배웠고 이제 자신의 데이터에 맞게 미세 조정하는 방법을 알게 되었습니다. 요약하면 이 장에서는 다음을 수행합니다.
- Learned about datasets in the Hub 허브의 데이터 세트에 대해 배웠습니다.
- Learned how to load and preprocess datasets, including using dynamic padding and collators
- 동적 패딩 및 콜레이터 사용을 포함하여 데이터 세트를 로드하고 전처리하는 방법을 배웠습니다.
- Implemented your own fine-tuning and evaluation of a model
- 모델에 대한 자체 미세 조정 및 평가 구현
- Implemented a lower-level training loop
- 낮은 수준의 훈련 루프를 구현했습니다.
- Used 🤗 Accelerate to easily adapt your training loop so it works for multiple GPUs or TPUs
- 여러 GPU 또는 TPU에서 작동하도록 훈련 루프를 쉽게 조정하기 위해 🤗 Accelerate를 사용했습니다.
반응형
'Hugging Face > NLP Course' 카테고리의 다른 글
HF-NLP-SHARING MODELS AND TOKENIZERS-Part 1 completed! (1) | 2023.12.27 |
---|---|
HF-NLP-SHARING MODELS AND TOKENIZERS-Building a model card (0) | 2023.12.27 |
HF-NLP-SHARING MODELS AND TOKENIZERS-Sharing pretrained models (0) | 2023.12.27 |
HF-NLP-SHARING MODELS AND TOKENIZERS-Using pretrained models (0) | 2023.12.27 |
HF-NLP-SHARING MODELS AND TOKENIZERS-The Hugging Face Hub (0) | 2023.12.26 |
HF-NLP-FINE-TUNING A PRETRAINED MODEL-A full training (1) | 2023.12.26 |
HF-NLP-FINE-TUNING A PRETRAINED MODEL-Fine-tuning a model with the Trainer API (1) | 2023.12.26 |
HF-NLP-FINE-TUNING A PRETRAINED MODEL-Processing the data (1) | 2023.12.26 |
HF-NLP-FINE-TUNING A PRETRAINED MODEL-Introduction (0) | 2023.12.26 |
HF-NLP-USING 🤗 TRANSFORMERS : End-of-chapter quiz (0) | 2023.12.25 |