https://huggingface.co/learn/nlp-course/chapter1/9?fw=pt
In this chapter, you saw how to approach different NLP tasks using the high-level pipeline() function from 🤗 Transformers. You also saw how to search for and use models in the Hub, as well as how to use the Inference API to test the models directly in your browser.
이 장에서는 🤗 Transformers의 고급 파이프라인() 함수를 사용하여 다양한 NLP 작업에 접근하는 방법을 살펴보았습니다. 또한 허브에서 모델을 검색하고 사용하는 방법과 추론 API를 사용하여 브라우저에서 직접 모델을 테스트하는 방법도 살펴보았습니다.
We discussed how Transformer models work at a high level, and talked about the importance of transfer learning and fine-tuning. A key aspect is that you can use the full architecture or only the encoder or decoder, depending on what kind of task you aim to solve. The following table summarizes this:
Transformer 모델이 높은 수준에서 작동하는 방식에 대해 논의하고 전이 학습 및 미세 조정의 중요성에 대해 이야기했습니다. 중요한 측면은 해결하려는 작업 종류에 따라 전체 아키텍처를 사용하거나 인코더나 디코더만 사용할 수 있다는 것입니다. 다음 표에 이 내용이 요약되어 있습니다.
'Hugging Face > NLP Course' 카테고리의 다른 글
HF-NLP-USING 🤗 TRANSFORMERS : Tokenizers (1) | 2023.12.25 |
---|---|
HF-NLP-USING 🤗 TRANSFORMERS : Models (1) | 2023.12.25 |
HF-NLP-USING 🤗 TRANSFORMERS : Behind the pipeline (0) | 2023.12.24 |
HF-NLP-USING 🤗 TRANSFORMERS : Introduction (0) | 2023.12.24 |
HF-NLP-Transformer models : End-of-chapter quiz (1) | 2023.12.24 |
HF-NLP-Transformer models : Bias and limitations (1) | 2023.12.24 |
HF-NLP-Transformer models : Sequence-to-sequence models[sequence-to-sequence-models] (1) | 2023.12.24 |
HF-NLP-Transformer models : Decoder models (1) | 2023.12.24 |
HF-NLP-Transformer models : Encoder models (1) | 2023.12.24 |
HF-NLP-Transformer models : How do Transformers work? (1) | 2023.12.24 |