LLM Course documentation
Sumar
0. Configurare
1. Modele Transformer
IntroducereProcesarea limbajului natural și modelele de limbaj mariTransformers, ce pot face?Cum funcționează Transformers?Modele EncoderModele DecoderModele secvență-la-secvențăPrejudecăți și limităriRezumatQuiz de final de capitol
2. Folosirea 🤗 Transformers
3. Fine-tuning unui model preantrenat
4. Partajarea modelelor și a tokenizatoarelor
5. Biblioteca 🤗 Datasets
6. Biblioteca 🤗 Tokenizers
7. Sarcini clasice NLP
8. Cum să ceri ajutor
9. Construirea și partajarea demo-urilor
10. Curățați seturi de date de înaltă calitate
11. Fine-tuning pentru modele mari de limbaj
12. Construiește Modele de Raționament new
Evenimente Curs
Sumar
În acest capitol, ați învățat cum să abordați diferite sarcini NLP utilizând funcția pipeline() de nivel înalt din 🤗 Transformers. De asemenea, ați descoperit cum să căutați și să utilizați modele în Hub, precum și cum să testați acestee modelee direct în browser folosind API-ul de inferență.
Am discutat despre modul în care funcționează modelele Transformer dintr-o perspectivă generală și despre importanța transfer learning-ului și fine-tuning-ului. Un aspect cheie este faptul că puteți utiliza întreaga arhitectură sau doar encoder-ul sau decoder-ul, în funcție de tipul de sarcină pe care doriți să o rezolvați. Următorul tabel rezumă acest aspect:
| Model | Exemple | Task-uri |
|---|---|---|
| Encoder | ALBERT, BERT, DistilBERT, ELECTRA, RoBERTa | Clasificarea propozițiilor, recunoașterea entităților denumite, Extractive QA |
| Decoder | CTRL, GPT, GPT-2, Transformer XL | Generarea de text |
| Encoder-decoder | BART, T5, Marian, mBART | Rezumare, traducere, răspunsuri generative la întrebări |