LLM Course documentation
Quiz de sfârșit de capitol
0. Configurare
1. Modele Transformer
IntroducereProcesarea limbajului natural și modelele de limbaj mariTransformers, ce pot face?Cum funcționează Transformers?Modele EncoderModele DecoderModele secvență-la-secvențăPrejudecăți și limităriRezumatQuiz de final de capitol
2. Folosirea 🤗 Transformers
3. Fine-tuning unui model preantrenat
4. Partajarea modelelor și a tokenizatoarelor
5. Biblioteca 🤗 Datasets
6. Biblioteca 🤗 Tokenizers
7. Sarcini clasice NLP
8. Cum să ceri ajutor
9. Construirea și partajarea demo-urilor
10. Curățați seturi de date de înaltă calitate
11. Fine-tuning pentru modele mari de limbaj
12. Construiește Modele de Raționament new
Evenimente Curs
Quiz de sfârșit de capitol
Acest capitol a acoperit o mulțime de subiecte! Nu vă faceți griji dacă nu ați înțeles toate detaliile; capitolele următoare vă vor ajuta să înțelegeți cum funcționează lucrurile în mecanismele lor interne.
Mai întâi, însă, să testăm ceea ce ați învățat în acest capitol!
1. Explorați Hub-ul și căutați checkpoint-ul roberta-large-mnli . Ce sarcină îndeplinește acesta?
2. Ce va returna următorul cod?
from transformers import pipeline
ner = pipeline("ner", grouped_entities=True)
ner("My name is Sylvain and I work at Hugging Face in Brooklyn.")3. Ce ar trebui să înlocuiască … în acest exemplu de cod?
from transformers import pipeline
filler = pipeline("fill-mask", model="bert-base-cased")
result = filler("...")4. De ce nu va funcționa acest cod?
from transformers import pipeline
classifier = pipeline("zero-shot-classification")
result = classifier("This is a course about the Transformers library")