LLM Course documentation
Introdução
0. Configuração
1. Modelos de Transformers
2. Usando 🤗 Transformers
3. Ajustando um modelo pré treinado
4. Compartilhamento de modelos e tokenizer
5. A biblioteca Datasets 🤗
6. A biblioteca Tokenizers 🤗
7. Principais tarefas NLP
8. Como pedir ajuda 🤗
Evento do curso
Introdução
No Capítulo 2 exploramos como utilizar tokenizadores e modelos pré treinados para fazer previsões. Mas e se você quiser ajustar um modelo pré-treinado para seu próprio dataset? Esse é o tema deste capítulo! Você vai aprender:
- Como preparar um datset grande do Hub
- Como usar a API de alto nível
Trainerpara ajustar um modelo - Como usar um loop de treinamento personalizado
- Como usar a biblioteca 🤗 Accelerate para executar facilmente esse loop de treinamento personalizado em qualquer configuração distribuída {#else}
Para fazer upload de seus checkpoints treinados para o Hugging Face Hub, você precisará de uma conta huggingface.co: crie uma conta
Update on GitHub