LLM Course documentation
Questionário de fim de capítulo
0. Configuração
1. Modelos de Transformers
2. Usando 🤗 Transformers
3. Ajustando um modelo pré treinado
4. Compartilhamento de modelos e tokenizer
5. A biblioteca Datasets 🤗
IntroduçãoE se o meu dataset não estiver no Hub?Hora de fatiar e dividir os dadosBig data? 🤗 Datasets ao resgateCriando seu próprio datasetBusca semântica com o FAISSConfira o 🤗 Datasets!Questionário de fim de capítulo
6. A biblioteca Tokenizers 🤗
7. Principais tarefas NLP
8. Como pedir ajuda 🤗
Evento do curso
Questionário de fim de capítulo
Este capítulo cobriu muita coisa! Não se preocupe se você não entendeu todos os detalhes; os próximos capítulos o ajudarão a entender como as coisas funcionam.Antes de prosseguir, vamos testar o que você aprendeu neste capítulo.
1. A função load_dataset() em 🤗 Datasets permite carregar um dataset de qual dos seguintes locais?
### 2. Suponha que você carregue uma das tarefas GLUE da seguinte forma:from datasets import load_dataset
dataset = load_dataset("glue", "mrpc", split="train")Qual dos seguintes comandos produzirá uma amostra aleatória de 50 elementos do conjunto de dados?
3. Suponha que você tenha um conjunto de dados sobre animais domésticos chamado pets_dataset , que tem uma coluna name que denota o nome de cada animal. Qual das seguintes abordagens permitiria filtrar o conjunto de dados para todos os animais de estimação cujos nomes começam com a letra “L”?
4. O que é mapeamento de memória?
5. Quais dos seguintes são os principais benefícios do mapeamento de memória?
6. Por que o código a seguir falha?
from datasets import load_dataset
dataset = load_dataset("allocine", streaming=True, split="train")
dataset[0]