LLM Course documentation
Fine-tuning, итоги!
0. Установка
1. Трансформеры
2. Использование 🤗 Transformers
3. Fine-tuning предобученной модели
ВведениеПредобработка данныхFine-tuning модели с использованием Trainer APIПолное обучение моделиFine-tuning, итоги!Тест в конце главы
4. Hugging Face Hub
5. Библиотека 🤗 Datasets
6. Бибилиотека 🤗 Tokenizers
7. Основные задачи NLP
8. Как попросить о помощи
9. Создание и распространение демо
События курса
Глоссарий
Fine-tuning, итоги!
Это было весело! В первых двух главах вы узнали о моделях и токенизаторах, и теперь вы знаете как применить fine-tuning на собственных данных. Напомним, в этой главе вы:
- Узнали о датасетах из Hub
- Узнали как загрузить и предобработать данные (включая динамический padding и collator)
- Реализовали свой fine-tuning и валидировали модель
- Реализовали низко-уровневый обучающий цикл
- Использовали 🤗 Accelerate для легкой адаптации обучающего цикла к нескольким GPU или TPU