Pada Bab 2 kita telah mempelajari cara menggunakan tokenizer dan model pralatih untuk membuat prediksi. Namun bagaimana jika Anda ingin melakukan fine-tuning pada model pralatih untuk menyelesaikan tugas tertentu? Itulah topik bab ini! Anda akan belajar:
Trainer untuk melakukan fine-tuning model dengan praktik terbaik modern📚 Sumber Daya Penting: Sebelum memulai, Anda mungkin ingin meninjau dokumentasi 🤗 Datasets untuk pemrosesan data.
Bab ini juga akan menjadi pengantar beberapa modul Hugging Face di luar modul 🤗 Transformers! Kita akan melihat bagaimana modul seperti 🤗 Datasets, 🤗 Tokenizers, 🤗 Accelerate, dan 🤗 Evaluate dapat membantu Anda melatih model secara lebih efisien dan efektif.
Setiap bagian utama dalam bab ini akan mengajarkan hal yang berbeda:
Pada akhir bab ini, Anda akan dapat melakukan fine-tuning model pada dataset Anda sendiri menggunakan baik API tingkat tinggi maupun loop pelatihan kustom, dengan menerapkan praktik terbaik terkini di bidang ini.
🎯 Yang Akan Anda Bangun: Di akhir bab ini, Anda akan telah melakukan fine-tuning pada model BERT untuk klasifikasi teks dan memahami cara menyesuaikan teknik tersebut dengan dataset dan tugas Anda sendiri.
Bab ini secara eksklusif berfokus pada PyTorch, karena telah menjadi kerangka kerja standar untuk riset dan produksi deep learning modern. Kita akan menggunakan API dan praktik terbaik terbaru dari ekosistem Hugging Face.
Untuk mengunggah model yang telah Anda latih ke Hugging Face Hub, Anda akan memerlukan akun Hugging Face: buat akun
< > Update on GitHub