Seperti yang telah Anda lihat di Bab 1, model Transformer biasanya sangat besar. Dengan jutaan hingga puluhan miliar parameter, pelatihan dan penerapan model-model ini merupakan tugas yang rumit. Selain itu, dengan model-model baru yang dirilis hampir setiap hari dan masing-masing memiliki implementasi sendiri, mencoba semuanya bukanlah hal yang mudah.
Library 🤗 Transformers dibuat untuk menyelesaikan masalah ini. Tujuannya adalah menyediakan satu API tunggal melalui mana model Transformer apa pun dapat dimuat, dilatih, dan disimpan. Fitur utama dari library ini adalah:
nn.Module PyTorch biasa dan dapat ditangani seperti model lain di framework machine learning (ML) masing-masing.Fitur terakhir ini membuat 🤗 Transformers cukup berbeda dari library ML lainnya. Model-modelnya tidak dibangun berdasarkan modul yang dibagikan antar file; sebaliknya, setiap model memiliki layer-nya sendiri. Selain membuat model lebih mudah dipahami dan diakses, ini juga memungkinkan Anda untuk bereksperimen dengan satu model tanpa memengaruhi model lain.
Bab ini akan dimulai dengan contoh end-to-end di mana kita menggunakan model dan tokenizer bersama-sama untuk mereplikasi fungsi pipeline() yang diperkenalkan di Bab 1. Selanjutnya, kita akan membahas API model: kita akan menyelami kelas model dan konfigurasi, serta menunjukkan cara memuat model dan bagaimana model memproses input numerik menjadi prediksi output.
Lalu kita akan melihat API tokenizer, yang merupakan komponen utama lain dari fungsi pipeline(). Tokenizer menangani langkah pemrosesan pertama dan terakhir, yaitu konversi dari teks ke input numerik untuk jaringan neural, dan konversi kembali ke teks saat dibutuhkan. Terakhir, kami akan menunjukkan cara mengirim beberapa kalimat melalui model dalam batch yang telah disiapkan, lalu menutupnya dengan melihat lebih dekat pada fungsi tingkat tinggi tokenizer().