Di bagian ini, kita akan mempelajari arsitektur model Transformer dan memahami lebih dalam konsep seperti attention, arsitektur encoder-decoder, dan lainnya.
🚀 Kita mulai naik tingkat di sini. Bagian ini bersifat teknis dan detail, jadi jangan khawatir jika Anda tidak langsung memahaminya sepenuhnya. Kita akan mengulas konsep-konsep ini kembali di bab-bab berikutnya.
Berikut beberapa titik penting dalam (sejarah singkat) model Transformer:
Arsitektur Transformer diperkenalkan pada Juni 2017, dengan fokus awal pada tugas penerjemahan. Setelah itu, muncul berbagai model penting lainnya, seperti:
Kita akan membahas tiap keluarga ini lebih dalam nanti.
Semua model Transformer yang disebutkan sebelumnya (GPT, BERT, T5, dll.) dilatih sebagai model bahasa. Artinya, mereka dilatih menggunakan sejumlah besar teks mentah dengan pendekatan self-supervised.
Self-supervised learning adalah metode pelatihan di mana tujuan pelatihan diturunkan langsung dari data masukan. Artinya, manusia tidak perlu memberikan label secara manual!
Model ini mengembangkan pemahaman statistik terhadap bahasa yang dilatihkan, tetapi kurang bermanfaat untuk tugas praktis tertentu. Oleh karena itu, model pra-latih umum kemudian melalui proses yang disebut transfer learning atau fine-tuning, yaitu pelatihan tambahan secara supervised menggunakan label yang diberikan manusia untuk tugas tertentu.
Contoh tugasnya adalah memprediksi kata berikutnya dalam kalimat setelah membaca kata-kata sebelumnya. Ini disebut causal language modeling, karena output tergantung pada input masa lalu dan saat ini — tetapi tidak pada masa depan.
Contoh lain adalah masked language modeling, di mana model diminta memprediksi kata yang di-masking dalam sebuah kalimat.
Kecuali beberapa pengecualian (seperti DistilBERT), strategi umum untuk meningkatkan performa model adalah dengan memperbesar ukuran model dan jumlah data pelatihan.

Sayangnya, melatih model besar memerlukan banyak data, waktu, dan sumber daya komputasi. Ini juga berdampak pada lingkungan, seperti ditunjukkan grafik berikut:
Bahkan grafik di atas berasal dari proyek yang dilakukan dengan niat sadar untuk mengurangi dampak lingkungan. Bayangkan jika setiap tim peneliti, mahasiswa, atau perusahaan melatih model dari nol — biayanya akan sangat besar!
Inilah mengapa berbagi model sangat penting: dengan berbagi trained weights, kita mengurangi beban komputasi dan jejak karbon secara global.
Anda bisa menghitung jejak karbon model Anda menggunakan alat seperti ML CO2 Impact atau Code Carbon, yang sudah terintegrasi dalam 🤗 Transformers. Baca blog ini dan dokumentasi resmi untuk mempelajari lebih lanjut.
Pretraining adalah proses melatih model dari nol — bobot awalnya diinisialisasi secara acak dan tidak memiliki pengetahuan awal.
Sebaliknya, fine-tuning dilakukan setelah model sudah dilatih. Kita mengambil model pra-latih dan melatih ulang dengan dataset spesifik untuk tugas kita. Kenapa tidak langsung latih model dari awal untuk tugas tersebut?
Contohnya, Anda bisa menggunakan model bahasa Inggris umum lalu fine-tune dengan korpus artikel arXiv untuk membuat model bahasa ilmiah.
Di bagian ini, kita membahas arsitektur umum model Transformer. Jangan khawatir jika belum paham sepenuhnya — kita akan bahas komponen-komponennya secara terpisah nanti.
Model ini terdiri dari dua bagian utama:
Penggunaan tergantung pada tugasnya:
Fitur utama dari Transformer adalah lapisan attention (attention layers). Bahkan, judul makalah aslinya adalah “Attention Is All You Need”!
Singkatnya, lapisan ini memungkinkan model fokus hanya pada kata-kata yang relevan saat membentuk representasi kata.
Contoh: saat menerjemahkan “You like this course” ke dalam bahasa Prancis, model harus memperhatikan subjek “You” saat menerjemahkan “like”, karena bentuk kata kerja tergantung subjek. Saat menerjemahkan “this”, model juga harus memperhatikan kata benda “course”, karena jenis kelamin kata dalam bahasa Prancis memengaruhi terjemahan.
Intinya: makna kata tergantung konteks — dan attention memungkinkan model memanfaatkan konteks tersebut.
Arsitektur awal Transformer dirancang untuk penerjemahan.
Selama pelatihan, decoder diberi seluruh kalimat target, tapi dilarang melihat kata-kata masa depan. Contohnya: saat memprediksi kata ke-4, decoder hanya melihat kata ke-1 hingga ke-3.
Lapisan attention pertama di decoder melihat semua input sebelumnya, sedangkan attention kedua menggunakan output dari encoder.
Masking juga digunakan untuk menghindari perhatian ke token spesial seperti padding.
Selama mempelajari Transformer, Anda akan menemukan istilah:
Contoh:
BERT → adalah arsitekturbert-base-cased → adalah checkpoint hasil pelatihan oleh Google