Sejauh ini, kita telah mempelajari arsitektur Transformer dalam berbagai tugas spesifik seperti klasifikasi teks dan ringkasan. Namun, penggunaan utama Large Language Models (LLMs) adalah untuk text generation (generasi teks), dan itulah yang akan kita bahas dalam bab ini.
Pada halaman ini, kita akan membahas konsep inti dari proses inferensi LLM—memahami cara model menghasilkan teks dan komponen kunci dalam proses inferensinya.
Mari mulai dengan hal mendasar. Inferensi adalah proses menggunakan LLM yang sudah dilatih untuk menghasilkan teks seperti manusia dari masukan (prompt) tertentu. Model bahasa menggunakan pengetahuan dari pelatihan untuk membentuk respons satu kata (token) pada satu waktu. Model memanfaatkan probabilitas yang telah dipelajari dari miliaran parameter untuk memprediksi dan menghasilkan token berikutnya dalam urutan. Proses sekuensial inilah yang memungkinkan LLM menghasilkan teks yang koheren dan relevan secara kontekstual.
Mekanisme attention memberikan kemampuan pada LLM untuk memahami konteks dan menghasilkan respons yang koheren. Saat memprediksi kata berikutnya, tidak semua kata memiliki bobot yang sama—misalnya, dalam kalimat “Ibu kota Prancis adalah…”, kata “Prancis” dan “ibu kota” sangat penting untuk menentukan bahwa kata berikutnya seharusnya “Paris”. Kemampuan untuk fokus pada informasi yang relevan ini disebut attention.

Proses mengidentifikasi kata-kata yang paling relevan untuk memprediksi token berikutnya ini sangat efektif. Meskipun prinsip dasar pelatihan LLM (memprediksi token selanjutnya) relatif tetap sejak BERT dan GPT-2, ada kemajuan besar dalam skala jaringan saraf dan efisiensi attention untuk konteks panjang dengan biaya komputasi yang lebih rendah.
Singkatnya, mekanisme attention adalah kunci bagi LLM untuk menghasilkan teks yang koheren dan sadar konteks. Mekanisme ini membedakan LLM modern dari generasi sebelumnya.
Sekarang kita memahami attention, mari bahas seberapa banyak konteks yang bisa diproses oleh LLM—yaitu panjang konteks atau ‘daya ingat’ model.
Panjang konteks mengacu pada jumlah maksimum token (kata atau bagian kata) yang dapat diproses oleh LLM sekaligus. Anggap saja ini sebagai memori kerja model.
Kemampuan ini dibatasi oleh beberapa faktor praktis:
Idealnya, kita ingin memberi model konteks sebanyak mungkin, tetapi keterbatasan perangkat keras dan biaya komputasi membuat hal ini tidak praktis. Oleh karena itu, model dirancang dengan panjang konteks yang berbeda-beda untuk menyeimbangkan kapabilitas dan efisiensi.
Panjang konteks adalah jumlah maksimum token yang dapat dipertimbangkan model saat menghasilkan respons.
Saat kita memberi informasi ke LLM, kita menyusunnya agar dapat mengarahkan hasil output ke tujuan yang kita inginkan. Ini disebut prompting.
Memahami bagaimana LLM memproses input membantu kita membuat prompt yang lebih efektif. Karena tugas utama model adalah memprediksi token berikutnya dengan menganalisis pentingnya setiap token dalam input, maka cara kita menyusun kalimat sangat memengaruhi hasil.
Desain prompt yang cermat akan mempermudah mengendalikan arah output LLM sesuai yang diharapkan.
Setelah memahami komponen dasarnya, mari kita lihat bagaimana LLM sebenarnya menghasilkan teks. Prosesnya dibagi menjadi dua fase utama: prefill dan decode. Keduanya bekerja seperti jalur perakitan, masing-masing memainkan peran penting dalam menghasilkan teks yang koheren.
Fase prefill adalah tahap persiapan—semua “bahan” awal diproses di sini. Terdiri dari tiga langkah utama:
Fase ini memerlukan banyak komputasi karena semua token input diproses sekaligus. Ibaratnya seperti membaca seluruh paragraf sebelum mulai menulis jawaban.
Coba berbagai tokenizer secara interaktif di playground berikut:
Setelah prefill selesai, kita masuk ke fase decode—di sinilah generasi teks sebenarnya terjadi. Model menghasilkan satu token setiap kali dalam proses yang disebut autoregressive (token baru tergantung pada semua token sebelumnya).
Langkah-langkah utama untuk setiap token baru:
Fase ini memerlukan banyak memori karena semua token yang dihasilkan sebelumnya harus dilacak.
Setelah memahami cara model menghasilkan teks, mari lihat bagaimana kita bisa mengendalikan proses tersebut. Seperti penulis yang bisa memilih antara gaya kreatif atau lugas, kita bisa menyetel cara model memilih token.
Coba lihat visualisasi decoding menggunakan SmolLM2 (akan berhenti saat menemukan token EOS yaitu <|im_end|>):
Ketika model harus memilih token berikutnya, ia mulai dari probabilitas kasar (logit) untuk seluruh kosa kata. Prosesnya:

LLM cenderung mengulang, jadi kita gunakan penalti:

Penalti ini diterapkan sebelum sampling, agar model terdorong menggunakan kosa kata yang lebih beragam.
Seperti cerita yang butuh panjang yang pas, kita bisa atur panjang output:
Contoh: untuk satu paragraf, batasi hingga 100 token dan gunakan \n\n sebagai stop sequence.

Berbeda dari sampling biasa, beam search menjelajahi banyak kemungkinan jalur sekaligus seperti pemain catur yang mempertimbangkan beberapa langkah ke depan.

Langkah-langkahnya:
Visualisasinya bisa Anda coba di sini:
Saat mulai mengaplikasikan LLM, ada tantangan praktis yang harus dikelola.
Empat metrik penting saat bekerja dengan LLM:
Panjang konteks adalah tantangan besar dalam inferensi:
Contohnya, model seperti Qwen2.5-1M mendukung hingga 1 juta token, tapi dengan waktu inferensi yang jauh lebih lambat.
Optimasi penting yang digunakan adalah KV Caching. Ini menyimpan hasil perhitungan sebelumnya, sehingga:
Biayanya adalah penggunaan memori tambahan, tapi keuntungannya sangat besar.
Memahami inferensi LLM penting agar bisa menggunakannya secara efektif. Kita telah membahas:
Dengan menguasai konsep-konsep ini, Anda akan lebih siap membangun aplikasi berbasis LLM yang efisien dan bermanfaat.
Dunia LLM terus berkembang pesat. Tetap ingin tahu dan terus bereksperimen untuk menemukan pendekatan terbaik bagi kasus penggunaan Anda.
< > Update on GitHub