Di bagian ini, kita akan melihat apa saja yang bisa dilakukan oleh model Transformer dan menggunakan alat pertama dari modul π€ Transformers: fungsi pipeline().
Jika Anda ingin menjalankan contoh secara lokal, kami sarankan melihat bagian setup.
Model Transformer digunakan untuk menyelesaikan berbagai jenis tugas lintas modality β termasuk NLP (pemrosesan bahasa alami), computer vision, pemrosesan audio, dan lainnya. Berikut adalah beberapa perusahaan dan organisasi yang menggunakan Hugging Face dan model Transformer, serta berkontribusi kembali ke komunitas dengan membagikan model mereka:
modul π€ Transformers memungkinkan Anda membuat dan menggunakan model yang dibagikan di Model Hub, yang berisi jutaan model pra-latih siap digunakan. Anda juga dapat mengunggah model Anda sendiri ke Hub!
Sebelum membahas bagaimana model Transformer bekerja secara internal, mari kita lihat contoh penggunaan praktisnya dalam menyelesaikan berbagai masalah NLP.
Objek paling dasar di modul π€ Transformers adalah fungsi pipeline(). Fungsi ini menghubungkan model dengan langkah-langkah pra-pemrosesan dan pascapemrosesan yang dibutuhkan, sehingga Anda bisa langsung memasukkan teks dan mendapatkan hasil yang bermakna:
from transformers import pipeline
classifier = pipeline("sentiment-analysis")
classifier("I've been waiting for a HuggingFace course my whole life.")[{'label': 'POSITIVE', 'score': 0.9598047137260437}]Anda bahkan bisa mengirim beberapa kalimat sekaligus:
classifier(
["I've been waiting for a HuggingFace course my whole life.", "I hate this so much!"]
)[{'label': 'POSITIVE', 'score': 0.9598047137260437},
{'label': 'NEGATIVE', 'score': 0.9994558095932007}]Secara default, pipeline ini menggunakan model pra-latih yang telah di-fine-tune untuk analisis sentimen dalam bahasa Inggris. Model akan diunduh dan disimpan saat Anda pertama kali menjalankan classifier. Saat dijalankan ulang, model dari cache akan digunakan.
Tiga langkah utama ketika teks dikirim ke pipeline():
Fungsi pipeline() mendukung berbagai modality, seperti teks, gambar, audio, hingga tugas multimodal. Fokus utama dalam kursus ini adalah teks, tapi penting untuk mengenal potensi arsitektur Transformer secara luas.
Berikut adalah ringkasannya:
text-generation: Menghasilkan teks dari sebuah prompttext-classification: Mengklasifikasikan teks ke dalam kategori tertentusummarization: Merangkum teks tanpa kehilangan informasi pentingtranslation: Menerjemahkan teks antar bahasazero-shot-classification: Mengklasifikasikan teks tanpa pelatihan spesifik pada labelfeature-extraction: Mengambil representasi vektor dari teksimage-to-text: Menghasilkan deskripsi teks dari gambarimage-classification: Mengidentifikasi objek dalam gambarobject-detection: Menemukan dan mengenali objek dalam gambarautomatic-speech-recognition: Mengubah ucapan menjadi teksaudio-classification: Mengklasifikasikan data audiotext-to-speech: Mengubah teks menjadi suaraimage-text-to-text: Memberi respons terhadap gambar berdasarkan prompt teksMari kita eksplorasi beberapa pipeline ini secara lebih mendalam!
Kita akan mulai dengan tugas yang sedikit lebih menantang: mengklasifikasikan teks yang belum diberi label. Ini adalah kasus umum dalam proyek dunia nyata, karena proses anotasi teks memakan waktu dan membutuhkan keahlian khusus. Untuk kasus ini, pipeline zero-shot-classification sangat berguna: Anda dapat menentukan label apa pun yang ingin digunakan untuk klasifikasi β tanpa bergantung pada label bawaan dari model pra-latih.
from transformers import pipeline
classifier = pipeline("zero-shot-classification")
classifier(
"This is a course about the Transformers library",
candidate_labels=["education", "politics", "business"],
){'sequence': 'This is a course about the Transformers library',
'labels': ['education', 'business', 'politics'],
'scores': [0.8445963859558105, 0.111976258456707, 0.043427448719739914]}Pipeline ini disebut zero-shot karena Anda tidak perlu melakukan fine-tuning model dengan data Anda. Model ini langsung mengembalikan skor probabilitas untuk daftar label apa pun yang Anda tentukan!
Sekarang mari kita lihat cara menggunakan pipeline untuk menghasilkan teks. Inti dari tugas ini adalah: Anda memberikan prompt, dan model akan melengkapinya dengan teks yang dihasilkan secara otomatis β mirip dengan fitur prediksi teks di ponsel. Karena melibatkan elemen acak, hasil Anda mungkin berbeda dari contoh berikut.
from transformers import pipeline
generator = pipeline("text-generation")
generator("In this course, we will teach you how to")[{'generated_text': 'In this course, we will teach you how to understand and use '
'data flow and data interchange when handling user data. We '
'will be working with one or more of the most commonly used '
'data flows β data flows of various types, as seen by the '
'HTTP'}]Gunakan argumen num_return_sequences untuk menentukan berapa banyak variasi teks yang ingin dihasilkan, dan max_length untuk menentukan panjang maksimum teks keluaran.
Contoh sebelumnya menggunakan model default untuk setiap tugas. Namun, Anda juga dapat memilih model tertentu dari Model Hub untuk digunakan dalam pipeline. Misalnya, untuk tugas text generation, buka Model Hub, klik tag yang sesuai di panel kiri untuk memfilter model berdasarkan tugas. Contohnya: text generation.
Mari kita coba model HuggingFaceTB/SmolLM2-360M! Berikut cara menggunakannya:
from transformers import pipeline
generator = pipeline("text-generation", model="HuggingFaceTB/SmolLM2-360M")
generator(
"In this course, we will teach you how to",
max_length=30,
num_return_sequences=2,
)[{'generated_text': 'In this course, we will teach you how to manipulate the world and '
'move your mental and physical capabilities to your advantage.'},
{'generated_text': 'In this course, we will teach you how to become an expert and '
'practice realtime, and with a hands on experience on both real '
'time and real'}]Anda bisa mempersempit pencarian dengan memilih tag bahasa tertentu untuk mencari model yang mendukung bahasa tersebut. Bahkan, terdapat model multibahasa di Hub!
Setelah memilih model, Anda juga bisa langsung mencoba kemampuannya melalui widget interaktif di halaman model.
Semua model dapat dicoba langsung melalui browser menggunakan layanan Inference Providers. Cukup masukkan teks, dan lihat hasilnya secara langsung.
Layanan ini juga tersedia sebagai produk berbayar β cocok untuk integrasi ke dalam alur kerja Anda. Lihat halaman harga untuk informasi lebih lanjut.
Pipeline berikutnya adalah fill-mask. Tugas ini mengisi kata yang hilang dalam teks:
from transformers import pipeline
unmasker = pipeline("fill-mask")
unmasker("This course will teach you all about <mask> models.", top_k=2)[{'sequence': 'This course will teach you all about mathematical models.',
'score': 0.19619831442832947,
'token': 30412,
'token_str': ' mathematical'},
{'sequence': 'This course will teach you all about computational models.',
'score': 0.04052725434303284,
'token': 38163,
'token_str': ' computational'}]Argumen top_k menentukan berapa banyak kemungkinan yang ditampilkan. Perhatikan bahwa token <mask> adalah token khusus untuk mengindikasikan bagian yang perlu diisi. Token ini bisa berbeda di tiap model, jadi pastikan Anda mengetahui token yang tepat, misalnya dengan melihat widget di halaman model.
Named Entity Recognition (NER) adalah tugas untuk mengenali bagian-bagian dari teks yang merupakan entitas seperti nama orang, lokasi, atau organisasi. Contohnya:
from transformers import pipeline
ner = pipeline("ner", grouped_entities=True)
ner("My name is Sylvain and I work at Hugging Face in Brooklyn.")[{'entity_group': 'PER', 'score': 0.99816, 'word': 'Sylvain', 'start': 11, 'end': 18},
{'entity_group': 'ORG', 'score': 0.97960, 'word': 'Hugging Face', 'start': 33, 'end': 45},
{'entity_group': 'LOC', 'score': 0.99321, 'word': 'Brooklyn', 'start': 49, 'end': 57}]Model ini berhasil mengenali Sylvain sebagai orang (PER), Hugging Face sebagai organisasi (ORG), dan Brooklyn sebagai lokasi (LOC).
Opsi grouped_entities=True menyatukan bagian-bagian yang tergolong entitas sama. Misalnya, βHuggingβ dan βFaceβ digabung sebagai satu organisasi.
Pipeline question-answering memungkinkan Anda menjawab pertanyaan berdasarkan konteks yang diberikan:
from transformers import pipeline
question_answerer = pipeline("question-answering")
question_answerer(
question="Where do I work?",
context="My name is Sylvain and I work at Hugging Face in Brooklyn",
){'score': 0.6385916471481323, 'start': 33, 'end': 45, 'answer': 'Hugging Face'}Pipeline ini tidak menghasilkan jawaban baru, tapi mengekstraknya dari konteks yang diberikan.
Tugas summarization bertujuan menyederhanakan teks panjang menjadi ringkasan yang tetap mempertahankan inti informasinya:
from transformers import pipeline
summarizer = pipeline("summarization")
summarizer(
"""
Amerika telah mengalami perubahan besar dalam beberapa tahun terakhir.
Tidak hanya jumlah lulusan di disiplin teknik tradisional seperti teknik
mesin, sipil, listrik, kimia, dan aeronautika yang menurun, tetapi di
sebagian besar universitas unggulan Amerika, kurikulum teknik kini lebih
menekankan dan mendorong studi rekayasa sains. Akibatnya, mata kuliah teknik
yang berkaitan dengan infrastruktur, lingkungan, dan isu terkait semakin sedikit
ditawarkan, dan ada konsentrasi yang lebih besar pada mata kuliah teknologi tinggi
yang mendukung perkembangan ilmiah yang semakin kompleks. Meskipun yang terakhir
itu penting, seharusnya tidak mengorbankan teknik tradisional.
Negara dengan ekonomi yang berkembang pesat seperti Tiongkok dan India, serta negara
industri lain di Eropa dan Asia, terus mendorong dan mengembangkan pengajaran teknik.
Tiongkok dan India masing-masing meluluskan enam dan delapan kali lebih banyak insinyur
tradisional dibandingkan Amerika Serikat. Negara industri lainnya paling tidak
mempertahankan jumlah lulusan mereka, sementara Amerika mengalami penurunan serius
dalam jumlah lulusan teknik dan kekurangan insinyur yang berpendidikan baik.
"""
)[{'summary_text': ' Amerika telah mengalami perubahan besar dalam beberapa tahun terakhir. '
'Jumlah lulusan teknik di AS menurun di bidang teknik tradisional seperti '
'teknik mesin, sipil, listrik, kimia, dan aeronautika. Negara dengan ekonomi '
'yang berkembang pesat seperti Tiongkok dan India, serta negara industri lain '
'di Eropa dan Asia, terus mendorong dan mengembangkan bidang teknik.'}]Seperti pada text generation, Anda bisa menetapkan max_length dan min_length hasil ringkasan.
Untuk tugas penerjemahan, Anda bisa menggunakan model default dengan menamai tugas seperti "translation_en_to_fr", atau pilih langsung model dari Model Hub. Berikut contoh penerjemahan dari Prancis ke Inggris:
from transformers import pipeline
translator = pipeline("translation", model="Helsinki-NLP/opus-mt-fr-en")
translator("Ce cours est produit par Hugging Face.")[{'translation_text': 'This course is produced by Hugging Face.'}]Selain teks, model Transformer juga bisa bekerja dengan gambar dan audio. Contoh:
from transformers import pipeline
image_classifier = pipeline(
task="image-classification", model="google/vit-base-patch16-224"
)
result = image_classifier(
"https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/pipeline-cat-chonk.jpeg"
)
print(result)from transformers import pipeline
transcriber = pipeline(
task="automatic-speech-recognition", model="openai/whisper-large-v3"
)
result = transcriber(
"https://huggingface.co/datasets/Narsil/asr_dummy/resolve/main/mlk.flac"
)
print(result){'text': ' I have a dream that one day this nation will rise up and live out the true meaning of its creed.'}Kekuatan utama model Transformer adalah kemampuannya menggabungkan dan memproses data dari berbagai sumber. Ini sangat bermanfaat jika Anda:
Contohnya, Anda bisa membangun sistem yang:
Pipeline yang ditampilkan dalam bab ini digunakan sebagai demonstrasi. Mereka dirancang untuk tugas-tugas spesifik dan tidak dapat digunakan untuk variasi tugas lainnya secara langsung. Di bab selanjutnya, Anda akan belajar lebih dalam tentang apa yang ada di balik fungsi pipeline() dan bagaimana mengkustomisasinya.