Mô hình Ngôn ngữ Thị giác (VLMs) xử lý đầu vào hình ảnh cùng với văn bản để thực hiện các tác vụ như chú thích của ảnh, trả lời câu hỏi bằng hình ảnh và suy luận đa phương thức (multimodal).
Một kiến trúc VLM điển hình bao gồm:
Tùy thuộc vào từng trường hợp mà có thể sử dụng các VLMs được huấn luyện theo các tác vụ khác nhau. Các mô hình cơ sở (base models) xử lý các tác vụ thị giác-ngôn ngữ tổng quát, trong khi các biến thể tối ưu hóa cho trò chuyện (chat-optimized variants) hỗ trợ các tương tác hội thoại. Một số mô hình bao gồm các thành phần bổ sung để làm rõ dự đoán dựa trên các bằng chứng thị giác (visual evidence) hoặc chuyên về các tác vụ cụ thể như phát hiện đối tượng (object detection).
Để biết thêm chi tiết về kỹ thuật và cách sử dụng VLMs, hãy tham khảo trang Sử dụng VLM.
Tinh chỉnh VLM là việc điều chỉnh một mô hình đã được huấn luyện trước (pre-trained) để thực hiện các tác vụ cụ thể hoặc để hoạt động hiệu quả trên một tập dữ liệu cụ thể. Quá trình này có thể tuân theo các phương pháp như tinh chỉnh có giám sát (supervised fine-tuning), tối ưu hóa tùy chọn (preference optimization) hoặc phương pháp kết hợp (hybrid approach) cả hai, như đã giới thiệu trong Chương 1 và Chương 2.
Mặc dù các công cụ và kỹ thuật cốt lõi vẫn tương tự như các công cụ và kỹ thuật được sử dụng cho các mô hình ngôn ngữ (LLMs), việc tinh chỉnh VLMs đòi hỏi phải tập trung nhiều hơn vào việc biểu diễn và chuẩn bị dữ liệu cho hình ảnh. Điều này đảm bảo mô hình tích hợp và xử lý hiệu quả cả dữ liệu thị giác và văn bản để đạt hiệu suất tối ưu. Vì mô hình demo, SmolVLM, lớn hơn đáng kể so với mô hình ngôn ngữ được sử dụng trong bài trước, điều cần thiết là phải khám phá các phương pháp tinh chỉnh hiệu quả. Các kỹ thuật như lượng tử hóa (quantization) và Tinh chỉnh hiệu quả tham số - PEFT (Parameter-Efficient Fine-Tuning) có thể giúp làm cho quá trình này dễ tiếp cận hơn và tiết kiệm chi phí hơn, cho phép nhiều người dùng thử nghiệm với mô hình hơn.
Để được hướng dẫn chi tiết về tinh chỉnh VLMs, hãy truy cập trang Tinh chỉnh VLM.