Pytorch TensorFlow

Trainer API로 모델 미세 조정하기

Ask a Question Open In Colab Open In Studio Lab

🤗 Transformers는 Trainer 클래스를 제공하여 최신 모범 사례를 사용해 제공하는 사전 학습된 모델을 데이터셋에 미세 조정할 수 있도록 도와줍니다. 이전 섹션에서 모든 데이터 전처리 작업을 완료했다면, Trainer를 정의하는 데 몇 단계만 남았습니다. 가장 어려운 부분은 Trainer.train()을 실행할 환경을 준비하는 것일 수 있습니다. CPU에서는 매우 느리게 실행되기 때문입니다. GPU가 설정되어 있지 않다면, Google Colab에서 무료 GPU 또는 TPU에 액세스할 수 있습니다.

📚 훈련 리소스: 훈련을 시작하기 전에 포괄적인 🤗 Transformers 훈련 가이드를 숙지하고 미세 조정 쿡북의 실용적인 예제를 살펴보세요.

아래 코드 예시들은 이전 섹션의 예시들을 이미 실행했다는 가정하에 작동합니다. 즉, 다음 사항들이 필요합니다:

from datasets import load_dataset
from transformers import AutoTokenizer, DataCollatorWithPadding

raw_datasets = load_dataset("glue", "mrpc")
checkpoint = "bert-base-uncased"
tokenizer = AutoTokenizer.from_pretrained(checkpoint)


def tokenize_function(example):
    return tokenizer(example["sentence1"], example["sentence2"], truncation=True)


tokenized_datasets = raw_datasets.map(tokenize_function, batched=True)
data_collator = DataCollatorWithPadding(tokenizer=tokenizer)

훈련

Trainer를 정의하기 전 첫 번째 단계는 Trainer가 훈련 및 평가에 사용할 모든 하이퍼파라미터를 포함하는 TrainingArguments 클래스를 정의하는 것입니다. 필수로 제공해야 하는 유일한 인수는 훈련된 모델과 중간 체크포인트가 저장될 디렉토리입니다. 나머지는 기본값으로 둘 수 있으며, 이는 기본적인 미세 조정에도 꽤 잘 작동합니다.

from transformers import TrainingArguments

training_args = TrainingArguments("test-trainer")

훈련 중에 모델을 Hub에 자동으로 업로드하려면 TrainingArguments에서 push_to_hub=True를 전달하세요. 이에 대해서는 Chapter 4에서 자세히 알아보겠습니다.

🚀 고급 설정: 사용 가능한 모든 훈련 인수와 최적화 전략에 대한 자세한 정보는 TrainingArguments 문서훈련 구성 쿡북을 확인하세요.

두 번째 단계는 모델을 정의하는 것입니다. 이전 챕터에서와 같이 두 개의 라벨과 함께 AutoModelForSequenceClassification 클래스를 사용하겠습니다:

from transformers import AutoModelForSequenceClassification

model = AutoModelForSequenceClassification.from_pretrained(checkpoint, num_labels=2)

Chapter 2와 달리 이 사전훈련된 모델을 인스턴스화하면 경고 메시지가 나타나는 것을 확인할 수 있습니다. 이는 BERT가 문장 쌍 분류를 위해 사전 훈련되지 않았기 때문에, 사전 훈련된 모델의 헤드가 제거되고 시퀀스 분류에 적합한 새로운 헤드가 추가되었기 때문입니다. 경고는 일부 가중치(제거된 사전 훈련 헤드에 해당하는 가중치)가 사용되지 않았고, 일부 다른 가중치(새로운 헤드용)가 무작위로 초기화되었다는 것을 나타냅니다. 마지막으로 모델을 훈련하도록 권장하는데, 이것이 바로 우리가 지금 할 일입니다.

모델이 준비되면, 지금까지 구성한 모든 객체들(model, training_args, 훈련 및 검증 데이터셋, data_collator, processing_class)를 전달하여 Trainer를 정의할 수 있습니다. processing_class 매개변수는 비교적 최근에 추가된 기능으로, Trainer에게 어떤 토크나이저를 사용해 데이터를 처리할지 알려줍니다:

from transformers import Trainer

trainer = Trainer(
    model,
    training_args,
    train_dataset=tokenized_datasets["train"],
    eval_dataset=tokenized_datasets["validation"],
    data_collator=data_collator,
    processing_class=tokenizer,
)

processing_class로 토크나이저를 전달하면, Trainer가 기본적으로 DataCollatorWithPaddingdata_collator로 사용합니다. 따라서 이 경우에는 data_collator=data_collator 줄을 생략할 수 있지만, 처리 파이프라인의 중요한 부분을 보여드리기 위해 여기에 포함했습니다.

📖 더 자세히 알아보기: Trainer 클래스와 그 매개변수에 대한 포괄적인 세부 정보는 Trainer API 문서를 방문하고 훈련 쿡북 레시피에서 고급 사용 패턴을 살펴보세요.

데이터셋에서 모델을 미세 조정하려면 Trainertrain() 메서드를 호출하기만 하면 됩니다:

trainer.train()

이렇게 하면 미세 조정이 시작됩니다(GPU에서는 몇 분 정도 걸릴 거예요). 500단계마다 훈련 손실이 보고되지만, 모델의 성능이 얼마나 좋은지(또는 나쁜지)는 알려주지 않을 겁니다. 그 이유는 다음과 같습니다:

  1. TrainingArguments에서 eval_strategy"steps" (매 eval_steps마다 평가) 또는 "epoch" (각 에포크 종료 시 평가)로 설정하여 훈련 중에 평가하도록 Trainer에 알리지 않았습니다.
  2. 해당 평가 중에 메트릭을 계산하기 위한 compute_metrics() 함수를 Trainer에 제공하지 않았습니다 (그렇지 않으면 평가에서 손실만 출력되는데, 이는 직관적이지 않은 숫자입니다).

평가

유용한 compute_metrics() 함수를 어떻게 만들고 다음 훈련 시 사용할 수 있는지 알아봅시다. 이 함수는 EvalPrediction 객체(predictions 필드와 label_ids 필드가 있는 명명된 튜플)를 인수로 받아야 하며 문자열을 부동 소수점 값에 매핑하는 딕셔너리(문자열은 반환되는 메트릭의 이름이고, 부동 소수점 값은 해당 값)를 반환합니다. 모델에서 예측값을 얻으려면 Trainer.predict()를 사용할 수 있습니다:

predictions = trainer.predict(tokenized_datasets["validation"])
print(predictions.predictions.shape, predictions.label_ids.shape)
(408, 2) (408,)

predict() 메서드의 출력은 predictions, label_ids, metrics 세 개의 필드가 있는 또 다른 명명된 튜플입니다. metrics 필드에는 전달된 데이터셋에 대한 손실 값과 몇 가지 시간 관련 메트릭(예측에 총 소요된 시간 및 평균 시간)만 포함됩니다. 하지만 compute_metrics() 함수를 완성하여 Trainer에 전달하면, 이 필드에 compute_metrics()가 반환하는 지표들도 함께 포함될 거예요.

보시다시피, predictions는 408 x 2 모양의 2차원 배열입니다 (408은 predict()에 전달한 데이터셋의 요소 수입니다). 이 값들은 predict()에 전달한 데이터셋의 각 요소에 대한 로짓입니다 (이전 챕터에서 보았듯이 모든 Transformer 모델은 로짓을 반환합니다). 이 로짓을 우리가 가진 레이블과 비교할 수 있는 예측값으로 변환하려면, 두 번째 축에서 최댓값을 가진 인덱스를 취해야 합니다:

import numpy as np

preds = np.argmax(predictions.predictions, axis=-1)

이제 이 preds를 라벨과 비교할 수 있습니다. compute_metric() 함수를 빌드하기 위해 🤗 Evaluate 라이브러리의 메트릭을 활용하겠습니다. MRPC 데이터셋과 관련된 메트릭을 불러오는 건 데이터셋을 불러왔던 것만큼이나 쉽습니다. 이번에는 evaluate.load() 함수를 사용하면 됩니다. 이렇게 반환된 객체에는 메트릭 계산을 수행할 수 있는 compute() 메서드가 있습니다:

import evaluate

metric = evaluate.load("glue", "mrpc")
metric.compute(predictions=preds, references=predictions.label_ids)
{'accuracy': 0.8578431372549019, 'f1': 0.8996539792387542}

다양한 평가 메트릭과 전략에 대해 알아보려면 🤗 Evaluate 문서를 참고하세요.

모델 헤드의 무작위 초기화 때문에 얻게 되는 정확한 결과는 달라질 수 있습니다. 여기서는 우리 모델이 검증 세트에서 85.78%의 정확도와 89.97%의 F1 점수를 달성했음을 볼 수 있습니다. 이 두 가지는 GLUE 벤치마크의 MRPC 데이터셋에서 결과를 평가하는 데 사용되는 메트릭입니다. BERT 논문의 표에는 기본 모델에 대해 F1 점수가 88.9로 보고되었습니다. 당시에는 uncased 모델을 사용했지만, 우리는 현재 cased 모델을 사용하고 있기 때문에 더 나은 결과가 나온 것입니다.

이 모든 것을 종합하면, 다음처럼 compute_metrics() 함수를 얻을 수 있습니다:

def compute_metrics(eval_preds):
    metric = evaluate.load("glue", "mrpc")
    logits, labels = eval_preds
    predictions = np.argmax(logits, axis=-1)
    return metric.compute(predictions=predictions, references=labels)

각 에폭이 끝날 때마다 메트릭을 보고하기 위해 이 compute_metrics() 함수가 실제로 어떻게 사용되는지 보려면, 다음과 같이 새 Trainer를 정의하면 됩니다:

training_args = TrainingArguments("test-trainer", eval_strategy="epoch")
model = AutoModelForSequenceClassification.from_pretrained(checkpoint, num_labels=2)

trainer = Trainer(
    model,
    training_args,
    train_dataset=tokenized_datasets["train"],
    eval_dataset=tokenized_datasets["validation"],
    data_collator=data_collator,
    processing_class=tokenizer,
    compute_metrics=compute_metrics,
)

참고로, 우리는 eval_strategy"epoch"으로 설정한 새로운 TrainingArguments와 새로운 모델을 생성합니다. 이렇게 하지 않으면 이미 훈련된 모델의 훈련을 계속하게 될 겁니다. 새로운 훈련을 시작하려면 다음을 실행하세요:

trainer.train()

이번에는 훈련 손실 외에도 각 에폭이 끝날 때마다 검증 손실과 메트릭을 보고할 겁니다. 모델 헤드의 무작위 초기화 때문에 여러분이 얻는 정확도/F1 점수는 우리가 얻은 결과와 약간 다를 수 있지만, 비슷한 범위에 있을 거예요.

고급 훈련 기능

Trainer는 현대 딥러닝의 모범 사례들을 쉽게 활용할 수 있도록 다양한 내장 기능을 제공합니다:

혼합 정밀도 훈련: 더 빠른 훈련과 메모리 사용량 감소를 위해 훈련 인수에서 fp16=True를 사용하세요:

training_args = TrainingArguments(
    "test-trainer",
    eval_strategy="epoch",
    fp16=True,  # 혼합 정밀도 활성화
)

그레이디언트 누적: GPU 메모리가 제한될 때 효과적인 더 큰 배치 크기를 위해:

training_args = TrainingArguments(
    "test-trainer",
    eval_strategy="epoch",
    per_device_train_batch_size=4,
    gradient_accumulation_steps=4,  # 효과적인 배치 크기 = 4 * 4 = 16
)

학습률 스케줄링: Trainer는 기본적으로 선형 감소 방식을 사용하지만, 사용자 맞춤 설정이 가능합니다:

training_args = TrainingArguments(
    "test-trainer",
    eval_strategy="epoch",
    learning_rate=2e-5,
    lr_scheduler_type="cosine",  # 다른 스케줄러 시도
)

🎯 성능 최적화: 분산 훈련, 메모리 최적화, 하드웨어별 최적화를 포함한 고급 훈련 기술에 대해서는 🤗 Transformers 성능 가이드를 살펴보세요.

Trainer는 여러 GPU 또는 TPU에서 즉시 작동하며 분산 훈련을 위한 많은 옵션을 제공합니다. 지원하는 모든 것에 대해서는 Chapter 10에서 다루겠습니다.

이것으로 Trainer API를 사용한 미세 조정에 대한 소개를 마칩니다. 대부분의 일반적인 NLP 작업에 대한 예제는 Chapter 7에서 다룰 예정이며, 지금부터는 순수 PyTorch 훈련 루프를 사용하여 동일한 작업을 수행하는 방법을 살펴보겠습니다.

📝 더 많은 예제: 🤗 Transformers 노트북에 있는 방대한 자료를 확인해 보세요.

섹션 퀴즈

Trainer API와 미세 조정 개념에 대한 이해를 테스트해보세요:

1. Trainer 에서 <code> processing_class </code> 매개변수의 목적은 무엇인가요?

2. 훈련 중 평가가 얼마나 자주 발생하는지 제어하는 TrainingArguments 매개변수는 무엇인가요?

3. TrainingArguments에서 <code> fp16=True </code> 는 무엇을 활성화하나요?

4. Trainer에서 <code> compute_metrics </code> 함수의 역할은 무엇인가요?

5. Trainer에 <code> eval_dataset </code> 을 제공하지 않으면 어떻게 되나요?

6. 그레이디언트 누적이란 무엇이며 어떻게 활성화하나요?

💡 핵심 요점:

< > Update on GitHub