Amazon Bedrock Model Distillation
개요
Amazon Bedrock Model Distillation을 사용하면 Amazon Bedrock에서 가장 고급 모델에 필적하는 사용 사례별 정확도를 제공하는 더 작고 더 빠르며 더 비용 효율적인 모델을 사용할 수 있습니다. Amazon Bedrock의 증류 모델은 원래 모델보다 최대 500% 더 빠르고 비용은 최대 75% 저렴하며 RAG와 같은 사용 사례의 경우 정확도 손실은 2% 미만입니다.
더 작고 더 비용 효율적인 모델 활용
Model Distillation을 통해 고객은 사용 사례에서 정확도를 달성하려는 '교사' 모델을 선택한 다음 미세 조정하려는 '학생' 모델을 선택할 수 있습니다. 또한 사용 사례에 대한 프롬프트도 제공합니다. Model Distillation은 교사 모델로부터 응답을 생성하고 이러한 응답을 사용하여 학생 모델을 미세 조정하는 프로세스를 자동화합니다. 그러면 학생 모델은 적은 비용으로 비슷한 정확도로 교사 모델처럼 작동할 수 있습니다. Model Distillation은 Amazon Nova Premier(교사) 및 Nova Pro(학생), Claude 3.5 Sonnet v2(교사), Llama 3.3 70B(교사) 및 Llama 3.2 1B/3B(학생) 등 다양한 모델 제공업체의 여러 모델을 지원합니다.

독자적인 데이터 합성을 통해 증류된 모델 성능을 극대화
특정 사용 사례를 위해 더 작은 규모의 비용 효율적인 모델을 미세 조정하여 대규모 모델과 비슷한 정확도를 달성하는 것은 반복적인 프로세스입니다. Model Distillation은 더 나은 결과를 얻기 위해 필요한 반복의 부담을 덜어주기 위해 사용 사례에 가장 적합한 다양한 데이터 합성 방법을 적용할 수 있습니다. 예를 들어 Bedrock은 유사한 프롬프트를 생성하여 훈련 데이터세트를 확장하거나, 고객이 제공한 프롬프트 응답 쌍을 골든 예시로 사용하여 고품질의 합성 응답을 생성할 수 있습니다.

프로덕션 데이터를 손쉽게 가져와 비용을 절감
기존의 미세 조정 기능의 경우 고객이 프롬프트와 응답을 생성해야 합니다. Model Distillation을 사용하면 고객이 프롬프트만 제공하면 됩니다. 그러면 Model Distillation이 이 정보를 사용하여 합성 응답을 생성하고 학생 모델을 미세 조정합니다. 고객은 간접 호출 로그에 연결하도록 지시하고 특정 메타데이터 필드를 기반으로 로그를 필터링할 수도 있습니다. Model Distillation은 간접 호출 로그를 통해 프롬프트와 응답을 모두 읽고 Model Distillation 워크플로에서 합성 응답 생성 단계를 건너뛸 수 있으므로, 교사 모델에서 응답을 다시 생성할 필요가 없어 비용이 절감됩니다. 코드 샘플로 시작해 보세요.

에이전트의 함수 호출 예측 정확도 향상
에이전트 함수 호출은 특정 함수를 간접적으로 호출하는 시기와 방법을 정확하게 결정하여 모델이 외부 도구, 데이터베이스 및 API와 상호 작용할 수 있도록 하는 현대 AI 애플리케이션의 중요한 기능입니다. 대형 모델은 일반적으로 직접적으로 호출할 적절한 함수를 식별하고 적절한 파라미터를 구성하는 데 탁월하지만 일반적으로 비용이 높고 지연 시간이 더 깁니다. Amazon Bedrock Model Distillation을 사용하면 소규모 모델에서 함수 호출을 정확하게 예측하여 응답 시간을 크게 단축하고 운영 비용을 절감할 수 있습니다.