Llama3

import transformers
import torch

model_id = "meta-llama/Meta-Llama-3-8B"

pipeline = transformers.pipeline("text-generation", model=model_id, model_kwargs={"torch_dtype": torch.bfloat16}, device_map="auto")
pipeline("Hey how are you doing today?")

개요

라마3 모델은 Meta AI 팀이 제안한 메타 라마3 소개: 현재까지 가장 유능한 공개 가능 LLM에서 소개되었습니다.

해당 블로그 포스트의 초록입니다:

오늘, 광범위한 사용을 위해 이용 가능한 라마의 차세대 모델인 메타 라마3의 첫 두 모델을 공유하게 되어 기쁩니다. 이번 출시는 8B와 70B 매개변수를 가진 사전 훈련 및 지시 미세 조정된 언어 모델을 특징으로 하며, 광범위한 사용 사례를 지원할 수 있습니다. 라마의 이 차세대 모델은 다양한 산업 벤치마크에서 최첨단의 성능을 보여주며, 개선된 추론 능력을 포함한 새로운 기능을 제공합니다. 우리는 이것들이 단연코 해당 클래스에서 최고의 오픈 소스 모델이라고 믿습니다. 오랜 개방적 접근 방식을 지지하며, 우리는 라마3를 커뮤니티 기여자들에게 맡기고 있습니다. 애플리케이션에서 개발자 도구, 평가, 추론 최적화 등에 이르기까지 AI 스택 전반에 걸친 다음 혁신의 물결을 촉발하길 희망합니다. 여러분이 무엇을 만들지 기대하며 여러분의 피드백을 고대합니다.

라마3 모델의 모든 체크포인트는 이곳에서 확인하세요. 원본 코드는 이곳에서 확인할 수 있습니다.

사용 팁

라마3 모델들은 bfloat16를 사용하여 훈련되었지만, 원래의 추론은 float16을 사용합니다. Hub에 업로드된 체크포인트들은 torch_dtype = 'float16'을 사용하는데, 이는 AutoModel API가 체크포인트를 torch.float32에서 torch.float16으로 변환하는데 이용됩니다.

model = AutoModelForCausalLM.from_pretrained("path", torch_dtype = "auto")를 사용하여 모델을 초기화할 때, 온라인 가중치의 dtypetorch_dtype="auto"를 사용하지 않는 한 대부분 무관합니다. 그 이유는 모델이 먼저 다운로드되고(온라인 체크포인트의 dtype를 사용), 그 다음 torchdtype으로 변환되어(torch.float32가 됨), 마지막으로 config에 torch_dtype이 제공된 경우 가중치가 사용되기 때문입니다.

float16으로 모델을 훈련하는 것은 권장되지 않으며 nan을 생성하는 것으로 알려져 있습니다. 따라서 모든 모델은 bfloat16으로 훈련되어야 합니다.

팁:

자료

라마2 문서 페이지에서는 이미 수 많은 멋지고 유익한 자료들을 제공하고 있습니다. 이곳에 라마3에 대한 새로운 자료를 더해주실 컨트리뷰터들을 초대합니다! 🤗

< > Update on GitHub