본문 바로가기

개발/AI9

[Day9] LLM 스터디 1기 - 단일 GPU Gemma 파인튜닝 3 한 권으로 끝내는 실전 LLM 파인튜닝 - 강다솔 지음/위키북스03. 전체 파인튜닝학습 파라미터 설정Weights & Biases(wandb)를 사용해서 모델 학습에 사용되는 파라미터 설정부터 시작한다. 참고로 wandb는 머신러닝 실험을 추적하고 시각화하는 데 널리 쓰이는 플랫폼이라고 한다. 가입 후에 사용자 계정과 로그인 API Key 등을 확인한다.https://wandb.ai/ Weights & Biases: The AI Developer PlatformWeights & Biases is the leading AI developer platform to train and fine-tune models, manage models from experimentation to production, and.. 2025. 1. 19.
[Day8] LLM 스터디 1기 - 단일 GPU Gemma 파인튜닝 2 한 권으로 끝내는 실전 LLM 파인튜닝 - 강다솔 지음/위키북스03. 전체 파인튜닝키워드 데이터 생성데이터셋(jaehy12/new3)에 포함되지 않은 각 기사별 키워드 정보를 추출하는 것부터 시작한다. 주요 코드는 아래와 같다.pipe = pipeline("text-generation", model=model, tokenizer=tokenizer, device_map="auto")def key_word_prompt(input_text, summary_text): return [ {"role": "user", "content": f"{input_text}"}, {"role": "assistant", "content": f"{summary_text}"}, {"role": "user", .. 2025. 1. 18.
[Day7] LLM 스터디 1기 - 단일 GPU Gemma 파인튜닝 한 권으로 끝내는 실전 LLM 파인튜닝 - 강다솔 지음/위키북스03. 전체 파인튜닝단일 GPU를 활용한 Gemma-2B-it 파인튜닝이번 6일 차 스터디에서는 지난 5일 차 스터디에서 공부했던 Gemma 모델을 파인튜닝하는 실습을 진행했다. 먼저 런팟(https://www.runpod.io/)에서 엔비디아 H100 PCIe GPU를 선택해서 deploy 했다.다른 부분은 기본 값 그대로 놔두고 Container Disk, Volume Disk 값만 200GB로 상향 조정했다. 그리고 주피터 랩 환경에 접속해서 터미널을 열고, 아래 저장소로부터 출판사에서 제공하는 실습 코드를 내려받았다.https://github.com/wikibook/llm-finetuning GitHub - wikibook/llm-fi.. 2025. 1. 17.
[Day6] LLM 스터디 1기 - GPU 병렬화 기법 한 권으로 끝내는 실전 LLM 파인튜닝 - 강다솔 지음/위키북스03. 전체 파인튜닝병렬화 기법 이해병렬화 기술은 '여러 컴퓨팅 자원을 동시에 활용해 대규모 작업을 효율적으로 처리'하는 방법이라는 매우 일반적인 이야기가 적혀있다. 인공지능 분야에서는 컴퓨팅 자원 중에서 특히 (고가의) GPU를 효율적으로 사용해야 하는데 그 방식으로 '데이터 병렬화(DP), 모델 병렬화(MP), 파이프라인 병렬화(PP), 텐서 병렬화(TP) 등이 있다.데이터 병렬 처리 (DP: Data Parallelism)대규모 데이터셋을 효과적으로 나누는 병렬 기법이다. 데이터셋을 여러 미니배치로 나누고 각자의 데이터 배치에 대해 독립적으로 순전파와 역전파를 수행한다. 계산이 끝나면 모든 GPU는 동일한 상태를 유지하게 된다. 메모리 .. 2025. 1. 16.
[Day5] LLM 스터디 1기 - GPT, Gemma, Llama3 모델 특징 비교 한 권으로 끝내는 실전 LLM 파인튜닝 - 강다솔 지음/위키북스03. 전체 파인튜닝 Gemma 모델 구조 분석Gemma는 매개변수를 늘려 성능을 높이는데 집중한 기존 모델들과 달리, 모델의 크기를 줄여도 성능을 유지하며 효율적으로 작동할 수 있다는 것을 보여줬다.GPT와 Gemma의 모델 구조를 비교한 이미지다. 해상도가 좀 낮지만.. 어쨌든 가장 눈에 띄는 변화는 input_layernorm과 post_attention_layernorm가 추가된 것이다. layernorm(RMSNorm)은 그레디언트가 너무 크거나 작아지지 않고 항상 적절한 크기를 유지하도록 조절해 주는 장치다. 다음으로 다른 부분은 Rotary Position Embedding(RoPE)으로 위치 정보를 회전하는 원판처럼 표한하는 방.. 2025. 1. 15.
[Day4] LLM 스터디 1기 - 파인튜닝 개념 한 권으로 끝내는 실전 LLM 파인튜닝 - 강다솔 지음/위키북스3일 차가 고비였는데 4일 차는 쉬어가는 느낌이다. 파인튜닝이 무엇인지, 왜 쓰는지, 어떤 종류들이 있는지에 대해 조금은 가벼운 마음으로 공부했다.03. 전체 파인튜닝파인튜닝 개념 및 데이터 준비 과정 이해파인튜닝은(Fine-Tuning) 이미 학습되어 공개된 언어 모델(Pre-trained Language Model, 사전 훈련된 언어 모델)을 특정 작업에 맞게 추가로 학습하는 것을 말한다. 새로운 언어 모델을 개발하지 않고 굳이 파인튜닝을 하는 이유는 훨씬 더 경제적이고 편리하기 때문이다. 참고로 Llama 3 모델을 개발하는 데에는 약 7,700만 시간과 7억2천만 달러 이상의 비용이 들었다고 한다. 또한 우리가 가진 특정 분야의 (상대.. 2025. 1. 11.
반응형