본문 바로가기

개발61

[Day12] LLM 스터디 1기 - 효율적인 파라미터 튜닝(LoRA) #2 한 권으로 끝내는 실전 LLM 파인튜닝 - 강다솔 지음/위키북스04. 효율적인 파라미터 튜닝 기법 (PEFT)지난 11일 차에 학습 파라미터 설정까지 완료했고 오늘은 이를 바탕으로 모델 학습에 들어간다.LoRA 적용 및 모델 학습/평가trainer = SFTTrainer( model=model, args=args, train_dataset=dataset, max_seq_length=512, peft_config=peft_config, tokenizer=tokenizer, packing=True,)지난번 전체 파인튜닝과 동일하게 파인튜닝을 쉽게 수행할 수 있도록 해주는 도구인 SFTTrainer 클래스를 사용해서 훈련 과정을 구성한다. 선택한 모델, 토크나이저, 학습에.. 2025. 1. 23.
[Day11] LLM 스터디 1기 - 효율적인 파라미터 튜닝(LoRA) #1 한 권으로 끝내는 실전 LLM 파인튜닝 - 강다솔 지음/위키북스04. 효율적인 파라미터 튜닝 기법 (PEFT)지난 10일 차까지 해서 '전체 파라미터 파인튜닝'을 마쳤고, 이제 일부 파라미터만 수정하는 PEFT(Parameter-Efficient Fine -Tuning)에 대해 알아보고 실습을 진행한다.LoRA 이론 및 실습모델은 구글의 Gemma2-9B-it를 사용한다. 앞에서 전체 파인튜닝을 진행했던 Gemma2-2B-it 보다 크고 강력한 모델로 주로 다양한 자연어 처리 작업에 활용된다고 한다. 이 모델을 LoRa 기법으로 파인튜닝해 '심리 상담에 특화된 챗봇'을 만드는 과정을 실습한다. LoRa는 사전 학습된 모델의 구조를 그대로 유지하면서 필요한 만큼만 파라미터를 효율적으로 수정하는 방법이다.위.. 2025. 1. 22.
[Day10] LLM 스터디 1기 - 다중 GPU Llama3 파인튜닝 #1 한 권으로 끝내는 실전 LLM 파인튜닝 - 강다솔 지음/위키북스10일 차는 이전 Gemma와 달리 파인튜닝 절차를 한 회 차에 모두 진행해서 내용이 좀 많다. 참고로 허깅페이스의 Llama 모델에 접근하려면 미리 요청해서 승인을 받아야 한다. 대략 10분 이내에 승인이 나는 듯하다.03. 전체 파인튜닝3.5 다중 GPU를 활용한 Llama3.1-8B-instruct 파인튜닝지난 시간까지 단일 GPU를 이용해서 Gemma-2B-it 모델을 파인튜닝해 봤다. 이번(10일 차)에는 더 큰 규모의 모델인 Llama3.1-8B-instruct 모델을 대상으로 여러 대의 GPU를 활용한 파인튜닝을 진행한다.런팟 환경 설정Llama3.1-8B-instruct 모델을 전체 파인튜닝하며 주피터 노트북 환경이 아닌 터미.. 2025. 1. 20.
[Day9] LLM 스터디 1기 - 단일 GPU Gemma 파인튜닝 #3 한 권으로 끝내는 실전 LLM 파인튜닝 - 강다솔 지음/위키북스03. 전체 파인튜닝학습 파라미터 설정Weights & Biases(wandb)를 사용해서 모델 학습에 사용되는 파라미터 설정부터 시작한다. 참고로 wandb는 머신러닝 실험을 추적하고 시각화하는 데 널리 쓰이는 플랫폼이라고 한다. 가입 후에 사용자 계정과 로그인 API Key 등을 확인한다.https://wandb.ai/ Weights & Biases: The AI Developer PlatformWeights & Biases is the leading AI developer platform to train and fine-tune models, manage models from experimentation to production, and.. 2025. 1. 19.
[Day8] LLM 스터디 1기 - 단일 GPU Gemma 파인튜닝 #2 한 권으로 끝내는 실전 LLM 파인튜닝 - 강다솔 지음/위키북스03. 전체 파인튜닝키워드 데이터 생성데이터셋(jaehy12/new3)에 포함되지 않은 각 기사별 키워드 정보를 추출하는 것부터 시작한다. 주요 코드는 아래와 같다.pipe = pipeline("text-generation", model=model, tokenizer=tokenizer, device_map="auto")def key_word_prompt(input_text, summary_text): return [ {"role": "user", "content": f"{input_text}"}, {"role": "assistant", "content": f"{summary_text}"}, {"role": "user", .. 2025. 1. 18.
[Day7] LLM 스터디 1기 - 단일 GPU Gemma 파인튜닝 한 권으로 끝내는 실전 LLM 파인튜닝 - 강다솔 지음/위키북스03. 전체 파인튜닝단일 GPU를 활용한 Gemma-2B-it 파인튜닝이번 6일 차 스터디에서는 지난 5일 차 스터디에서 공부했던 Gemma 모델을 파인튜닝하는 실습을 진행했다. 먼저 런팟(https://www.runpod.io/)에서 엔비디아 H100 PCIe GPU를 선택해서 deploy 했다.다른 부분은 기본 값 그대로 놔두고 Container Disk, Volume Disk 값만 200GB로 상향 조정했다. 그리고 주피터 랩 환경에 접속해서 터미널을 열고, 아래 저장소로부터 출판사에서 제공하는 실습 코드를 내려받았다.https://github.com/wikibook/llm-finetuning GitHub - wikibook/llm-fi.. 2025. 1. 17.
반응형