일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
- 정보관리기술사
- LLM
- finetuning
- Llama
- OSX
- Claude
- apache
- 파인튜닝
- IOS
- MCP
- persona
- python
- VirtualBox
- MacOS
- vibe coding
- Quantization
- HTTP
- SwiftUI
- ai 모델 학습시키기
- Xcode
- MAC
- 클로드
- 양자화
- WWDC
- swift
- Fine Tuning
- ollama
- apple gpu
- php
- AI
- Today
- Total
Project Jo
FineTuning 본문
Fine-Tuning은 이미 대규모 데이터로 사전 학습(pretraining)된 LLM 모델을 특정 목적이나 도메인에 맞춰 추가 학습시키는 과정을 말합니다. 즉, 기존 모델의 언어 능력은 그대로 유지하면서, 특정 업무(Task) 또는 특정 도메인(Domain)에 대해 더 잘 작동하도록 만드는 것이 목적 입니다.
예를 들어 OpenAI의 GPT나 Meta의 LLaMA 같은 모델은 위키피디아, 뉴스, 책 등 일반적인 데이터를 기반으로 학습되었죠. 그런데 여러분 회사의 고객지원 챗봇에 이 모델을 쓰고 싶다면? 제품명, 내부 용어, 고객 응대 방식 등을 알지 못하는 기본 모델은 좋은 답변을 못할 수 있어요. 이럴 때 자사 고객상담 데이터로 파인튜닝을 하면, 모델이 그에 맞게 잘 대응할 수 있게 됩니다.
그럼 Llama 에서 FineTuning 이 가능할까? HuggingFasce 를 이용해 어찌어찌 하면 된다는 다수의 글들을 확인하였고, 가지고 있는 MAC MINI 에 실행하려 했지만 Llama3.1 8B 조차 돌릴수 없는 비루한 사양을 확인 하였다...
(Ollama 를 이용한 실행시 메모리가 부족하지 않았던건 Ollama 에서 양자화 튜닝을 진행했기에 그렇다는 글들을 보았다.)
그래서 여러대의 맥을 한대 모아 진행하기 위한 클러스터를 먼저 진행하기 위해 EXO 를 사용 했지만, 애플 실리콘에서 여러가지 문제가 있어 진행하기 어려웠다.
(기존 개발 환경에 어떤 영향을 미칠지 몰라 쉽게 진행할수 없었다..ㅠ)
따라서 FineTuning 을 비슷하게 흉내 내기 위해 Role 의 System 을 이용해 페르소나를 설정해 테스트 해보려 한다.
메모리 계산 (로딩만을 위한 용량)
• FP16 정밀도 사용: 각 파라미터는 2바이트를 사용합니다.
• 8B(80억) 파라미터 모델: 8B x 2바이트 = 16GB 메모리 필요
• 70B(700억) 파라미터 모델(Llama-3.3-708): • 70B x 2바이트 = 140GB 기본 메모리 필요.
참고 링크들
GitHub - exo-explore/exo: Run your own AI cluster at home with everyday devices 📱💻 🖥️⌚
Run your own AI cluster at home with everyday devices 📱💻 🖥️⌚ - exo-explore/exo
github.com
Mac M1에서 exo 설치하기: 완벽 가이드
Apple Silicon(M1) Mac에서 exo 패키지를 설치하는 과정을 단계별로 정리했습니다. 이 가이드는 설치 과정에서 발생할 수 있는 여러 문제들과 그 해결 방법을 포함하고 있습니다.exo는 여러대의 컴퓨터
velog.io
ChatGPT Fine-tuning 예시 | 언제, 어떻게 해야 하는가
지난 8월, OpenAI는 ChatGPT Fine-tuning API를 공개하였습니다. 뿐만 아니라 11월 OpenAI Dev Day 행사에서는 GPT-4에 대한 fine-tuning에 대한 실험적인 결과를 오픈하였습니다. 본 포스트에서는 Chat-GPT fine-tuning A
littlefoxdiary.tistory.com
[Python] Llama3를 파인튜닝을 통해 나만의 데이터로 학습 및 Huggingface에 적재해보자. - 미완성의신
파인튜닝을 통해 나만의 데이터를 학습 시켜 보자. 그전에 파인튜닝에 대해 알아 봐야 하는데, 아주 간단하게 알아보자. 파인튜닝에 대한 이론들은 아직도 많은 연구가 진행되고 있기 때문에 추
unfinishedgod.netlify.app
실전! LLM 파인튜닝-GPT3.5 파인튜닝(2/2)
파인튜닝, gpt, 젠틀파이, finetuning, LLM | 이전 글, 실전! LLM 파인튜닝이 의외(?)로 인기가 많아 이번엔, '우당탕탕 파인튜닝 체험기'라는 제목으로 사내위키에 올린 글을 여기에 소개해본다. 파인튜
brunch.co.kr
[우아한 스터디] LLM(LLaMA3) Fine-Tuning 방법 정리
LLM 파인튜닝을 위한 라이브러리를 정리합니다. 본 포스팅의 예제 코드는 GitHub 을 참고해 주세요. TRL Huggingface TRL Document HuggingFace 에서 제공하는 모델 튜닝 라이브러리로 TRL(Transformer Reinforceme
velog.io
llama 3.1 간단하게 Fine Tuning 하기
Unsloth를 참고하여 llama 3.1을 파인튜닝하는 과정을 정리해보았다.(사실 사이트 참고하면 간단하긴 한데, 그래도 영어보단 한글이 보기 편하니깐..) 참고한 내용은 👉🏻 링크 GitHub - unslothai/unslot
zzzini-5.tistory.com
'Developer > LLM' 카테고리의 다른 글
Python 서버 만들기 (0) | 2025.04.15 |
---|---|
페르소나(Persona) (0) | 2025.04.14 |
Role과 Content의 개념 (0) | 2025.04.08 |
Ollama 외부 접근 on Mac (0) | 2025.04.04 |
Llama 3.1 on Mac (0) | 2024.09.08 |