Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
Tags
- IOS
- MCP
- python
- Quantization
- 클로드
- apache
- HTTP
- Fine Tuning
- MacOS
- vibe coding
- Llama
- 양자화
- AI
- swift
- 정보관리기술사
- Xcode
- apple gpu
- persona
- 파인튜닝
- Claude
- WWDC
- finetuning
- php
- SwiftUI
- OSX
- VirtualBox
- ai 모델 학습시키기
- LLM
- ollama
- MAC
Archives
- Today
- Total
Project Jo
파인 튜닝(Fine-tuning) + 양자화(Quantization) #1 본문
1. 문제점
특정 제품에 특화된 AI 를 만들기 위해서 여러가지 조사를 진행 하였고, 문제점은 다음과 같다.
RAM 부족
내 Mac-MINI 의 사양은 Apple M2 16GB 이다.
이전에 확인한 내용대로 Llama3.1 8B 로딩만을 위한 RAM 용량은 16GB 이고, 양자화가 되지 않은 모델은 메모리 부족으로 동작하지 않는 부분을 확인 하였다.
트큰 부족
페르소나(Persona)로 역활을 부여하고 사전 지식을 넣으면 특정 제품의 설명이 길어질 경우 사용자와 대화할때 토큰이 부족해 긴 대화를 이어가기 어렵다.
2. 해결 방법
양자화 방법을 숙지하면 모든 문제가 해결될것 같아 GPT 를 괴롭히며 정보를 얻었고 다음과 같은 결론에 도달 하였다.
1. LLaMA 3.1 8B를 Fine-tuning 한다.
2. 4bit 양자화를 진행한다.
3. OLLAMA를 통해 해당 모델을 선택하고 실행시킨다.
4. 외부에서 OLLAMA API를 통해 LLM 모델에 요청하고 응답을 가져간다.
|
'Developer > LLM' 카테고리의 다른 글
Claude Vibe Coding (0) | 2025.05.07 |
---|---|
MCP(Model Context Protocol) (1) | 2025.04.29 |
클로드(Claude) MCP (0) | 2025.04.21 |
챗봇(Chat Bot) (0) | 2025.04.18 |
Python 서버 만들기 (0) | 2025.04.15 |