Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
Tags
- ollama
- LLM
- php
- ai 모델 학습시키기
- 양자화
- OSX
- Quantization
- apache
- Fine Tuning
- python
- apple gpu
- MAC
- SwiftUI
- Llama
- 정보관리기술사
- MCP
- finetuning
- Xcode
- IOS
- Claude
- 파인튜닝
- swift
- 클로드
- MacOS
- HTTP
- AI
- vibe coding
- VirtualBox
- persona
- WWDC
Archives
- Today
- Total
목록fine-tuning (1)
Project Jo
파인 튜닝(Fine-tuning) + 양자화(Quantization) #1
1. 문제점특정 제품에 특화된 AI 를 만들기 위해서 여러가지 조사를 진행 하였고, 문제점은 다음과 같다.RAM 부족내 Mac-MINI 의 사양은 Apple M2 16GB 이다.이전에 확인한 내용대로 Llama3.1 8B 로딩만을 위한 RAM 용량은 16GB 이고, 양자화가 되지 않은 모델은 메모리 부족으로 동작하지 않는 부분을 확인 하였다.트큰 부족페르소나(Persona)로 역활을 부여하고 사전 지식을 넣으면 특정 제품의 설명이 길어질 경우 사용자와 대화할때 토큰이 부족해 긴 대화를 이어가기 어렵다. 2. 해결 방법양자화 방법을 숙지하면 모든 문제가 해결될것 같아 GPT 를 괴롭히며 정보를 얻었고 다음과 같은 결론에 도달 하였다.1. LLaMA 3.1 8B를 Fine-tuning 한다.초기 LLaMA ..
Developer/LLM
2025. 4. 29. 09:56