일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- 양자화
- persona
- Fine Tuning
- apache
- 파인튜닝
- Claude
- Quantization
- SwiftUI
- WWDC
- OSX
- apple gpu
- finetuning
- VirtualBox
- swift
- Llama
- LLM
- MacOS
- vibe coding
- MCP
- php
- HTTP
- AI
- MAC
- Xcode
- IOS
- ai 모델 학습시키기
- ollama
- 정보관리기술사
- python
- 클로드
- Today
- Total
목록Quantization (3)
Project Jo
구글 코랩을 이용한 파인 튜닝 코드를 작성하다 보면 다들 된다는 내용이 나는 되지 않는걸 확인할수 있다.(나만 찾을수 없는건지 코드 내용을 이해하지 못하는건지...)작성이 완성된 코드를 여기에 정리하고, 최종 목표인 특정 제품에 대한 전문 AI 를 만들수 있도록 준비해 보겠다. 1. colab 환경에서 필요한 라이브러리 설치#@title colab 환경에서 필요한 라이브러리 설치!pip install -q transformers datasets peft accelerate bitsandbytes 2. 허깅페이스 로그인#@title 허깅페이스 로그인from huggingface_hub import notebook_loginnotebook_login() 3. 데이터 준비 (전채를 학습하는 코드)#@title..
지금까지 많은 자료를 찾아가며 파인 튜닝에 대한 접근을 진행해 왔다.FineTuning: 메모리 부족으로 llama3.1 8B 를 실행할수 없어서 포기Persona: 사전 지식이 많아지면 llama3.1 8B 의 프롬프트 갯수를 초과할수 있는 단점이 있어 포기LangChain: 정확도가 떨어지며 속도가 몹시 느려서 포기그러나 Apple 의 메일에서 "머신 러닝 튜토리얼 시작하기" 라는 링크가 보여 클릭해 보니 Xcode 의 Create ML 앱 영상 몇개를 보다보니 WWDC 에서 "Apple GPU에서 머신 러닝 및 AI 모델 학습시키기" 영상이 있는것이 아닌가!!Apple GPU에서 머신 러닝 및 AI 모델 학습시키기해당 영상을 보면서 다시한번 양자화가 가능하다면 로컬에서 파인튜닝에 문제가 없을것으로 ..
1. 문제점특정 제품에 특화된 AI 를 만들기 위해서 여러가지 조사를 진행 하였고, 문제점은 다음과 같다.RAM 부족내 Mac-MINI 의 사양은 Apple M2 16GB 이다.이전에 확인한 내용대로 Llama3.1 8B 로딩만을 위한 RAM 용량은 16GB 이고, 양자화가 되지 않은 모델은 메모리 부족으로 동작하지 않는 부분을 확인 하였다.트큰 부족페르소나(Persona)로 역활을 부여하고 사전 지식을 넣으면 특정 제품의 설명이 길어질 경우 사용자와 대화할때 토큰이 부족해 긴 대화를 이어가기 어렵다. 2. 해결 방법양자화 방법을 숙지하면 모든 문제가 해결될것 같아 GPT 를 괴롭히며 정보를 얻었고 다음과 같은 결론에 도달 하였다.1. LLaMA 3.1 8B를 Fine-tuning 한다.초기 LLaMA ..