Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- VirtualBox
- IOS
- Ventura
- 애플인텔리전스
- AI
- MAC
- finetuning
- 앱 인텐트
- Security as a Service
- langchain
- error outputting keys and certificates
- app intents
- ollama
- provisioning file path
- Xcode
- Homomorphic Encryption
- SwiftUI
- HTTP
- 정보관리기술사
- apache
- pipelines
- apple intelligence
- Llama
- persona
- 동형 암호
- OSX
- swift
- FastAPI
- LLM
- php
Archives
- Today
- Total
Project Jo
Ollama 외부 접근 on Mac 본문
Ollama 는 localhost 만 접속이 허용된다. 따라서 외부에서 접근하기 위해서는 바인딩 IP 를 0.0.0.0 으로 설정해 줘야 한다.
* 바인딩 IP 란 접속을 허용하는 IP 를 의미한다. (0.0.0.0 은 모든 접근을 허용)
아래 명령어를 터미널에서 입력 후 Ollama 를 재시작 한다.
launchctl setenv OLLAMA_HOST "0.0.0.0:11434"
설정 방법 공식 사이트 설명
https://github.com/ollama/ollama/blob/main/docs/faq.md#how-do-i-configure-ollama-server
ollama/docs/faq.md at main · ollama/ollama
Get up and running with Llama 3.3, DeepSeek-R1, Phi-4, Gemma 3, and other large language models. - ollama/ollama
github.com
외부 PC 에서 CURL 로 테스트를 진행하면 정상적으로 동작 하는지 확인이 가능하다.
'Developer > LLM' 카테고리의 다른 글
Python 서버 만들기 (0) | 2025.04.15 |
---|---|
페르소나(Persona) (0) | 2025.04.14 |
FineTuning (0) | 2025.04.14 |
Role과 Content의 개념 (0) | 2025.04.08 |
Llama 3.1 on Mac (0) | 2024.09.08 |