로컬 LLM·셀프호스팅 허브
로컬 LLM·셀프호스팅 허브
직접 모델을 내려받아 돌리거나, 개인 AI 워크스페이스를 셀프호스팅하는 흐름을 중심으로 정리했습니다.
환경별 빠른 선택표
| 도구 | UI | 잘 맞는 환경 | 메모리/장비 감각 | 대표 글 |
|---|---|---|---|---|
| Ollama | CLI | Windows / macOS / Linux | 터미널 중심, 빠른 시작 | Ollama 설치와 사용법 |
| LM Studio | GUI | Windows / macOS / Linux | 데스크톱에서 모델을 쉽게 바꿔보는 용도 | LM Studio 설치와 사용법 |
| Open WebUI | 웹 UI | Docker / pip 가능한 환경 | 여러 모델과 워크스페이스를 브라우저로 묶을 때 | Open WebUI 설치와 사용법 |
| OpenClaw | 채팅형 UI | 개인 AI 비서 흐름 | 채팅 앱 중심 자동화 감각 | OpenClaw 설치와 사용법 |
| Apple Silicon 맥 | 장비 관점 | macOS | 통합 메모리로 로컬 LLM 체감이 갈림 | Apple Silicon 통합 메모리 글 |
추천 순서
- 처음 로컬 LLM을 맛보려면
Ollama또는LM Studio중 하나만 먼저 고릅니다. CLI/API 중심이면 Ollama,GUI 중심이면 LM Studio가 더 편합니다.- 모델을 여러 명이 같이 쓰거나 개인 워크스페이스처럼 운영하려면 Open WebUI까지 확장합니다.
- 맥 사용자라면 설치보다 먼저
Apple Silicon 통합 메모리글을 보고 내 장비 한계를 이해하는 편이 훨씬 덜 헤맵니다.
먼저 비교할 글
- 로컬 LLM 시작 가이드: Ollama, LM Studio, llama.cpp를 어떻게 고를까
- Apple Silicon 통합 메모리는 왜 로컬 LLM에 유리할까? VRAM 관점으로 이해하기
- 램·SSD·M4 Mac mini는 왜 비싸게 느껴질까? AI 시대 메모리 가격의 이유
설치와 운영 가이드
- Ollama 설치와 사용법: Windows, macOS, Linux에서 로컬 LLM 바로 돌리기
- LM Studio 설치와 사용법: 데스크톱에서 로컬 AI 모델을 가장 쉽게 다루는 법
- Open WebUI 설치와 사용법: Docker와 pip로 셀프호스팅 AI 워크스페이스 만들기
- OpenClaw 설치와 사용법: 개인 AI 비서를 채팅 앱에 붙이는 법
같이 보면 좋은 개념 글
- RAG란 무엇인가? 검색, 파인튜닝, 메모리와 어떻게 다른가
- MCP란 무엇인가? AI 에이전트의 USB-C를 이해하는 가장 쉬운 설명
- CLI란 무엇인가? 개발자와 AI 에이전트가 터미널을 사랑하는 이유