로컬 LLM·셀프호스팅 허브



로컬 LLM·셀프호스팅 허브

직접 모델을 내려받아 돌리거나, 개인 AI 워크스페이스를 셀프호스팅하는 흐름을 중심으로 정리했습니다.

빠른 선택 카드

터미널 중심으로 빠르게 시작

로컬 LLM을 가장 빠르게 체험하려면 Ollama부터 시작하는 편이 쉽고, API 기반 실험까지 바로 이어집니다.

난이도: 입문 환경: Win/macOS/Linux 추천: 개발자

GUI 중심으로 모델 바꿔보기

터미널보다 화면 기반 사용이 편하면 LM Studio가 진입 장벽이 낮고, 모델 교체와 성능 비교도 직관적입니다.

난이도: 입문 환경: 데스크톱 앱 추천: 일반 사용자

셀프호스팅 워크스페이스 확장

개인/팀 단위로 여러 모델을 하나의 웹 UI에서 관리하고 싶다면 Open WebUI 흐름으로 확장하는 것이 좋습니다.

난이도: 중급 환경: Docker/pip 추천: 운영 사용자

장비 한계부터 이해하기

맥 사용자라면 설치 전에 통합 메모리 구조와 모델 크기별 체감을 먼저 이해하면 시행착오를 줄일 수 있습니다.

난이도: 입문 형식: 하드웨어 이해 추천: macOS 사용자

환경별 빠른 선택표

도구 UI 잘 맞는 환경 메모리/장비 감각 대표 글
Ollama CLI Windows / macOS / Linux 터미널 중심, 빠른 시작 Ollama 설치와 사용법
LM Studio GUI Windows / macOS / Linux 데스크톱에서 모델을 쉽게 바꿔보는 용도 LM Studio 설치와 사용법
Open WebUI 웹 UI Docker / pip 가능한 환경 여러 모델과 워크스페이스를 브라우저로 묶을 때 Open WebUI 설치와 사용법
OpenClaw 채팅형 UI 개인 AI 비서 흐름 채팅 앱 중심 자동화 감각 OpenClaw 설치와 사용법
Apple Silicon 맥 장비 관점 macOS 통합 메모리로 로컬 LLM 체감이 갈림 Apple Silicon 통합 메모리 글

추천 순서

  1. 처음 로컬 LLM을 맛보려면 Ollama 또는 LM Studio 중 하나만 먼저 고릅니다.
  2. CLI/API 중심이면 Ollama, GUI 중심이면 LM Studio가 더 편합니다.
  3. 모델을 여러 명이 같이 쓰거나 개인 워크스페이스처럼 운영하려면 Open WebUI까지 확장합니다.
  4. 맥 사용자라면 설치보다 먼저 Apple Silicon 통합 메모리 글을 보고 내 장비 한계를 이해하는 편이 훨씬 덜 헤맵니다.

먼저 비교할 글

설치와 운영 가이드

같이 보면 좋은 개념 글