AI
AI
지금 이 블로그의 AI 글은 크게 다섯 갈래입니다.
- 지금 어떤 서비스를 써야 할지 고르는 비교 글
- 설치해서 바로 써보는 도구 가이드
- 로컬 LLM과 셀프호스팅 흐름
- 음악, 그림, 사진, 영상 생성 AI
- MCP, RAG, Eval 같은 개념형 글
처음 들어왔다면 아래 순서대로 읽는 편이 가장 덜 헤맵니다.
빠른 시작 카드
AI 코딩 도구 허브
Codex, Claude Code, Cursor, Copilot, Gemini CLI처럼 코드 작업에 바로 쓰는 도구를 모았습니다.
난이도: 입문~중급 플랫폼: CLI/IDE 추천: 개발자
AI 브라우저·리서치 허브
Comet, Leo, Copilot Mode, Labs, Deep Research 흐름을 비교 중심으로 정리했습니다.
난이도: 입문 플랫폼: 웹/브라우저 추천: 리서치 사용자
로컬 LLM·셀프호스팅 허브
Ollama, LM Studio, Open WebUI, OpenClaw까지 로컬 실행과 운영 관점으로 이어집니다.
난이도: 입문~중급 플랫폼: Win/macOS/Linux 추천: 파워유저
생성형 창작 AI 허브
음악, 이미지, 영상 생성 AI를 실제 사용 목적 기준으로 고르기 쉽게 묶었습니다.
난이도: 입문 플랫폼: 웹 중심 추천: 크리에이터
실무용 AI·워크플로우 허브
프롬프트, MCP, RAG, Eval, Computer Use처럼 업무에 붙이는 구조를 중심으로 정리합니다.
난이도: 중급 플랫폼: 업무 도구 연동 추천: 실무자
목적별 빠른 시작표
| 목적 | 먼저 들어갈 허브 | 가장 먼저 읽을 글 | 다음 단계 |
|---|---|---|---|
| 코딩 도구를 고르고 싶을 때 | AI 코딩 도구 허브 | 2026 프론티어 모델 비교 | 설치 글, 워크플로우 허브 |
| 브라우저형 AI와 리서치 흐름이 궁금할 때 | AI 브라우저·리서치 허브 | AI 브라우저 비교 | Perplexity Labs, 딥리서치 |
| 로컬 LLM과 셀프호스팅을 시작할 때 | 로컬 LLM·셀프호스팅 허브 | 로컬 LLM 시작 가이드 | Ollama, LM Studio, Open WebUI |
| 음악, 그림, 사진, 영상 AI를 보고 싶을 때 | 생성형 창작 AI 허브 | 생성형 창작 AI 입문 | 음악, 이미지, 영상 비교 글 |
| MCP, RAG, 프롬프트 같은 개념부터 잡고 싶을 때 | 실무용 AI·워크플로우 허브 | 프롬프트 엔지니어링 가이드 | MCP, RAG, Eval, A2A |
추천 경로
- 처음엔
프론티어 모델 비교로 큰 그림을 잡고, 그 다음 목적에 맞는 허브 하나로 내려가는 편이 가장 덜 헷갈립니다. - 설치와 실사용이 목적이면
코딩 도구 허브,브라우저·리서치 허브,로컬 LLM 허브중 하나를 먼저 고르면 됩니다. - 일반 사용자 관심사에 가까운 흐름부터 보고 싶다면
생성형 창작 AI 허브가 진입 장벽이 가장 낮습니다. - 업무에 실제로 붙이는 구조까지 보고 싶다면 마지막에
실무용 AI·워크플로우 허브로 넘어가면 연결이 자연스럽습니다.
클러스터별로 보기
처음 시작할 때
- 2026 프론티어 모델 비교: ChatGPT, Gemini, Claude, Grok를 어떻게 고를까
- AI 브라우저 비교: Perplexity Comet vs Brave Leo vs Copilot Mode in Edge
- 생성형 창작 AI 입문: 음악, 그림, 사진, 영상 AI를 2026년에 어떻게 고를까
설치해서 바로 써보기
- Gemini CLI 설치와 사용법: 터미널에서 구글 Gemini 에이전트 시작하기
- Codex CLI 설치와 사용법: 터미널에서 OpenAI 코딩 에이전트 시작하기
- Claude Code 설치와 사용법: Anthropic 코딩 에이전트를 터미널에 붙이는 법
- Cursor 설치와 사용법: AI 에디터에서 Agent, Tab, Rules 제대로 쓰기
- GitHub Copilot 설치와 사용법: VS Code, JetBrains, 웹에서 바로 쓰기
로컬 LLM과 셀프호스팅
- 로컬 LLM 시작 가이드: Ollama, LM Studio, llama.cpp를 어떻게 고를까
- Ollama 설치와 사용법: Windows, macOS, Linux에서 로컬 LLM 바로 돌리기
- LM Studio 설치와 사용법: 데스크톱에서 로컬 AI 모델을 가장 쉽게 다루는 법
- Open WebUI 설치와 사용법: Docker와 pip로 셀프호스팅 AI 워크스페이스 만들기
- Apple Silicon 통합 메모리는 왜 로컬 LLM에 유리할까? VRAM 관점으로 이해하기
브라우저, 리서치, 업무형 AI
- Perplexity Comet 설치와 사용법: AI 브라우저를 Windows와 Mac에서 시작하는 법
- Brave Leo 사용법: 브라우저 안 AI 비서와 BYOM, Ollama 연결까지
- Copilot Mode in Edge 사용법: AI 브라우저로 바뀐 엣지를 어디까지 쓸 수 있나
- Perplexity Labs란 무엇인가? 검색을 넘어 보고서와 산출물까지 만드는 모드
- Gemini in Docs, Sheets, Slides, Drive 사용법: Google Workspace AI를 어디까지 쓸 수 있나
생성형 창작 AI
- 음악 생성 AI 비교와 사용법: Suno, Udio, 그리고 창팝 시대의 감각
- 그림·사진 생성 AI 비교: ChatGPT 이미지, Midjourney, Firefly를 어떻게 고를까
- 영상 생성 AI 비교: Sora, Veo, Runway를 어떻게 고를까
개념을 먼저 잡고 싶다면
- MCP란 무엇인가? AI 에이전트의 USB-C를 이해하는 가장 쉬운 설명
- RAG란 무엇인가? 검색, 파인튜닝, 메모리와 어떻게 다른가
- 딥리서치란 무엇인가? AI가 답변을 넘어 조사하는 방식
- AI Eval이란 무엇인가? 벤치마크보다 중요한 실전 검증
- A2A란 무엇인가? MCP 다음에 이해해야 할 에이전트 간 통신 표준