Sim Studio는 에이전트 기반 워크플로우를 구축, 테스트, 최적화할 수 있는 웹 기반 오픈소스 플랫폼입니다. 이 플랫폼은 시각적 UI를 통해 비개발자도 쉽게 사용할 수 있으며, Docker 기반 셀프 호스팅이 가능합니다. Mac에서는 Qwen3 모델을 활용한 로컬 코딩 자동화 시스템을 결합하면 클라우드 의존 없이 완전한 로컬 AI 개발 환경을 구축할 수 있습니다. 아래는 Sim Studio와 Mac 기반 Qwen3 모델 연동 로컬 AI 개발 환경 구축 가이드를 정리한 종합 매뉴얼입니다.
Sim Studio 개요 및 아키텍처
Sim Studio는 시각적 워크플로우 설계와 에이전트 기반 자동화를 지원하는 웹 UI 플랫폼입니다.
기술 스택 요약
구성 요소 | 기술 |
---|---|
프론트엔드 | Next.js (App Router), Zustand |
백엔드 | Node.js + PostgreSQL (Drizzle ORM) |
인증 | Better Auth |
UI | Shadcn, Tailwind CSS |
워크플로우 | React Flow |
문서화 | Fumadocs |
라이선스 | Apache 2.0 |
Sim Studio 설치 및 실행 (Docker 기반)
필수 조건
- Docker 및 Docker Compose
- Git, Bash, 기본적인 CLI 툴
설치 단계
1. 저장소 클론
git clone https://github.com/YOUR_USERNAME/sim.git
cd sim
2. 환경 설정
cp sim/.env.example sim/.env
# .env 파일 편집하여 다음 항목 설정
# BETTER_AUTH_SECRET=<임의의 시크릿 문자열>
# DATABASE_URL=postgres://postgres:postgres@db:5432/simstudio
3. Docker Compose 실행
docker compose up -d --build
4. 웹 UI 접속
- http://localhost:3000/w/ 접속
유틸리티 명령어 (Docker)
# 서비스 로그
docker compose logs -f simstudio
# DB 접속
docker compose exec db psql -U postgres -d simstudio
# 종료
docker compose down
# 재빌드
docker compose up -d --build
로컬 LLM 연결 (Ollama)
Sim Studio는 Ollama 서버와 통신 가능하며, 모델을 직접 실행할 수 있습니다.
모델 다운로드 및 실행
# Ollama CLI 사용 시
ollama pull mistral
ollama run mistral
Sim Studio에서 Ollama 연결 방법
방법 1: host 네트워크
docker compose up --profile local-cpu -d --build --network=host
방법 2: docker-compose.yml 수정
services:
simstudio:
extra_hosts:
- "host.docker.internal:host-gateway"
environment:
- OLLAMA_HOST=http://host.docker.internal:11434
VS Code Dev Container 활용
설정 절차
- VS Code 또는 Cursor 설치
- Dev Containers 확장 설치
- 저장소 열기 → "Reopen in Container"
컨테이너 내에서 실행
npm run dev
# 또는
sim-start
Mac에서 Qwen3-30B MLX 모델 실행 (Apple Silicon 전용)
환경 구성
1. MLX 설치
pip install mlx mlx-lm
2. Qwen3 모델 서버 실행
mlx_lm.server --model mlx-community/Qwen3-30B-A3B-8bit --trust-remote-code --port 8082
✅ 서버는 http://127.0.0.1:8082/v1/에서 OpenAI 호환 REST API로 작동함
Localforge를 통한 모델 관리
Localforge 접속
- https://localforge.dev
Qwen3 모델 등록
항목 | 값 |
---|---|
이름 | qwen3:mlx:30b |
타입 | openai |
URL | http://127.0.0.1:8082/v1/ |
API 키 | (빈 값 가능) |
Ollama 보조 모델 등록 (예: Gemma3)
항목 | 값 |
---|---|
이름 | LocalOllama |
타입 | ollama |
모델 | gemma3:latest |
에이전트 구성 예시 (Localforge 기준)
항목 | 설정 값 |
---|---|
에이전트 이름 | qwen3-agent |
메인 모델 | qwen3:mlx:30b |
보조 모델 | LocalOllama |
기능 | 코드 생성, 디렉토리 탐색, HTML/CSS/JS 자동 생성, 게임 제작 등 |
Sim Studio의 워크플로우 내에서 해당 에이전트를 JSON API로 호출해 활용 가능.
전체 통합 구조 요약
[MacBook M1/M2/M3]
├── Sim Studio (로컬 웹 UI)
├── Ollama (로컬 모델 - Gemma3)
├── MLX (Qwen3-30B 모델 실행)
├── Localforge (모델 에이전트 조합)
└── VS Code (코드 편집 및 실행)
모든 요소는 로컬에서 실행되며, 인터넷 없이 작동 가능
항목 | 설명 |
---|---|
💰 무료 | Qwen3, Gemma3, Localforge, Sim Studio 모두 오픈소스 |
🧠 고성능 | Qwen3-30B-A3B는 GPT-4 대체 가능성 언급될 만큼 우수한 성능 |
🧩 모듈성 | 메인/보조 모델 분리 → 효율적 작업 분담 가능 |
🖥️ 로컬 독립 | 인터넷 없이 완전 자율 실행 가능 |
🎮 재미 요소 | 웹사이트, 게임, 도구 자동 생성 등 진정한 "vibe coding" 실현 |
보안 점검 포인트
항목 | 점검 내용 |
---|---|
🔐 인증 구성 | .env 파일 내 BETTER_AUTH_SECRET 안전하게 관리 |
🧩 외부 API 제한 | MLX는 외부 인증 불필요하므로 로컬 IP에서만 바인딩 권장 |
📦 Docker 보안 | --network=host 사용 시, 방화벽 정책 또는 Docker network 제한 설정 필요 |
💾 데이터베이스 | PostgreSQL 접속 제한 (pg_hba.conf 조정 또는 인증 강화) |
📜 로그 관리 | docker compose logs 출력은 syslog 또는 파일 기반 로깅으로 보존 가능 |
🚫 공개 방지 | 기본 포트(3000, 8082)는 외부 접근 불가하도록 방화벽 설정 권장 |
진정한 로컬환경 기반 Vibe 코딩을 위한 최적의 조합
Sim Studio + Qwen3 (MLX) + Localforge 조합은 다음과 같은 장점을 가집니다.
- Sim Studio는 워크플로우 설계와 테스트에 적합
- Qwen3 (MLX)는 로컬에서 실제 대형 모델을 실행 가능
- Localforge는 두 모델을 에이전트 구조로 조합하여 시각적 도구까지 실행 가능
이 조합을 활용하면 MacBook 하나로 수백 달러 이상의 코딩 자동화 시스템을 무료로 구현할 수 있습니다. 시각적 UI를 통한 에이전트 루프 구성, 툴 실행, 코드 생성까지 가능한 종합 개발 환경을 구축하여 클라우드 서비스에 의존하지 않고도 고급 AI 개발 환경을 구축할 수 있습니다.
- ✅ 클라우드 비용 없음
- ✅ 시각적 워크플로우 + 코드 생성
- ✅ 고성능 모델을 Mac에서 직접 실행
- ✅ 인터넷 없이 완전 독립 실행
- ✅ 로컬 디버깅 + 에이전트 조합으로 확장성 확보
댓글