본문 바로가기

클라우드 없이 로컬 LLM 기반 개발 자동화: Sim Studio + Qwen3 구축 실전 가이드

728x90

Sim Studio는 에이전트 기반 워크플로우를 구축, 테스트, 최적화할 수 있는 웹 기반 오픈소스 플랫폼입니다. 이 플랫폼은 시각적 UI를 통해 비개발자도 쉽게 사용할 수 있으며, Docker 기반 셀프 호스팅이 가능합니다. Mac에서는 Qwen3 모델을 활용한 로컬 코딩 자동화 시스템을 결합하면 클라우드 의존 없이 완전한 로컬 AI 개발 환경을 구축할 수 있습니다. 아래는 Sim StudioMac 기반 Qwen3 모델 연동 로컬 AI 개발 환경 구축 가이드를 정리한 종합 매뉴얼입니다.

Sim Studio 개요 및 아키텍처

Sim Studio는 시각적 워크플로우 설계와 에이전트 기반 자동화를 지원하는 웹 UI 플랫폼입니다.

기술 스택 요약

구성 요소 기술
프론트엔드 Next.js (App Router), Zustand
백엔드 Node.js + PostgreSQL (Drizzle ORM)
인증 Better Auth
UI Shadcn, Tailwind CSS
워크플로우 React Flow
문서화 Fumadocs
라이선스 Apache 2.0
300x250

Sim Studio 설치 및 실행 (Docker 기반)

필수 조건

  • Docker 및 Docker Compose
  • Git, Bash, 기본적인 CLI 툴

설치 단계

1. 저장소 클론

git clone https://github.com/YOUR_USERNAME/sim.git
cd sim

2. 환경 설정

cp sim/.env.example sim/.env
# .env 파일 편집하여 다음 항목 설정
# BETTER_AUTH_SECRET=<임의의 시크릿 문자열>
# DATABASE_URL=postgres://postgres:postgres@db:5432/simstudio

3. Docker Compose 실행

docker compose up -d --build

4. 웹 UI 접속

  • http://localhost:3000/w/ 접속

유틸리티 명령어 (Docker)

# 서비스 로그
docker compose logs -f simstudio

# DB 접속
docker compose exec db psql -U postgres -d simstudio

# 종료
docker compose down

# 재빌드
docker compose up -d --build

로컬 LLM 연결 (Ollama)

Sim Studio는 Ollama 서버와 통신 가능하며, 모델을 직접 실행할 수 있습니다.

모델 다운로드 및 실행

# Ollama CLI 사용 시
ollama pull mistral
ollama run mistral

Sim Studio에서 Ollama 연결 방법

방법 1: host 네트워크

docker compose up --profile local-cpu -d --build --network=host

방법 2: docker-compose.yml 수정

services:
  simstudio:
    extra_hosts:
      - "host.docker.internal:host-gateway"
    environment:
      - OLLAMA_HOST=http://host.docker.internal:11434

VS Code Dev Container 활용

설정 절차

  1. VS Code 또는 Cursor 설치
  2. Dev Containers 확장 설치
  3. 저장소 열기 → "Reopen in Container"

컨테이너 내에서 실행

npm run dev
# 또는
sim-start

Mac에서 Qwen3-30B MLX 모델 실행 (Apple Silicon 전용)

환경 구성

1. MLX 설치

pip install mlx mlx-lm

2. Qwen3 모델 서버 실행

mlx_lm.server --model mlx-community/Qwen3-30B-A3B-8bit --trust-remote-code --port 8082

✅ 서버는 http://127.0.0.1:8082/v1/에서 OpenAI 호환 REST API로 작동함

Localforge를 통한 모델 관리

Localforge 접속

  • https://localforge.dev

Qwen3 모델 등록

항목
이름 qwen3:mlx:30b
타입 openai
URL http://127.0.0.1:8082/v1/
API 키 (빈 값 가능)

Ollama 보조 모델 등록 (예: Gemma3)

항목
이름 LocalOllama
타입 ollama
모델 gemma3:latest

에이전트 구성 예시 (Localforge 기준)

항목 설정 값
에이전트 이름 qwen3-agent
메인 모델 qwen3:mlx:30b
보조 모델 LocalOllama
기능 코드 생성, 디렉토리 탐색, HTML/CSS/JS 자동 생성, 게임 제작 등

Sim Studio의 워크플로우 내에서 해당 에이전트를 JSON API로 호출해 활용 가능.

전체 통합 구조 요약

[MacBook M1/M2/M3]
   ├── Sim Studio (로컬 웹 UI)
   ├── Ollama (로컬 모델 - Gemma3)
   ├── MLX (Qwen3-30B 모델 실행)
   ├── Localforge (모델 에이전트 조합)
   └── VS Code (코드 편집 및 실행)

모든 요소는 로컬에서 실행되며, 인터넷 없이 작동 가능

항목 설명
💰 무료 Qwen3, Gemma3, Localforge, Sim Studio 모두 오픈소스
🧠 고성능 Qwen3-30B-A3B는 GPT-4 대체 가능성 언급될 만큼 우수한 성능
🧩 모듈성 메인/보조 모델 분리 → 효율적 작업 분담 가능
🖥️ 로컬 독립 인터넷 없이 완전 자율 실행 가능
🎮 재미 요소 웹사이트, 게임, 도구 자동 생성 등 진정한 "vibe coding" 실현

보안 점검 포인트

항목 점검 내용
🔐 인증 구성 .env 파일 내 BETTER_AUTH_SECRET 안전하게 관리
🧩 외부 API 제한 MLX는 외부 인증 불필요하므로 로컬 IP에서만 바인딩 권장
📦 Docker 보안 --network=host 사용 시, 방화벽 정책 또는 Docker network 제한 설정 필요
💾 데이터베이스 PostgreSQL 접속 제한 (pg_hba.conf 조정 또는 인증 강화)
📜 로그 관리 docker compose logs 출력은 syslog 또는 파일 기반 로깅으로 보존 가능
🚫 공개 방지 기본 포트(3000, 8082)는 외부 접근 불가하도록 방화벽 설정 권장

진정한 로컬환경 기반 Vibe 코딩을 위한 최적의 조합

Sim Studio + Qwen3 (MLX) + Localforge 조합은 다음과 같은 장점을 가집니다.

  • Sim Studio는 워크플로우 설계와 테스트에 적합
  • Qwen3 (MLX)는 로컬에서 실제 대형 모델을 실행 가능
  • Localforge는 두 모델을 에이전트 구조로 조합하여 시각적 도구까지 실행 가능

이 조합을 활용하면 MacBook 하나로 수백 달러 이상의 코딩 자동화 시스템을 무료로 구현할 수 있습니다. 시각적 UI를 통한 에이전트 루프 구성, 툴 실행, 코드 생성까지 가능한 종합 개발 환경을 구축하여 클라우드 서비스에 의존하지 않고도 고급 AI 개발 환경을 구축할 수 있습니다.

  • 클라우드 비용 없음
  • 시각적 워크플로우 + 코드 생성
  • 고성능 모델을 Mac에서 직접 실행
  • 인터넷 없이 완전 독립 실행
  • 로컬 디버깅 + 에이전트 조합으로 확장성 확보
728x90
그리드형(광고전용)

댓글