
로컬 LLM 런타임에서 “에이전트형 개발 워크스페이스”로의 진화
이번 Ollama 0.24 업데이트는 단순한 기능 추가 수준이 아니라, Ollama의 방향성이 크게 바뀌고 있다는 점에서 매우 중요합니다.
기존 Ollama는 주로 다음과 같은 역할이었습니다.
- 로컬 LLM 실행
- 모델 다운로드 및 관리
- OpenAI 호환 API 제공
- 로컬 AI 실험 환경
하지만 이번 업데이트 이후에는 다음 영역까지 확장되고 있습니다.
- AI 에이전트 기반 개발환경
- Git 기반 병렬 작업
- Worktree 기반 격리 개발
- UI Annotation 기반 코드 수정
- 브라우저 내 코드 수정 루프
- 로컬 + 클라우드 하이브리드 AI 워크플로우
- Agent IDE 스타일 개발 환경
즉,
“로컬 AI 모델 실행기” → “AI 기반 개발 작업 플랫폼”
으로 진화 중이라고 볼 수 있습니다. AI가 브라우저를 보고 코드를 수정
핵심 업데이트 요약
실행 명령
ollama launch codex-app
또는 공식 문서 기준
ollama launch codex
이 명령은 단순히 모델을 실행하는 것이 아니라
- Codex App 실행
- 모델 연결
- 에이전트 개발환경 구성
- Git 연동
- Worktree 준비
- Browser 연계
등을 자동화합니다.
이번 구조의 핵심 개념
이번 업데이트를 이해하려면 아래 구조를 이해해야 합니다.
| 구성요소 | 역할 |
|---|---|
| Ollama | 모델 실행 및 연결 허브 |
| Codex App | AI 개발 워크스페이스 |
| Thread | 병렬 작업 단위 |
| Worktree | Git 기반 독립 작업 공간 |
| Built-in Browser | UI 기반 Annotation |
| Review Mode | AI 코드 리뷰 |
| Tool Calling | 에이전트 작업 수행 |
| Cloud Model | 대형 추론/Agent 모델 |
| Local Model | 로컬 추론 모델 |
가장 중요한 변화 — Thread + Worktree
이 부분이 사실상 핵심입니다.
기존 AI IDE 방식의 한계
기존 Cursor / Copilot 스타일:
- 하나의 작업 컨텍스트
- 현재 브랜치 직접 수정
- 변경 충돌 발생 가능
- 여러 실험 병행 어려움
예시
main branch
├── auth 수정
├── RBAC 수정
├── refactor
└── bugfix
AI가 동시에 수정하면 충돌 가능성이 매우 큼.
Worktree 기반 병렬 구조
Codex App는
- Thread 생성
- 각 Thread를 Git Worktree에 연결
합니다.
repo/
├── main
├── worktree-auth
├── worktree-rbac
└── worktree-refactor
형태가 됩니다.
왜 Worktree가 중요한가
Git Worktree는
- 하나의 저장소
- 여러 작업 디렉토리
- 각기 다른 branch
- 독립 작업 가능
이라는 특징이 있습니다.
예시
git worktree add ../feature-auth feature/auth
git worktree add ../feature-rbac feature/rbac
결과
../feature-auth
../feature-rbac
각각 독립 실행 가능.
AI 에이전트와 Worktree의 조합
이 구조가 중요한 이유는 AI Agent가 동시에 여러 작업을 수행할 수 있기 때문입니다.
예시
| Thread | 역할 |
|---|---|
| Thread A | OAuth2 구현 |
| Thread B | UI 리팩토링 |
| Thread C | 테스트 추가 |
| Thread D | RBAC 수정 |
각 작업이 서로 충돌하지 않음.
Built-in Browser의 의미
이 부분도 상당히 중요합니다.
기존 AI 개발 흐름
코드 수정
→ 브라우저 이동
→ 새로고침
→ 문제 확인
→ 다시 IDE 이동
반복.
Codex Browser 구조
Codex App는 내부 브라우저 제공.
지원
- localhost
- 내부 웹앱
- 개발 서버
- 정적 사이트
예시
http://localhost:3000
http://127.0.0.1:8080
Annotation 기반 수정
핵심은 이것입니다.
사용자
- UI 특정 부분 클릭
- 코멘트 추가
예시
"이 버튼 색상 수정"
"로그인 에러 처리 개선"
"여기 RBAC 권한 체크 추가"
그러면 Agent가
- 관련 코드 탐색
- 수정
- 테스트
- diff 생성
까지 수행.
사실상 “Visual AI Coding”
이건 단순 채팅형 AI가 아닙니다.
Browser
+ DOM
+ Screenshot
+ Annotation
+ Local Source
+ Git
+ Tool Calling
“UI를 보고 코드 수정”
이라는 루프가 가능해집니다.
Review Mode
이 기능도 중요합니다.
기존 흐름
- GitHub PR 생성
- 브라우저 이동
- 코드 리뷰
- 수정 요청
이 필요함.
Codex Review Mode
앱 내부에서
- diff 확인
- 코드 리뷰
- 코멘트
- 재수정
- 반복
가능.
AI 수정
→ Review
→ Comment
→ AI 재수정
루프가 내부에서 끝남.
Agent Workflow 관점에서 보면
이번 구조는 사실상:
IDE
+
Git Client
+
Browser
+
Review Tool
+
LLM Agent
통합입니다.
모델 전략 변화
Ollama는 이제
- 로컬 모델
- 클라우드 모델
혼합 전략으로 가고 있습니다.
Strong Agent Model
예시
| 모델 | 특징 |
|---|---|
| kimi-k2.6:cloud | 강력한 reasoning |
| glm-5.1:cloud | Agent 성능 우수 |
| qwen3-coder | 코드 생성 우수 |
특징
- 멀티스텝 작업
- 코드 탐색
- Refactor
- Tool Calling
- UI 기반 수정
에 적합.
Tool Calling 안정성 모델
예시
| 모델 | 특징 |
|---|---|
| nemotron-3-super | 안정적 Tool 호출 |
| gemma4:31b | 비교적 안정 |
| qwen3.6 | 경량 운영 가능 |
왜 Tool Calling이 중요한가
에이전트 구조에서는
생각
→ 도구 실행
→ 결과 분석
→ 다음 작업
이 필요합니다.
도구 예시
- git
- grep
- browser
- terminal
- test runner
- filesystem
Agent IDE의 본질
실제로는
LLM Chat
이 아니라
LLM Orchestrator
입니다.
- 파일 읽기
- 검색
- 실행
- 테스트
- 브라우저 확인
- 커밋
을 orchestrate.
Cursor / Windsurf와의 경쟁
이번 업데이트로 Ollama는 직접 경쟁 구도에 들어갑니다.
| 제품 | 특징 |
|---|---|
| Cursor | 상용 AI IDE |
| Windsurf | Agent IDE |
| Copilot Workspace | GitHub 기반 Agent |
| Codex App | OpenAI Agent Workspace |
| Ollama + Codex | Local-first Agent |
가장 중요한 차이점
Ollama의 핵심 강점
Local-first
- 자체 모델 가능
- 자체 인프라 가능
- 내부망 가능
- 에어갭 가능성
- 자체 API 가능
보안 관점에서 매우 중요한 부분
하지만 “완전 로컬”이라고 보면 안 됩니다.
Cloud Model 사용 시
:cloud
모델 사용 시
- 프롬프트
- 코드
- 컨텍스트
가 외부 추론 환경으로 이동 가능.
반드시 검토할 항목
1) 데이터 유출 가능성
확인 항목
- source code
- secret
- token
- 내부 URL
- infra config
- API key
2) 모델 라우팅
실제로 어떤 모델이 호출되는가?
local
or
cloud
구분 필요.
3) Tool Permission
Agent가
- shell 실행
- git push
- 파일 삭제
- npm install
가능한가? 권한 범위 정의 필요.
4) 브라우저 신뢰 경계
Built-in Browser는
- untrusted context
로 보는 것이 안전.
- 내부 관리자 페이지
- 인증 페이지
- 운영 시스템
직접 연결 주의.
5) 자동 Commit/Push 위험
AI가
git push
자동 수행 가능한 경우
- branch protection
- review policy
- signing
필요.
내부망/보안 환경 활용 전략
추천 구조
Developer PC
├── Ollama
├── Local Model
├── Codex App
├── Internal Git
└── Internal Package Registry
권장 보안 통제
네트워크
차단 권장
- 임의 외부 API
- 임의 MCP
- 임의 tool install
Git
필수
- Protected branch
- Mandatory review
- Signed commit
Secret
필수
- Secret scanning
- pre-commit hook
- DLP
DevSecOps 관점에서 엄청 중요한 이유
이 구조는 결국
AI가 실제 코드를 수정
하기 때문입니다.
- 단순 추천 AI
→ 아니다
이제는
- 실행형 AI
- 수정형 AI
- 작업형 AI
앞으로 예상되는 방향
이번 업데이트는 시작에 불과할 가능성이 큽니다.
향후 예상
- Multi-agent orchestration
- autonomous testing
- autonomous PR generation
- CI/CD integration
- security review agent
- architecture agent
- SAST agent
- infra remediation agent
실제 활용 예시
보안/인프라 조직에서는 매우 강력할 수 있습니다.
사례 1 — Kubernetes RBAC 점검
Thread A
"ClusterRole 과도 권한 탐지"
Thread B
"NetworkPolicy 미적용 namespace 탐지"
Thread C
"OPA Gatekeeper 정책 자동 생성"
병렬 수행 가능.
사례 2 — 보안 리팩토링
Browser에서
"이 로그인 흐름 MFA 적용"
→ Agent가
- Backend 수정
- UI 수정
- API 수정
- Test 생성
수행 가능.
사례 3 — DevSecOps Agent
Agent에게
"이 repo의 secret leakage 점검"
→ 수행 가능
- grep
- trufflehog
- semgrep
- git history scan
한 줄 요약
이번 Ollama 0.24 + Codex App 업데이트의 본질은
“로컬 AI 모델 실행기”에서
“Git·Browser·Worktree 기반의 에이전트 개발 플랫폼”
으로 진화했다는 점입니다.
특히
- Worktree 기반 병렬 작업
- Browser Annotation
- Agent Tool Calling
- Review Loop
- Local-first 구조
는 향후 AI 개발환경의 핵심 방향이 될 가능성이 매우 높습니다.
댓글