✨ 개요
OpenAI Codex CLI는 개발자가 터미널 환경에서 ChatGPT 수준의 추론 능력과 함께, 코드 실행, 파일 조작, 버전 관리 등을 할 수 있게 돕는 가벼운 CLI 기반 코딩 에이전트입니다.
- 설정 없이 바로 사용 가능
- 디렉토리 샌드박스 + 네트워크 차단으로 안전성 확보
- 멀티모달 지원 (스크린샷, 다이어그램 등 입력)
- 완전한 오픈소스 (직접 수정, 기여 가능)
- 지원 OS: macOS 12+, Linux(Ubuntu 20.04+), Windows 11 (WSL2)
✅ 쉽게 말하면 "터미널에서 동작하는 ChatGPT + 파일/코드 조작기" 입니다.
🔒 보안 모델 및 권한 관리
Codex는 사용자에게 에이전트의 권한 수준을 선택하게 합니다. --approval-mode
플래그를 통해 3단계 권한 모드를 지정할 수 있습니다.
모드 | 읽기 | 쓰기/수정 | 쉘 명령 실행 |
---|---|---|---|
Suggest (기본) | O | 사용자 승인 필요 | 사용자 승인 필요 |
Auto Edit | O | 자동 적용 | 사용자 승인 필요 |
Full Auto | O | 자동 적용 | 자동 실행 (네트워크 차단, 디렉토리 제한) |
추가 보안 장치
- Git 관리 디렉토리 여부를 감지하여 안전 경고 표시
- 네트워크 연결 완전 차단 및 현재 작업 디렉토리 제한
✍️ 플랫폼별 샌드박싱
Codex는 운영체제별로 추가적인 격리 기능을 제공합니다.
OS | 방법 | 특징 |
---|---|---|
macOS 12+ | Apple Seatbelt (sandbox-exec) | 읽기 전용 영역 + 네트워크 차단 |
Linux | Docker 컨테이너 사용 (옵션) | 경량 이미지에서 실행 + 네트워크 차단 |
⚡ 참고: Linux에서는 기본적으로 Docker를 권장하지만 필수는 아닙니다.
📋 시스템 요구사항
- 운영체제: macOS 12+, Ubuntu 20.04+/Debian 10+, Windows 11(WSL2)
- Node.js: 22 이상 (LTS 권장)
- Git: 2.23+ (PR 보조 기능용)
- RAM: 최소 4GB (권장 8GB)
🖥️ CLI 명령어 및 사용 방법
기본 명령어
명령어 | 설명 |
---|---|
codex |
대화형 REPL 시작 |
codex "..." |
초기 프롬프트로 REPL 시작 |
codex -q "..." |
비대화형 조용한 모드 |
주요 플래그
--model / -m
: 사용할 AI 모델 지정--approval-mode / -a
: 권한 모드 지정--quiet / -q
: 조용한 모드
실전 사용 예시
codex "Refactor the Dashboard component to React Hooks"
→ React 클래스 컴포넌트를 Hook 기반으로 변환
codex "Generate SQL migrations for adding a users table"
→ SQL 마이그레이션 파일 생성 및 실행
codex "Look for vulnerabilities and create a security review report"
→ 보안 취약점 탐색 및 리포트 작성
📚 메모리 및 프로젝트 문서
Codex는 다음 우선순위로 Markdown 문서를 자동 병합하여 참고합니다.
~/.codex/instructions.md
(개인 지침)- 저장소 루트의
codex.md
- 현재 디렉토리의
codex.md
비활성화
codex --no-project-doc
# 또는
export CODEX_DISABLE_PROJECT_DOC=1
🛠️ 설치 및 설정 방법
설치
가장 간단한 방법은 npm 설치입니다.
npm install -g @openai/codex
환경변수 설정
export OPENAI_API_KEY="your-api-key-here"
※ .env
파일을 사용해도 자동 인식됩니다.
구성 파일 설정
~/.codex/config.yaml
또는 config.json
생성
model: o4-mini
approvalMode: suggest
fullAutoErrorMode: ask-user
notify: true
⚙️ CI/CD 파이프라인 통합 예시
GitHub Actions에서 Codex 자동화 사용
- name: Update changelog via Codex
run: |
npm install -g @openai/codex
export OPENAI_API_KEY="${{ secrets.OPENAI_KEY }}"
codex -a auto-edit --quiet "update CHANGELOG for next release"
🔍 보안 체크포인트
Codex CLI를 내부 사용자에게 안내할 때 주의할 점
- API 키 관리: .env 파일에 보관하고 최소 권한 원칙 적용
- 권한 모드 설정: 기본
Suggest
모드로 배포하고,Full Auto
는 사전 승인 후 사용 - 프로젝트 디렉토리 Git 관리: 실수 방지용 Git 초기화 필수
- 샌드박스 적용 여부 확인: macOS는 자동, Linux는 Docker 옵션 안내
- 네트워크 차단 검증: tcpdump, wireshark로 통신 차단 상태 점검 가능
- 비밀번호, 키, 민감 정보 필터링 설정: history 설정에서 필터링 패턴 추가
{
"history": {
"maxSize": 1000,
"saveHistory": true,
"sensitivePatterns": ["password", "secret", "api_key"]
}
}
🔥 Codex CLI 관련 다른 코딩 에이전트 비교
항목 | Codex CLI | Claude Code | Aider / Copilot / Continue |
---|---|---|---|
오픈소스 여부 | ✅ | ❌ | 혼합 |
터미널 친화성 | ✅ | ❌ (웹 위주) | 부분 지원 |
코드 이해력 | 중간 | 매우 우수 | 보통 |
설치 난이도 | 낮음 | 없음 (웹기반) | 다양함 |
자유도 | 높음 | 낮음 (폐쇄형) | 중간 |
🎯 결론: 오픈소스/터미널 환경 중시 ➔ Codex CLI 유리, 문서 품질 최우선 ➔ Claude Code 유리
- Codex CLI는 터미널 환경을 좋아하는 개발자에게 매우 이상적인 경량 AI 코딩 에이전트입니다.
- 보안 모드, 샌드박싱, API 키 관리에 주의하면서 사용하면 내부 시스템에서도 충분히 안전하게 운용할 수 있습니다.
- 현재는 완성도 면에서 Claude Code에 밀릴 수 있으나, 오픈소스 특성상 빠르게 발전할 가능성이 높습니다.
Codex CLI를 이용한 GitOps 자동화 예시
🎯 시나리오 설정
목표
infra/terraform
디렉토리에 있는 Terraform 코드에 변경사항이 생기면- Codex CLI가 이를 감지하고,
- 자동으로 Terraform Plan 실행 → 결과를 요약 → 변경사항을 Git PR로 제안합니다.
구성
- Git 저장소 (
GitHub
예시) - Codex CLI (터미널에서 실행)
- CI 파이프라인 통합 (GitHub Actions 예시)
📦 준비 사항
- Codex CLI 설치
npm install -g @openai/codex
- OpenAI API 키 등록
export OPENAI_API_KEY="your-api-key-here"
- Codex 구성 파일 설정 (~/.codex/config.yaml)
model: o4-mini approvalMode: auto-edit notify: true
- Git 저장소 준비
git clone https://github.com/your-org/infra-repo.git cd infra-repo
✍️ Codex 프롬프트 작성
Codex에 줄 명령어 예시는 다음과 같습니다.
codex "Detect changes in the terraform/ directory, run terraform plan, summarize the output, and prepare a Pull Request if changes are detected."
Codex의 역할
git diff
로 변경 탐지terraform plan
실행- 변경 사항 요약
- PR 템플릿 초안 작성
⚙️ GitHub Actions에 자동화 통합 예시
infra-repo/.github/workflows/codex-gitops.yml
name: Codex GitOps Automation
on:
push:
paths:
- 'terraform/**'
workflow_dispatch:
jobs:
codex-gitops:
runs-on: ubuntu-latest
steps:
- name: Checkout repository
uses: actions/checkout@v4
- name: Set up Node.js
uses: actions/setup-node@v4
with:
node-version: '22'
- name: Install Codex CLI
run: npm install -g @openai/codex
- name: Set up environment variables
run: echo "OPENAI_API_KEY=${{ secrets.OPENAI_API_KEY }}" >> $GITHUB_ENV
- name: Run Codex GitOps Automation
run: |
codex -a auto-edit --quiet "Detect changes in the terraform/ directory, run terraform plan, summarize the output, and prepare a Pull Request if changes are detected."
🎯 이 설정은 terraform/ 디렉토리에 변경이 있을 때마다 Codex가 자동으로 작업을 수행하게 합니다.
🛠️ Codex가 내부적으로 수행하는 작업 예시
Codex 내부에서 처리하는 흐름 요약
- 변경 감지
git diff --name-only HEAD~1 HEAD terraform/
- Terraform 초기화 및 Plan 실행
cd terraform/ terraform init terraform plan -out=plan.out terraform show -json plan.out > plan.json
- 요약 생성
cat plan.json | codex -q "Summarize this terraform plan in plain English."
- Git Branch 생성 및 PR 생성
git checkout -b codex-terraform-update git add . git commit -m "Codex: Terraform updates detected and summarized" git push origin codex-terraform-update gh pr create --title "Terraform Update via Codex" --body "This PR was automatically generated by Codex CLI after detecting infrastructure changes."
🔒 보안관점 점검해야 할 포인트
점검 항목 | 설명 |
---|---|
API 키 보호 | GitHub Secret 관리, 로그 출력 금지 |
Approval Mode 검토 | auto-edit 권장하지만 full-auto 는 상황에 따라 검토 |
디렉토리 범위 제한 | terraform/ 이하로만 변경 적용 권장 |
GitHub Token 권한 제한 | PR 생성만 허용 (repo:write 최소 권한 설정) |
테스트 환경 격리 | 실제 배포 전에 Staging 환경에서 충분히 테스트 |
Codex CLI를 사용하면 다음과 같은 GitOps 자동화를 쉽게 구현할 수 있습니다.
- 변경 감지 → 플랜 실행 → 결과 요약 → 자동 PR
- 완전 터미널 기반이며 추가 서버나 무거운 설정 없이 작동합니다.
- 보안 모델과 권한 관리를 적절히 적용하면 기업 환경에서도 안정적으로 운영 가능합니다.
📊 OpenAI o3 & o4-mini vs 주요 기능 요약 표
항목 | o3 | o4-mini |
---|---|---|
모델 성격 | 고성능, 심층 추론 특화 | 고효율, 빠른 응답 특화 |
주요 특징 | - 복잡한 문제 해결 - 멀티스텝 분석, 컨설팅 등 - 코드, 수학, 생물학에 탁월 |
- 빠르고 저렴 - 수학, 시각 문제에 최적 - 높은 응답량 처리에 강함 |
멀티모달 추론 | ✅ 이미지+텍스트 통합 추론 ✅ 흐릿한 이미지도 분석 가능 |
✅ 이미지 분석 지원 ✅ 빠른 시각 추론 |
도구 활용 능력 | 자동 도구 사용 (검색, 코드, 실행 등) → 예: 검색→코드생성→그래프 |
동일 기능 지원 (모든 도구 활용 가능) |
벤치마크 성능 | - Codeforces, SWE-bench 최고 기록 - o1 대비 20% 오류율 감소 |
- AIME 2024/2025 수학 성능 우수 - o3-mini보다 전반적 향상 |
비용 효율성 | o1 대비 낮은 비용으로 향상된 성능 | o3-mini 대비 뛰어난 성능/비용 비율 |
안정성 개선 | 위험 응답 자동 탐지 위험 대화 99% 탐지 성공 |
동일한 안전성 강화 학습 반영 |
Codex CLI 통합 | ✅ 고급 CLI 추론 에이전트로 활용 가능 | ✅ 경량 CLI 환경에 최적 |
사용자 접근 경로 | ChatGPT Plus/Pro/Team API 사용자 |
무료 사용자도 'Think' 선택 시 사용 가능 API 즉시 가능 |
추천 사용처 | 고난이도 분석, 전략적 사용, 컨설팅 도메인 | 빠른 대화, 반복 작업, 실시간 서비스 환경 |
🧠 기타 주요 기술 포인트 요약
구분 | 내용 |
---|---|
도구 기반 추론 | 모델이 필요 시 자동으로 웹 검색, 코드 실행, 이미지 분석 도구를 호출 |
Codex CLI | 터미널 기반 오픈소스 추론 도구. 코드와 이미지 연동, GitHub 제공 |
멀티모달 능력 | 사진, 스크린샷, 도식 이미지 등 복잡한 시각 자료를 추론에 활용 |
보안성 강화 | 생물·화학·악성코드 등 고위험 응답 필터링, LLM 기반 위험 감지 |
향후 방향성 | GPT의 자연스러운 대화 + o 시리즈의 추론 능력 융합 → 능동 도구 활용 대화형 모델 지향 |
🎯 활용 예시
예시 상황 | 수행 내용 |
---|---|
캘리포니아 여름 전력 사용량 예측 | 🔍 검색 → 🧠 코드 작성 → 📊 그래프 생성 |
흐릿한 손그림 분석 | 📸 이미지 업로드 → ✍️ 자동 회전/확대 처리 → 🧩 의미 추론 |
CLI에서 코드 리뷰 | codex "리포의 보안 취약점 찾아줘" → 자동 분석 & 리포트 출력 |
📊 OpenAI o3 & o4-mini vs Claude 3.7 vs Gemini Pro 2.5 비교 테이블
항목 | OpenAI o3 | OpenAI o4-mini | Claude 3.7 | Gemini Pro 2.5 |
---|---|---|---|---|
모델 성격 | 고성능·심화 추론 | 고속·경량 추론 | 고품질 장문 생성 특화 | 멀티모달 범용 모델 |
주요 장점 | 고난이도 분석, 정밀 추론 | 빠른 응답, 높은 효율 | 문서 요약/분석 탁월 고신뢰 응답 |
Google 서비스 연동 강점 시각+텍스트 통합 처리 |
멀티모달 기능 | ✅ 이미지+텍스트 고급 추론 | ✅ 경량 멀티모달 | ❌ 이미지 직접 인식 불가 (Pro+에서는 가능) |
✅ 이미지, 코드, 오디오 등 복합 데이터 지원 |
코딩 성능 | ✅ SWE-bench 최고 성능 ✅ 실행 기반 평가 가능 |
✅ 빠른 코드 응답 | ✅ 긴 코드 이해 우수 ✅ 단위 테스트 생성 능력 강함 |
✅ Google Colab 연동 가능 ✅ 분석적 응답 |
대화 스타일 | 분석형, 전략적 | 간결·실용적 | 정중하고 문장력이 뛰어남 | 중립적·설명 위주 |
도구 사용 | ✅ 웹 검색, 코드 실행, 이미지 처리 등 자동 도구 연동 (Codex CLI 포함) | ✅ 동일한 도구 연동 | ❌ Claude API는 외부 도구 자동화 미지원 | ✅ Web search, code, media 도구 기본 탑재 (Gemini Advanced) |
Codex CLI 통합 | ✅ 터미널에서 고급 사용 가능 | ✅ 경량 터미널 추론 지원 | ❌ 미지원 (웹/IDE 중심) | ❌ 직접적인 CLI 통합 없음 (웹/앱 중심) |
API 제공 | ✅ OpenAI API (o3, o4-mini 선택 가능) | ✅ 사용 가능 | ✅ Claude API (Anthropic) | ✅ Gemini API (Google AI Studio) |
접근 방식 | ChatGPT Plus/Team/Pro API 가능 |
무료 사용자도 일부 사용 가능 | Claude 웹 or API (유료 필요) | Google One 사용자, AI Studio, Gemini App 등 |
성능 벤치마크 | SWE-bench, MMMU 등 최상위권 | AIME 2025, 수학/코딩 효율 우수 | SWE-bench 최강 모델로 평가됨 | 다양한 멀티모달 벤치마크에서 상위권 |
비용 효율성 | 💰 고성능 중심 (API 단가 높음) | 💡 고효율 대비 성능 최적화 | 💸 비싼 편이지만 고성능 | 📈 상대적으로 저렴하며 Google 인프라 연계 |
안전성/거부 능력 | 고위험 응답 거부 강화 LLM 기반 감시 탑재 |
동일한 안전 강화 적용 | 위험 대화 회피 잘함 단, “모른다” 응답 많음 |
비교적 균형 잡힌 거부 정책 |
🔎 요약 추천 가이드
목적 | 추천 모델 |
---|---|
복잡한 문제 해결, 도구 활용 중심 업무 | 🟢 OpenAI o3 |
빠른 응답, 저비용 대량 응답 | 🟢 OpenAI o4-mini |
문서 요약, 논리적 코드 리뷰, 기술 글쓰기 | 🟡 Claude 3.7 |
시각+텍스트 문제 해결, Google 연동 | 🔵 Gemini Pro 2.5 |
✅ Codex CLI 활용 여부 기준
모델 | CLI 연동 | 실행 가능한 환경 |
---|---|---|
OpenAI o3/o4-mini | ✅ Codex CLI 완전 통합 | 터미널 (macOS/Linux/WSL) |
Claude 3.7 | ❌ CLI 미지원 | 웹 UI, Slack 플러그인, API |
Gemini Pro 2.5 | ❌ CLI 직접 사용 불가 | 웹(Gemini), Colab, Android 앱 |
댓글