본문 바로가기

에이전트6

728x90
‘앱을 여는 시대’에서 ‘의도를 말하는 시대’ LLM이 커널인 AI OS가 시작된다 AI OS란 무엇인가: “의도(Intent) 중심 운영 계층”전통 OS(Windows/Linux)가 CPU·메모리·파일·프로세스 같은 하드웨어/커널 자원을 관리했다면, 요즘 말하는 AI OS는 중심이 바뀝니다.핵심 추상화가 “프로세스/스레드” → “의도/작업/에이전트”로 이동사용자는 “앱 실행”이 아니라 자연어로 목표(결과)를 지시하고,시스템은 LLM/에이전트가 도구(툴)·데이터·앱·API를 오케스트레이션해 일을 끝냅니다.연구 측면에선 “AIOS: LLM Agent Operating System”이 대표적으로 에이전트를 OS의 관리 대상으로 놓고, 커널이 스케줄링/컨텍스트/메모리/스토리지/접근제어를 제공하는 구조를 제안합니다. 클라우드/엔터프라이즈 관점에선 “AI 워크로드 운영(모델 배포·관측·비용·가속.. 2026. 1. 24.
GPT-5.2 에이전트형 업무(Agentic Work), 데이터 분석 자동화 최적화 모델 GPT-5.2는 OpenAI가 새로 공개한 최신·최상위 프론티어 모델로, 특히 에이전트형 업무(Agentic Work), 코딩, 문서·데이터 분석, 고객지원 자동화에 최적화된 모델입니다. ChatGPT(유료 플랜)와 OpenAI API(Responses / Chat Completions / Batch)에서 사용할 수 있고, 기존 GPT-5·5.1 대비 성능은 크게 올라가고 비용은 약 40% 비싸진 플래그십 라인이라고 보시면 됩니다.GPT-5.2의 핵심 포지션실제 업무용 에이전트 최적화 모델장기적인 멀티스텝 작업(분석 → 계획 수립 → 코드 작성/실행 → 보고서 작성)을 도구 호출과 결합해서 끝까지 수행하는 용도에 초점.Notion, Box, Databricks, Hex 같은 SaaS 업체들이 복잡하고 모.. 2025. 12. 13.
MCP 도구를 코드로 토큰 98% 절감, Anthropic 방식 컨텍스트 오염 제거 배경과 문제 정의MCP(Model Context Protocol) 는 에이전트가 외부 시스템(Drive, Salesforce, Slack, GitHub, DB 등)에 연결하는 표준 프로토콜입니다. 도구가 늘수록 “도구 정의(스키마/설명)”와 “중간 결과”가 컨텍스트를 잠식해 비용·지연이 급증합니다.Anthropic은 “도구를 직접 호출하지 말고, 도구를 코드 API로 노출한 뒤 모델이 코드를 작성·실행”하도록 구조를 바꾸면, 150K → 2K 토큰(≈98.7% 절감) 이 가능하다고 설명합니다.왜 느려지고 비싸지는가?도구 정의 오염: 수백·수천 개 도구의 스키마/설명이 컨텍스트를 선점.중간 데이터 왕복: 대용량 결과(예: 5만 토큰 문서)를 모델 컨텍스트로 가져왔다가 다음 도구 호출 파라미터로 다시 밀어 .. 2025. 11. 12.
IDE 속의 AI 코딩 에이전트: Cursor·Cline·Copilot 비교와 권장 조합 안녕하세요! 요청하신 글을 바탕으로, 최신 동향과 실사용 관찰을 합쳐 추천·도입 가이드를 체계적으로 정리했습니다.한눈에 보는 선택 가이드 (TL;DR)깃허브 중심·자동 PR 루프→ GitHub Copilot Coding Agent (이슈 할당→VM 구성→드래프트 PR→인간 승인)AWS 스택·IDE 안에서 /doc·/test·/review→ Amazon Q Developer (에이전트: /dev, /doc, /test, /review, /transform)VS Code에서 ‘사람-승인-루프’가 확실한 오픈소스→ Cline (터미널 실행·파일 편집·브라우저 구동·MCP 툴 확장)VS Code 포크형 통합 IDE + 에이전트→ Cursor (에이전트/매뉴얼/백그라운드 등 모드, 대규모 코드 편집에 강점) — .. 2025. 10. 3.
코딩 도구도 AI 시대! Claude Code vs Copilot vs Aider – 6종 비교 Claude Code 워크플로우 $claude-code>Python으로 웹 스크래퍼 만들어줘>requirements.txt도 생성해줘>에러 처리 로직 추가해줘분석 중... █→ ClaudeAI Agent→생성된 코드# main.pyimport requestsfrom bs4 import BeautifulSoupdef scrape_website(url): try: response = requests.get(url) response.raise_for_status() return BeautifulSoup(response.content) except Exception as e: print(f"오류: {e}")# requirements.txtr.. 2025. 6. 7.
728x90
728x90