Agentic AI(에이전틱 AI), Generative AI(생성형 AI), Model Context Protocol(MCP)는 모두 최신 AI 기술과 관련된 개념이지만, 각각의 목적과 특성이 다릅니다. 각 개념에 대한 기본 정의와 특성, 차이점, 활용 사례 등을 통해서 비교해 봅니다.
1. Agentic AI (에이전틱 AI)
기본 정의와 배경정보
- Agentic AI란 목표를 달성하기 위해 자율적으로 계획을 세우고 능동적으로 행동하는 인공지능 시스템을 의미합니다.
- 기존 AI는 입력된 데이터를 기반으로 정적인 결과를 도출하는 반면, Agentic AI는 목표 설정, 상황 인지, 의사 결정, 계획 실행, 결과 평가까지 스스로 수행 가능한 자율성이 강조된 형태입니다.
주요 특성
- 자율성 (Autonomy): 독립적으로 목표 달성 계획을 수립하고 실행함.
- 상황인지 및 판단력 (Context-awareness): 변화하는 상황에 따라 적응적으로 판단.
- 능동적 상호작용 (Proactive interaction): 사용자나 환경 변화에 대해 능동적으로 대응하고 작업을 수행함.
활용 사례
- AutoGPT, BabyAGI 등 자체적으로 목표 설정 및 반복적으로 작업 수행이 가능한 AI 에이전트.
- 보안 운영 자동화(SOAR) 등 보안 분야에서의 위협 탐지·대응 자동화.
- 스마트 홈, 자율 주행 차량 등 환경적 변화를 능동적으로 처리하는 시스템 구축.
점검 포인트
- Agentic AI는 자율적 판단 및 결정으로 인해 예상치 못한 행동을 수행할 수 있으므로, AI의 행동 범위를 제한하고 통제할 수 있는 정책과 프로토콜이 필요.
- AI의 의사결정 및 행동 로그 기록·모니터링 필수.
- AI가 외부 서비스, 인프라와 상호작용 시 접근 권한과 인증 방식 명확히 설정.
2. Generative AI (생성형 AI)
기본 정의와 배경정보
- Generative AI는 새로운 콘텐츠(텍스트, 이미지, 코드, 비디오 등)를 생성하는 AI 기술입니다.
- 대표적으로 ChatGPT, GPT-4, DALL-E, Midjourney 등 다양한 생성형 모델이 존재합니다.
- 주로 사전 학습된 모델이 입력 프롬프트를 받아 출력물을 생성합니다.
주요 특성
- 창의성 (Creativity): 콘텐츠 생성에 중점을 두어 새로운 결과물을 만들어 냄.
- 확률적 결과 (Probabilistic results): 매번 다른 결과를 제공할 수 있음.
- Prompt 기반: 입력된 명령어(Prompt)에 따라 결과물이 달라짐.
활용 사례
- 마케팅 및 콘텐츠 제작 분야(블로그 글 작성, 제품 소개, 광고 이미지 등).
- 소스코드 자동 작성 및 검토(GitHub Copilot 등).
- 챗봇, 가상 비서 등과 같은 사용자 질의 응답 및 대화형 서비스.
점검 포인트
- 생성된 콘텐츠의 저작권 및 데이터 프라이버시 침해 여부 점검 필요.
- Generative AI의 악용(허위 정보 생성, 딥페이크 등)을 방지하기 위한 입력 프롬프트 제한 및 윤리적 가이드라인 적용.
- 내부 데이터의 모델 학습 사용 여부를 엄격히 통제 및 관리.
3. Model Context Protocol (MCP, 모델 컨텍스트 프로토콜)
기본 정의와 배경정보
- Model Context Protocol(MCP)이란 AI 모델과 사용자가 상호작용하는 과정에서, AI 모델이 주어진 상황 및 맥락(context)을 더 잘 이해하고 이에 기반하여 적합한 결과물을 생성하도록 지원하는 프로토콜입니다.
- MCP는 특히, AI 모델이 문맥을 유지하고 정확히 이해하기 위해 설계된 구조적인 정보 교환 방식이며, AI 서비스의 정확도와 효율성을 높이기 위해 사용됩니다.
주요 특성
- 맥락 유지 (Context maintenance): AI와의 상호작용 과정에서 일관된 맥락 정보를 유지함.
- 구조적 프로토콜 (Structured protocol): 사용자가 명확한 구조로 AI 모델과 맥락 정보를 공유하여 정확한 응답을 얻도록 설계.
- 정보 재사용 (Information reuse): 이전 대화나 요청에서 얻은 정보 및 맥락을 재사용하여 효율성 극대화.
활용 사례
- 고객 지원 챗봇 및 가상 비서에서 대화 맥락 유지.
- 복잡한 업무 프로세스에서 AI 모델이 단계별로 문맥 유지하여 작업 수행.
- IT/보안 영역에서의 AI 기반 분석 및 사고 대응 시 일관된 맥락 유지로 정확한 판단 지원.
점검 포인트
- 맥락 정보가 정확히 전달 및 관리되는지에 대한 무결성 점검.
- 민감정보 또는 개인 정보가 MCP를 통해 노출되지 않도록 정보 보호 체계 구축.
- 맥락이 유지되는 기간, 범위, 삭제 시점 등을 명확하게 정의 및 관리 필요.
Agentic AI vs Generative AI vs MCP 비교
구분 | Agentic AI (에이전틱 AI) | Generative AI (생성형 AI) | Model Context Protocol(MCP) |
---|---|---|---|
주 목적 | 자율적 목표 달성과 능동적 행동 | 창의적이고 다양한 콘텐츠 생성 | 모델의 정확한 문맥 유지와 활용 |
자율성 | 매우 높음 | 제한적 (프롬프트 의존) | 제한적 (명시적 Context 의존) |
창의성 | 목표 달성에 필요한 정도 | 매우 높음 (창의적 결과물 중시) | 제한적 (맥락 내 정확성 강조) |
주요 활용분야 | 자동화 에이전트, 보안대응 자동화 | 콘텐츠 제작, 챗봇, 코드 생성 | 챗봇, 복잡한 업무 수행 및 분석 |
대표 사례 | AutoGPT, BabyAGI | GPT-4, ChatGPT, DALL-E, Midjourney | 고객지원 챗봇, IT운영 자동화 |
보안관점 핵심점검 사항 | 행동 로그 모니터링, 접근통제 | 악성콘텐츠 방지, 프롬프트 제한 | 맥락정보 관리, 개인정보 보호 |
보안 담당자로서 내부 사용자에게 전달할 메시지
- Agentic AI 활용 시 의도치 않은 자율적 행동 발생에 대한 대비 및 통제가 필수적임.
- Generative AI는 악용 가능성에 대한 정책과 윤리적 사용 기준이 필요.
- MCP는 정확한 맥락 유지로 효율을 높이지만 개인정보 노출에 주의해야 함.
이러한 개념들을 명확히 구분하여 AI 시스템의 설계, 도입, 운영 과정에서 기술적, 관리적, 정책적 관점을 균형 있게 고려해야 합니다. Model Context Protocol(MCP)과 API Gateway의 개념은 언뜻 보면 비슷할 수 있으나 실제 목적, 역할, 운영 방식, 사용 시나리오에 명확한 차이가 있습니다. 두 개념을 비교합니다.
1. MCP(Model Context Protocol)의 개념 및 특징
정의
- MCP는 AI 모델과 사용자 간의 대화나 상호작용 과정에서 '맥락(context)'을 유지·관리하여, AI 모델이 정확하고 일관된 결과를 제공하도록 돕는 프로토콜 또는 구조적 상호작용 방식입니다.
주요 특성
- 맥락 유지(Contextual Integrity): AI가 사용자의 요청을 수행할 때, 이전 요청 및 답변에서 획득한 문맥을 기억하고 유지.
- 구조화된 상호작용: 맥락 정보를 구조적이고 체계적인 형태로 AI 모델에 전달하여 오해나 혼란을 최소화.
- 상태 관리(State Management): 지속적인 문맥 유지로 대화 흐름에서 자연스러운 사용자 경험 제공.
활용 사례
- AI 챗봇의 연속적인 대화 이해.
- 복잡한 고객지원, 상담 업무 등에서의 일관성 있는 대화 유지.
- 프로세스 자동화 및 분석 업무 시 단계별 문맥을 정확히 파악하도록 지원.
2. API Gateway의 개념 및 특징
정의
- API Gateway는 다양한 백엔드 서비스 및 마이크로 서비스들에 대한 단일 진입점(entry point)을 제공하는 서버로, 클라이언트 요청의 라우팅, 인증·인가, 로드밸런싱, 모니터링, 로깅 등의 역할을 수행합니다.
주요 특성
- 단일 진입점(Single Entry Point): 다양한 서비스를 하나의 통로로 접근할 수 있도록 제공.
- 요청 라우팅 및 전달(Routing and Forwarding): 요청을 적합한 백엔드 서비스로 전달.
- 인증/인가(Authentication/Authorization): 접근제어 및 인증 역할 수행.
- 로드밸런싱(Load Balancing): 서비스의 부하 분산 관리.
- 모니터링/로깅(Monitoring/Logging): API 호출 현황 및 성능 관리.
- 보안 강화(Security Enhancement): API 보호, 보안정책 적용(방화벽, 레이트 제한, WAF 등).
활용 사례
- 대규모 마이크로서비스 환경.
- 다양한 클라이언트 요청을 처리하는 서비스 플랫폼.
- 서비스 간의 통신 관리 및 보안 정책 적용이 필요한 환경.
3. MCP와 API Gateway 비교 분석 표
항목 | MCP (Model Context Protocol) | API Gateway |
---|---|---|
목적 | AI 모델과 사용자 간 정확한 문맥 유지 | 다수의 서비스로 접근을 통합 관리 |
핵심 기능 | 문맥 유지 및 상태 관리 | 라우팅, 인증, 로드밸런싱, 보안 관리 |
관리 대상 | 주로 AI와 사용자 간 문맥 | 클라이언트 요청과 백엔드 서비스 |
상태성 (Stateful) | 상태 유지(Stateful, Context-sensitive) | 주로 Stateless (상태정보 관리 없음) |
사용 시나리오 | 챗봇, 상담 등 연속적 문맥 유지 | 대규모 서비스 환경, 마이크로서비스 |
기술적 구현 | 주로 Application Layer (Session 관리) | 주로 Infrastructure Layer (Proxy 서버 기반) |
보안 관점 | 문맥 정보의 무결성 및 개인정보 보호 | 접근 제어, 인증, API 보안 강화 |
주요 기술 및 제품 예시 | ChatGPT의 컨텍스트 관리, 챗봇의 세션관리 기술 | AWS API Gateway, Kong, Apigee 등 |
4. MCP와 API Gateway의 공통점과 차이점 분석
공통점
- 둘 다 중간에서 요청과 응답의 효율적인 관리를 목적으로 합니다.
- 양쪽 모두 구조적이고 체계적인 방식으로 요청을 처리하도록 도와줍니다.
차이점
- 목적 차이: MCP는 문맥 유지와 상태 관리가 핵심이고, API Gateway는 서비스 요청 관리와 라우팅 및 보안이 핵심입니다.
- 대상 차이: MCP는 주로 AI 모델과 최종 사용자 간 상호작용을 다루고, API Gateway는 서비스와 클라이언트 간 상호작용을 관리합니다.
- 기술 계층 차이: MCP는 애플리케이션 레이어에서 세션 관리나 상태관리가 중요하지만, API Gateway는 인프라 또는 네트워크 계층에서 Proxy 서버처럼 동작합니다.
- 상태성 차이: MCP는 문맥과 상태를 지속적으로 관리(Stateful)하며, API Gateway는 대부분 요청 단위로 상태를 유지하지 않고(Stateless), 개별 요청을 독립적으로 처리합니다.
5. 내부 사용자 대상 보안 가이드 및 점검 포인트
MCP 적용 시 보안 점검 포인트
- 문맥정보(Session 정보)의 보호 및 유출 방지(개인정보, 민감정보 등).
- 맥락 정보 저장 및 처리 시 암호화 적용 여부 점검.
- 문맥정보 접근 및 관리 권한 명확화.
API Gateway 적용 시 보안 점검 포인트
- API 인증(Authentication) 및 인가(Authorization) 적용 여부 점검.
- API Endpoint 보호(WAF, Rate-limit, DDOS 방어 등) 상태 점검.
- 로깅 및 모니터링의 적절성 점검(이상징후 감지, 사고대응 등).
두 개념의 차이점을 정리하면 다음과 같습니다.
- MCP는 주로 AI 모델의 맥락과 사용자 간 상호작용의 정확성을 유지하는 프로토콜입니다. 상태관리 및 문맥 유지가 핵심입니다.
- API Gateway는 서비스 접근과 보안 관리를 목적으로 다양한 API 요청을 단일화된 방식으로 처리하고 라우팅하는 인프라 및 네트워크 요소입니다.
두 개념이 비슷하게 느껴질 수 있지만 실제로는 완전히 목적과 용도, 기술적 구현 방식이 다릅니다. 다만, MCP를 구현할 때 API Gateway와 같은 인프라 구성요소를 활용하여 상태정보 관리나 문맥 유지 기능을 보완하는 형태로 사용될 수는 있습니다. 기존에 API Gateway를 통해 서비스 환경을 구축하여 운영 중이라면, 이와 연계하여 MCP(Model Context Protocol) 구조를 추가 구성해 AI 프롬프트 기반 서비스를 구축할 수 있습니다.
Kong을 기반으로 MCP를 구성하고, 이를 통해 프롬프트 기반 AI 서비스와의 연계 방법입니다.
[1단계] 개요 및 구성 방안
현재 구성된 시스템 구조는 다음과 같습니다.
클라이언트 ↔️ Kong API Gateway ↔️ 백엔드 서비스
여기에 MCP 구조를 추가하면 다음과 같은 구조가 됩니다.
클라이언트 ↔️ Kong API Gateway ↔️ MCP(컨텍스트 관리) ↔️ AI 모델(API)
- Kong은 MCP와의 통신 시 요청을 전달하고 인증, 라우팅, 로깅을 수행합니다.
- MCP 서버는 문맥을 관리하여 AI 모델로 정확한 프롬프트를 전달하는 중간 애플리케이션 서버입니다.
- AI 모델은 OpenAI나 자체 운영 LLM 서버를 의미합니다.
[2단계] MCP 구성 방법
구성환경 예시
- Kong API Gateway (운영 중)
- MCP 서버: Python + FastAPI 구성 예시
- AI 모델 예시: OpenAI API (GPT-4 등)
목적: 사용자의 요청에 따른 상태 유지 및 문맥 관리
① MCP 환경 구성 (FastAPI 설치 및 환경 구성)
설치 명령어 예시
pip install fastapi uvicorn openai redis
fastapi
: REST API 서버uvicorn
: 서버 실행openai
: AI 모델과의 연결redis
: 문맥 정보 저장 (빠른 상태관리 가능)
② 디렉토리 구조
mcp-server/
├── main.py
├── context_manager.py
└── config.py
MCP 서버 주요 코드 작성 예시
파일: config.py
(설정 관리)
import os
OPENAI_API_KEY = os.getenv("OPENAI_API_KEY")
REDIS_HOST = 'localhost'
REDIS_PORT = 6379
REDIS_DB = 0
파일: context_manager.py
(컨텍스트 관리 모듈)
import redis
import json
from config import REDIS_HOST, REDIS_PORT, REDIS_DB
r = redis.Redis(host=REDIS_HOST, port=REDIS_PORT, db=REDIS_DB)
class ContextManager:
@staticmethod
def get_context(session_id):
context = r.get(session_id)
if context:
return json.loads(context)
return []
@staticmethod
def update_context(session_id, user_input, ai_response):
context = ContextManager.get_context(session_id)
context.append({"user": user_input, "ai": ai_response})
r.set(session_id, json.dumps(context), ex=3600) # 만료시간 1시간
@staticmethod
def clear_context(session_id):
r.delete(session_id)
파일: main.py
(메인 서버 구성)
from fastapi import FastAPI, Request
from context_manager import ContextManager
from config import OPENAI_API_KEY
import openai
import uvicorn
openai.api_key = OPENAI_API_KEY
app = FastAPI()
@app.post("/prompt")
async def generate_prompt(request: Request):
body = await request.json()
session_id = body.get("session_id")
user_input = body.get("prompt")
# 기존 맥락 불러오기
context = ContextManager.get_context(session_id)
messages = [{"role": "system", "content": "You are an assistant."}]
for msg in context:
messages.append({"role": "user", "content": msg["user"]})
messages.append({"role": "assistant", "content": msg["ai"]})
# 사용자 현재 입력 추가
messages.append({"role": "user", "content": user_input})
# OpenAI 모델 호출
response = openai.ChatCompletion.create(
model="gpt-4",
messages=messages,
max_tokens=500,
temperature=0.7
)
ai_response = response.choices[0].message.content
# 맥락 업데이트
ContextManager.update_context(session_id, user_input, ai_response)
return {"response": ai_response}
@app.delete("/context/{session_id}")
async def clear_session(session_id: str):
ContextManager.clear_context(session_id)
return {"status": "cleared"}
if __name__ == "__main__":
uvicorn.run(app, host="0.0.0.0", port=8000)
실행 명령어
uvicorn main:app --host 0.0.0.0 --port 8000 --reload
[3단계] Kong API Gateway에서 MCP 연계 설정
Kong을 통해 MCP 서버로 요청을 라우팅합니다.
Kong 서비스 생성 예시
curl -X POST http://localhost:8001/services \
--data name=mcp-service \
--data url='http://<MCP서버_IP>:8000'
Kong Route 추가 예시
curl -X POST http://localhost:8001/services/mcp-service/routes \
--data 'paths[]=/mcp' \
--data methods[]=POST
이렇게 하면 클라이언트에서 Kong의 /mcp
로 오는 요청이 MCP 서버의 /prompt
로 라우팅됩니다.
[4단계] 클라이언트 사용 예시
클라이언트 요청 예시 (cURL)
curl -X POST http://<Kong서버_IP>/mcp \
-H "Content-Type: application/json" \
-d '{"session_id": "user123", "prompt": "AI 보안 강화 방안 추천해줘."}'
응답 예시(JSON)
{
"response": "AI 보안 강화를 위해 AI 모델 접근권한 관리, 입력 프롬프트 필터링 및 로깅, 모델 결과물 검증 등을 추천합니다."
}
[5단계] 내부 사용자 보안 관점 체크리스트
MCP 구성 및 운영 시 다음 사항 점검
- MCP 서버 접근 권한 제한 및 인증 설정 필수(Kong 인증 플러그인 등).
- Redis 문맥 정보 저장소 보호(접근제어, 데이터 암호화).
- OpenAI API 키 관리 철저 (환경변수 사용 및 키 유출 방지).
- 민감 정보(개인정보 등)가 문맥으로 저장되지 않도록 프롬프트 검증 필터링 추가 권장.
구성 요약
클라이언트
⬇️
Kong API Gateway (라우팅, 인증, 로깅)
⬇️
MCP 서버 (FastAPI + Redis로 컨텍스트 관리)
⬇️
AI API 서비스 (OpenAI GPT-4 등)
위와 같은 구성을 통해 Kong 기반 API Gateway 운영 환경에서 MCP를 활용하여 AI 프롬프트 관리가 가능해집니다. 이를 통해 정확하고 맥락이 유지된 프롬프트로 AI 서비스 활용성을 높이고, 보안적으로도 체계적인 통제와 관리를 달성할 수 있습니다.
반대의 경우는 즉, 사용자가 AI 프롬프트로 요청을 하면 AI가 MCP를 거쳐 기존 운영 중인 Kong API Gateway로 요청을 보내 데이터를 가져와 정보를 취합·정리하여 사용자에게 반환하는 방식입니다.
[1단계] 구성 개요 및 흐름
아래와 같은 구조로 구성됩니다.
사용자
⬇️
AI 프롬프트 요청 (예: "최근 접속 이력 알려줘")
⬇️
MCP서버 (문맥 관리 + Kong API 호출 로직)
⬇️
Kong API Gateway (기존 API 서비스)
⬇️
Backend 서비스 (기존 시스템 데이터 반환)
⬇️
MCP (반환된 데이터를 다시 AI에게 전달)
⬇️
AI 모델 (정보 취합 및 정리)
⬇️
MCP 서버 (최종 응답 반환)
⬇️
사용자
[2단계] MCP 서버에 Kong API 호출 기능 추가하기
기존 MCP서버 구성(FastAPI)에 Kong API 호출 기능을 추가합니다.
필요 라이브러리 설치 (requests
)
pip install requests
[3단계] MCP서버 코드 추가 (FastAPI 예시)
구조 업데이트 예시
mcp-server/
├── main.py
├── context_manager.py
├── config.py
└── api_client.py (추가)
api_client.py
(Kong API 호출)
import requests
KONG_API_URL = 'http://<Kong서버_IP>'
class KongAPIClient:
@staticmethod
def call_api(endpoint, method='GET', headers=None, params=None, data=None):
url = f"{KONG_API_URL}{endpoint}"
response = requests.request(
method=method,
url=url,
headers=headers,
params=params,
json=data,
timeout=5
)
if response.status_code == 200:
return response.json()
else:
return {"error": response.status_code, "message": response.text}
[4단계] MCP 메인 서버 로직 수정
main.py
(AI가 Kong API 통해 데이터 요청 및 처리 로직 추가)
from fastapi import FastAPI, Request
from context_manager import ContextManager
from api_client import KongAPIClient
from config import OPENAI_API_KEY
import openai
import uvicorn
openai.api_key = OPENAI_API_KEY
app = FastAPI()
@app.post("/prompt")
async def generate_and_fetch(request: Request):
body = await request.json()
session_id = body.get("session_id")
user_input = body.get("prompt")
# 문맥 가져오기
context = ContextManager.get_context(session_id)
messages = [{"role": "system", "content": "You are an assistant."}]
for msg in context:
messages.append({"role": "user", "content": msg["user"]})
messages.append({"role": "assistant", "content": msg["ai"]})
messages.append({"role": "user", "content": user_input})
# AI로부터 Kong API 호출 위한 endpoint 추출 프롬프트 (중요!)
messages.append({"role": "system", "content": "요청에 필요한 API endpoint와 parameter를 JSON 형태로 제공해줘."})
# Endpoint 추출
endpoint_response = openai.ChatCompletion.create(
model="gpt-4",
messages=messages,
temperature=0
)
try:
endpoint_info = eval(endpoint_response.choices[0].message.content.strip())
endpoint = endpoint_info.get("endpoint")
params = endpoint_info.get("params", {})
except Exception as e:
return {"error": "Endpoint 파싱 실패", "details": str(e)}
# Kong API Gateway 통해 Backend 데이터 호출
api_response = KongAPIClient.call_api(endpoint=endpoint, params=params)
# API 결과를 AI가 자연어로 변환
summarization_prompt = f"""
사용자의 원래 요청: '{user_input}'
API를 통해 얻은 데이터: '{api_response}'
위 데이터를 바탕으로 사용자가 쉽게 이해할 수 있도록 자연스러운 문장으로 요약 정리해줘.
"""
messages_summary = [{"role": "system", "content": summarization_prompt}]
final_response = openai.ChatCompletion.create(
model="gpt-4",
messages=messages_summary,
max_tokens=500,
temperature=0.7
)
ai_response = final_response.choices[0].message.content
# 문맥 업데이트
ContextManager.update_context(session_id, user_input, ai_response)
return {"response": ai_response}
if __name__ == "__main__":
uvicorn.run(app, host="0.0.0.0", port=8000)
[5단계] 실행 및 사용 예시
실행
uvicorn main:app --host 0.0.0.0 --port 8000 --reload
[6단계] 전체 흐름 예시
사용자 요청 (프롬프트 예시)
curl -X POST http://<MCP서버_IP>:8000/prompt \
-H "Content-Type: application/json" \
-d '{"session_id": "user456", "prompt": "최근 24시간 동안 로그인 실패 이력을 정리해줘."}'
내부 흐름 예시
사용자 질의 ➜ MCP서버 ➜ AI가 API endpoint 추출 (예: "/logs/login_fail?duration=24h")
➜ Kong API Gateway 호출 ➜ 백엔드 서비스 응답 (JSON 형태)
➜ MCP ➜ AI가 자연어로 결과 요약 ➜ 사용자에게 반환
최종 사용자 응답 예시
{
"response": "최근 24시간 동안 총 15건의 로그인 실패가 있었으며, 그 중 8건은 계정 존재하지 않음, 7건은 잘못된 패스워드 입력으로 확인됩니다."
}
[7단계] 보안 관점에서의 가이드 및 점검 포인트
항목 | 점검사항 및 권장사항 |
---|---|
AI 프롬프트 보안 관리 | AI의 요청 파싱 및 호출 범위를 엄격히 제한 |
Kong API 접근 통제 | MCP 서버의 IP 또는 API Key 기반 접근 통제 |
민감정보 노출 관리 | API 호출 응답 내 민감정보 제외 또는 마스킹 처리 |
로깅 및 감사 관리 | API 호출 기록 및 AI 응답 기록 철저히 관리 |
권한 최소화의 원칙 | API 접근 권한을 MCP가 필요한 범위로 최소화 |
구성요약 및 핵심포인트
- 사용자의 AI 프롬프트 요청을 기반으로 MCP가 Kong API Gateway를 호출하여 데이터를 얻고,
- 얻은 데이터를 AI가 자연어로 가공하여 사용자에게 최종 전달하는 구성입니다.
- 이 과정에서 API 호출 시 AI가 임의의 요청을 하지 않도록 호출 가능한 Endpoint 범위를 명확히 제한하는 것이 보안적으로 매우 중요합니다.
위 방식으로 MCP와 기존 Kong 환경을 효율적이고 안전하게 활용하여 AI 기반의 유용한 서비스 구축이 가능합니다.
댓글