티스토리 뷰

AI

AI MCP 개인적 요약

공허공자 2025. 5. 5. 21:30

Model Context Protocol

LLM 앱과 연결할때 통신 규약

MCP Client

https://claude.ai/ 채팅 사이트에 웹브라우저로 접속 했을때

  1. 웹브라우저가 Client이다.
  2. 웹브라우저가 LLM 서버의 Client이다.
  3. 웹브라우저가 LLM 서버의 채팅 Client이다.

MCP Server

LLM이 못하는 기능들을 LLM 명령에 따라 수행하는 서버.

  1. Client에 채팅창에 https fetch 해서 학습 뒤 어떤 답변해달라 프롬프팅
  2. LLM 자체는 말만 알아듣고 위 URL의 문서를 fetch하는 기능은 하지 못하기에
    1. 요즘은 LLM 채팅에서 URL fetch 기능도 수행 하지만...
  3. LLM의 명령을 받아 URL fetch 기능을 수행하는 Server를 만들고
    1. 이 서버가 MCP 서버
    2. 이 서버에 LLM 명령 프로토콜(MCP)로 입력하고 출력받음
  4. LLM에 MCP fetch server 연결해두면 LLM이 해당 서버에 fetch 명령 내리고 응답 받아옴

예를들어, LLM 채팅창에 아래와 같이 프롬프트 명령 내렸다 가정 :

장고 사이트를 만드려고 하는데 코딩시 Django 문서(<https://docs.djangoproject.com/ko/5.2/>)를 참고해서 아래 Instruction에 따라 만들어줘.

# Instruction
1. bla bla bla bla bla
2. bla bla bla bla bla
3. bla bla bla bla bla
......

MCP 없이 LLM에 질문했을때의 답변은
'URL에 연결할 수 없습니다.',
'bla.py 소스 코드는 다음과 같습니다'라는 식으로 소스 코드를 알려주고 끝남.

fetch 기능이 있는 MCP 연결 상태에서라면 
Django URL 문서를 fetch하고 조회하고 
bla bla 작업에 반영함.

'AI' 카테고리의 다른 글

로컬 컴퓨터에서 LLM 실행 방법들  (0) 2025.05.27
댓글
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
«   2025/06   »
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30
글 보관함