Ollama, LMStudio, vLLM, LamaCPP1. Ollama터미널에서 실행할 수 있는 오픈소스 LLM설치 명령:curl -sSfL https://ollama.com/download.sh | sh모델 실행 명령:ollama run 터미널 명령 다양한 옵션 지원되니 모델을 여러 옵션으로 커스터마이징 실행하기 좋아하는 유저에 추천. 📦2. LMStudioGUI 기반 LLM 실행 환경설치 명령:git clone https://github.com/LMStudio/LMStudio.gitcd LMStudionpm install실행 명령:npm startGUI 환경으로 사용이 편리하므로 모든 유저에 추천. 🎨3. vLLM고성능 LLM을 위한 경량화된 솔루션설치 명령:pip install vllm실행 명..
Model Context ProtocolLLM 앱과 연결할때 통신 규약MCP Clienthttps://claude.ai/ 채팅 사이트에 웹브라우저로 접속 했을때웹브라우저가 Client이다.웹브라우저가 LLM 서버의 Client이다.웹브라우저가 LLM 서버의 채팅 Client이다.MCP ServerLLM이 못하는 기능들을 LLM 명령에 따라 수행하는 서버.Client에 채팅창에 https fetch 해서 학습 뒤 어떤 답변해달라 프롬프팅LLM 자체는 말만 알아듣고 위 URL의 문서를 fetch하는 기능은 하지 못하기에요즘은 LLM 채팅에서 URL fetch 기능도 수행 하지만...LLM의 명령을 받아 URL fetch 기능을 수행하는 Server를 만들고이 서버가 MCP 서버이 서버에 LLM 명령 프로토콜..
- Total
- Today
- Yesterday
- Linux
- API
- Debug
- Docker
- ASP
- 한글
- classic asp
- nginx
- Prototype
- IOS
- centos
- Mac
- 워드프레스
- macos
- PHP
- Android
- javascript
- laravel
- mssql
- JSON
- JQuery
- 안드로이드
- Wordpress
- nodejs
- iis
- iphone
- IE
- git
- sencha touch
- CSS
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |