로컬 컴퓨터에서 LLM 실행 방법들
Ollama, LMStudio, vLLM, LamaCPP1. Ollama터미널에서 실행할 수 있는 오픈소스 LLM설치 명령:curl -sSfL https://ollama.com/download.sh | sh모델 실행 명령:ollama run 터미널 명령 다양한 옵션 지원되니 모델을 여러 옵션으로 커스터마이징 실행하기 좋아하는 유저에 추천. 📦2. LMStudioGUI 기반 LLM 실행 환경설치 명령:git clone https://github.com/LMStudio/LMStudio.gitcd LMStudionpm install실행 명령:npm startGUI 환경으로 사용이 편리하므로 모든 유저에 추천. 🎨3. vLLM고성능 LLM을 위한 경량화된 솔루션설치 명령:pip install vllm실행 명..
AI
2025. 5. 27. 20:27
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
TAG
- JQuery
- IE
- macos
- centos
- Prototype
- 한글
- nginx
- iphone
- Wordpress
- IOS
- 안드로이드
- sencha touch
- mssql
- iis
- Android
- Linux
- Mac
- PHP
- CSS
- Debug
- Docker
- nodejs
- API
- classic asp
- 워드프레스
- laravel
- git
- ASP
- JSON
- javascript
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
글 보관함