최근 딥러닝 학습과 코딩을 병행하며 보안과 속도, 두 마리 토끼를 잡기 위해 로컬 LLM 환경을 구축했습니다. 특히 RTX 5060 Ti 16GB의 넉넉한 VRAM을 활용해 고성능 모델인 Qwen2.5-Coder 14B를 올린 최적의 세팅을 공유합니다.
1. 환경 구성 및 하드웨어
- GPU: NVIDIA RTX 5060 Ti (16GB VRAM) - 14B 모델 구동의 마지노선이자 최적의 선택
- OS: Windows 11 + WSL2 (Ubuntu)
- Backend: Ollama (Windows용 설치)
- IDE: VS Code + Continue Extension
2. Ollama & 모델 세팅
먼저 로컬에서 AI의 뇌 역할을 할 모델을 내려받습니다. 16GB VRAM 기준, 코딩 실력이 검증된 14B 모델이 가장 쾌적합니다.
|
|
3. Continue 설정 (config.yaml)
VS Code에서 Continue 확장 프로그램을 설치한 후, ~/.continue/config.yaml을 다음과 같이 설정합니다. 불필요한 설정을 걷어내고 로컬 Ollama에 집중한 구성입니다.
|
|
4. 슬래시 커맨드 커스터마이징 (.md 방식)
최신 Continue 버전에서는 config.yaml을 직접 수정하는 대신, .md 파일을 통해 명령어를 추가하는 방식을 권장합니다.
📄 ~/.continue/prompts/commit.md
이 파일을 생성하면 채팅창에서 /commit 한 번으로 스테이징된 파일들만 분석하여 커밋 메시지를 자동 생성할 수 있습니다.
|
|
5. 마치며
이제 내 컴퓨터 안에서 보안 걱정 없이, 인터넷 연결 없이도 최고의 코딩 비서를 부릴 수 있게 되었습니다. 특히 @ 기호를 사용하여 특정 파일이나 코드베이스 전체를 맥락으로 던져주는 기능은 로컬 환경에서 더 빛을 발합니다.