Local PC에 LLM 설치하기

설치 준비

  • PC 사양 : GPU nvidia 30* 이상
    • nvidia-smi 명령으로 드라이버 설치 상태 확인

ollama 설치

  • 준비된 OllamaSetup.exe 실행으로 설치
  • 터미널 실행 (시작 메뉴 우클릭) 후 아래 명령 순차적으로 입력
ollama run phi4

/bye

chatbox 설치

  • 준비된 chatbox setup 파일 실행
  • 설치 완료 후 아래와 같이 설정
    • Ollama 실행 중인 주소 중요! 기본값 : localhost:11434

사용하기

대화하기

  • 새로운 채팅 클릭 후, 모델 선택 후 대화 시작

새로운 모델 적용

  • https://ollama.com/search 에서 각종 모델 검색 가능
  • 모델 선택 후 모델의 크기와 로컬 GPU의 VRAM 크기를 염두에 두고 선택
phi4의 경우 9.1GB의 VRAM을 필요로 함을 알 수 있다.
  • 터미널 환경에서 Pull 실행
ollama pull 설치하고자하는모델명

Trouble Shooting

  • [chatbox] 리스트에 모델이 잡히지 않는다면 터미널에서 “ollama serve” 실행 - 이미 실행중이라면 포트 사용 중 메시지가 뜸
  • [chatbox] 새 채팅 시작! - phi4 혹은 exaone3.5 이용 가능 (리스트에 나오지 않는다면 설정에서 추가)