스프링부트에서 Ollama 사용하기
스프링부트에서 Ollama 사용하기스프링부트 애플리케이션에서 Ollama를 통합하여 로컬 LLM을 사용하는 방법을 안내합니다. 1. Ollama 서버 준비먼저 Ollama를 설치하고 모델을 준비합니다. # Ollama 설치 (macOS/Linux)curl -fsSL https://ollama.com/install.sh | sh# 모델 다운로드ollama pull llama2:13b# Ollama 서버 실행 (기본 포트: 11434)ollama serve 2. Spring Boot 프로젝트 설정build.gradledependencies { implementation 'org.springframework.boot:spring-boot-starter-web' implementation 'org.springframework.boot:spring-boot-starter-webflux' compileOnly 'org.projectlombok:lombok' annotationProcessor 'org.projectlombok:lombok'} application.yml