Tag: AI

0

Google Gemini 2.5 Flash 사용 가이드

1. API 키 발급Google AI Studio에서 API 키 받기 Google AI Studio 접속 Google 계정으로 로그인 “Get API Key” 또는 “API 키 만들기” 클릭 새 프로젝트 생성 또는 기존 프로젝트 선택 API 키 복사 및 안전하게 보관 환경 변수 설정# Linux/macOSexport GOOGLE_API_KEY='your-api-key-here'# Windows (PowerShell)$env:GOOGLE_API_KEY='your-api-key-here'# .env 파일 사용 (권장)echo "GOOGLE_API_KEY=your-api-key-here" > .env 2. Python에서 Gemini 2.5 Flash 사용설치# Python 환경 변수 관리pip install python-dotenv # Python Gemini 플러그인 설치pip install google-generativeai 기본 사용법

0

스프링부트에서 Ollama 사용하기

스프링부트에서 Ollama 사용하기스프링부트 애플리케이션에서 Ollama를 통합하여 로컬 LLM을 사용하는 방법을 안내합니다. 1. Ollama 서버 준비먼저 Ollama를 설치하고 모델을 준비합니다. # Ollama 설치 (macOS/Linux)curl -fsSL https://ollama.com/install.sh | sh# 모델 다운로드ollama pull llama2:13b# Ollama 서버 실행 (기본 포트: 11434)ollama serve 2. Spring Boot 프로젝트 설정build.gradledependencies { implementation 'org.springframework.boot:spring-boot-starter-web' implementation 'org.springframework.boot:spring-boot-starter-webflux' compileOnly 'org.projectlombok:lombok' annotationProcessor 'org.projectlombok:lombok'} application.yml

0

Ollama를 이용한 GPT OSS 20B 모델 설치 가이드

Ollama를 이용한 GPT OSS 20B 모델 설치 가이드Ollama를 사용하여 오픈소스 GPT 대규모 언어 모델을 로컬 환경에서 실행하는 방법을 안내합니다. 1. Ollama 설치macOS/Linuxcurl -fsSL https://ollama.com/install.sh | sh WindowsOllama 공식 웹사이트에서 Windows 설치 프로그램을 다운로드하여 설치합니다. 설치 확인ollama --version

0

RAG (Retrieval-Augmented Generation) 개요

RAG란?RAG(Retrieval-Augmented Generation)는 대규모 언어 모델(LLM)의 응답을 개선하기 위해 외부 지식 베이스에서 관련 정보를 검색하여 활용하는 기술입니다. RAG의 필요성 지식 최신성 문제 해결 LLM은 학습 시점까지의 데이터만 알고 있음 최신 정보나 실시간 데이터 제공 불가 RAG를 통해 최신 문서/데이터 참조 가능 환각(Hallucination) 감소 LLM이 사실이 아닌 내용을 생성하는 문제 외부 신뢰할 수 있는 소스 참조로 정확성 향상 도메인 특화 지식 제공 기업 내부 문서, 특정 도메인 지식 활용 재학습 없이 특정 분야 전문성 확보 비용 효율성 모델 재학습(Fine-tuning) 대비 저렴 데이터 업데이트가 용이 RAG 작동 원리기본 워크플로우사용자 질문 ↓1. 질문 임베딩 생성 ↓2. 벡터 DB에서 유사 문서 검색 ↓3. 검색된 문서 + 질문을 LLM에 입력 ↓4. LLM이 컨텍스트 기반 답변 생성 ↓최종 답변 제공 핵심 구성 요소 문서 처리 (Document Processing) 문서 수집 및 전처리 청크 분할 (Chunking) 임베딩 생성 검색 시스템 (Retrieval System) 벡터 데이터베이스 유사도 검색 알고리즘 하이브리드 검색 (키워드 + 벡터) 생성 모델 (Generation Model) LLM (GPT, Claude, Llama 등) 프롬프트 엔지니어링 컨텍스트 윈도우 관리