Agentic RAG 개념 정리
Agentic RAG란Agentic RAG는 검색(retrieval)을 고정된 단계로 실행하는 대신, 에이전트가 상황에 따라 검색 여부와 검색 방식을 스스로 결정하는 RAG 방식입니다. 기본 RAG는 보통 아래처럼 동작합니다. 사용자 질문 입력 검색 시스템에서 관련 문서 조회 검색 결과를 LLM에 넣어 답변 생성 즉, 검색은 항상 먼저 일어나고, 생성
Agentic RAG란Agentic RAG는 검색(retrieval)을 고정된 단계로 실행하는 대신, 에이전트가 상황에 따라 검색 여부와 검색 방식을 스스로 결정하는 RAG 방식입니다. 기본 RAG는 보통 아래처럼 동작합니다. 사용자 질문 입력 검색 시스템에서 관련 문서 조회 검색 결과를 LLM에 넣어 답변 생성 즉, 검색은 항상 먼저 일어나고, 생성
Corrective RAG란Corrective RAG(CRAG)는 기존 RAG 파이프라인에 “검색 결과 검증 및 보정 단계”를 추가한 방식입니다. 일반적인 RAG는 아래 흐름으로 동작합니다. 사용자 질문 입력 벡터 DB 또는 검색 시스템에서 관련 문서 검색 검색된 문서를 컨텍스트로 LLM이 답변 생성 문제는 검색 결과가 부정확하거나, 애매하거나, 일부
LangChain이란?LangChain은 대규모 언어 모델(LLM)을 활용한 애플리케이션을 쉽게 구축할 수 있도록 돕는 오픈소스 프레임워크입니다. 2022년 10월 Harrison Chase가 시작한 프로젝트로, LLM 기반 애플리케이션 개발의 사실상 표준이 되었습니다. LangChain의 주요 특징 체인(Chain) 기반 구조: 여러 컴포넌트를 연결하여
1. API 키 발급Google AI Studio에서 API 키 받기 Google AI Studio 접속 Google 계정으로 로그인 “Get API Key” 또는 “API 키 만들기” 클릭 새 프로젝트 생성 또는 기존 프로젝트 선택 API 키 복사 및 안전하게 보관 환경 변수 설정# Linux/macOSexport GOOGLE_API_KEY='
스프링부트에서 Ollama 사용하기스프링부트 애플리케이션에서 Ollama를 통합하여 로컬 LLM을 사용하는 방법을 안내합니다. 1. Ollama 서버 준비먼저 Ollama를 설치하고 모델을 준비합니다. # Ollama 설치 (macOS/Linux)curl -fsSL https://ollama.com/install.sh | sh# 모델 다운로드ollama
Ollama를 이용한 GPT OSS 20B 모델 설치 가이드Ollama를 사용하여 오픈소스 GPT 대규모 언어 모델을 로컬 환경에서 실행하는 방법을 안내합니다. 1. Ollama 설치macOS/Linuxcurl -fsSL https://ollama.com/install.sh | sh WindowsOllama 공식 웹사이트에서 Windows 설치
RAG란?RAG(Retrieval-Augmented Generation)는 대규모 언어 모델(LLM)의 응답을 개선하기 위해 외부 지식 베이스에서 관련 정보를 검색하여 활용하는 기술입니다. RAG의 필요성 지식 최신성 문제 해결 LLM은 학습 시점까지의 데이터만 알고 있음 최신 정보나 실시간 데이터 제공 불가 RAG를 통해 최신 문서/데이터 참