Home

0

Google Gemini 2.5 Flash 사용 가이드

1. API 키 발급Google AI Studio에서 API 키 받기 Google AI Studio 접속 Google 계정으로 로그인 “Get API Key” 또는 “API 키 만들기” 클릭 새 프로젝트 생성 또는 기존 프로젝트 선택 API 키 복사 및 안전하게 보관 환경 변수 설정# Linux/macOSexport GOOGLE_API_KEY='your-api-key-here'# Windows (PowerShell)$env:GOOGLE_API_KEY='your-api-key-here'# .env 파일 사용 (권장)echo "GOOGLE_API_KEY=your-api-key-here" > .env 2. Python에서 Gemini 2.5 Flash 사용설치# Python 환경 변수 관리pip install python-dotenv # Python Gemini 플러그인 설치pip install google-generativeai 기본 사용법

0

Linux에서 연결된 볼륨 확인하기

Linux 시스템에서 연결된 디스크와 볼륨을 확인하는 다양한 방법을 소개합니다. 1. lsblk - 블록 디바이스 목록 확인가장 직관적이고 많이 사용되는 명령어입니다. lsblk 출력 예시: NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTsda 8:0 0 50G 0 disk├─sda1 8:1 0 1G 0 part /boot└─sda2 8:2 0 49G 0 part /sdb 8:16 0 100G 0 disk└─sdb1 8:17 0 100G 0 part /data 유용한 옵션: # 파일시스템 정보 포함lsblk -f# 상세 정보 출력lsblk -a# 특정 디바이스만 확인lsblk /dev/sda 2. fdisk - 디스크 파티션 확인

0

Linux에서 파일과 디렉토리 찾기

Linux 시스템에서 파일과 디렉토리를 효율적으로 찾는 다양한 방법을 소개합니다. 1. find - 강력한 파일 검색 명령어가장 강력하고 유연한 파일 검색 도구입니다. 기본 사용법# 현재 디렉토리에서 특정 파일명 찾기find . -name "filename.txt"# 대소문자 구분 없이 찾기find . -iname "filename.txt"# 특정 디렉토리에서 찾기find /home/user -name "*.log" 파일 타입으로 찾기# 일반 파일만find . -type f -name "*.txt"# 디렉토리만find . -type d -name "backup"# 심볼릭 링크만find . -type l 파일 크기로 찾기# 100MB보다 큰 파일find . -type f -size +100M# 10KB보다 작은 파일find . -type f -size -10k# 정확히 1GB 파일find . -type f -size 1G# 크기 단위: c(bytes), k(KB), M(MB), G(GB)

0

스프링부트에서 Ollama 사용하기

스프링부트에서 Ollama 사용하기스프링부트 애플리케이션에서 Ollama를 통합하여 로컬 LLM을 사용하는 방법을 안내합니다. 1. Ollama 서버 준비먼저 Ollama를 설치하고 모델을 준비합니다. # Ollama 설치 (macOS/Linux)curl -fsSL https://ollama.com/install.sh | sh# 모델 다운로드ollama pull llama2:13b# Ollama 서버 실행 (기본 포트: 11434)ollama serve 2. Spring Boot 프로젝트 설정build.gradledependencies { implementation 'org.springframework.boot:spring-boot-starter-web' implementation 'org.springframework.boot:spring-boot-starter-webflux' compileOnly 'org.projectlombok:lombok' annotationProcessor 'org.projectlombok:lombok'} application.yml

0

Ollama를 이용한 GPT OSS 20B 모델 설치 가이드

Ollama를 이용한 GPT OSS 20B 모델 설치 가이드Ollama를 사용하여 오픈소스 GPT 대규모 언어 모델을 로컬 환경에서 실행하는 방법을 안내합니다. 1. Ollama 설치macOS/Linuxcurl -fsSL https://ollama.com/install.sh | sh WindowsOllama 공식 웹사이트에서 Windows 설치 프로그램을 다운로드하여 설치합니다. 설치 확인ollama --version

0

Terraform 이란?

Terraform 이란?Terraform은 HashiCorp에서 개발한 오픈소스 Infrastructure as Code(IaC) 도구입니다. 선언적 구성 언어(HCL - HashiCorp Configuration Language)를 사용하여 클라우드 및 온프레미스 리소스를 안전하고 효율적으로 구축, 변경, 버전 관리할 수 있습니다. 주요 특징1. 멀티 클라우드 지원 AWS, Azure, GCP, Kubernetes 등 다양한 프로바이더 지원 700개 이상의 프로바이더 사용 가능 단일 구성으로 여러 클라우드 관리 가능 2. 선언적 구성 원하는 최종 상태를 선언하면 Terraform이 자동으로 실행 계획 수립 명령형이 아닌 선언형 접근 방식 3. 실행 계획 (Plan) 변경 사항을 미리 확인 가능 예상치 못한 변경 방지 terraform plan 명령으로 변경 사항 시뮬레이션

0

EC2 를 이용한 WireGuard Full Tunnel 구성

✅ VPN 서버 설정 WireGuard 내부 대역: 10.100.0.0/24 EC2 VPC 대역: 10.1.0.0/16 EC2 설정EC2 를 VPN 서버로 사용하기 위해서는 일단 Client 와 연결하기 위한 Port 가 오픈이 돼 있어야 합니다. Wireguard 는 51820 UDP 포트를 사용하므로 해당 포트를 통해 Client 가 접속할 수 있도록 보안 그룹 허용 목록에 추가해줍니다. EC2 에 WireGuard 설치Debian 계열 리눅스# 패키지 목록 업데이트sudo apt update# WireGuard 설치sudo apt install wireguard -y# WireGuard 버전 확인wg --version RHEL 계열 리눅스

0

RAG 성능 최적화 기법

RAG 시스템 최적화 개요RAG 시스템의 성능은 다음 세 가지 측면에서 최적화할 수 있습니다: 검색 품질 - 관련성 높은 문서 찾기 응답 품질 - 정확하고 유용한 답변 생성 성능/비용 - 빠른 응답과 비용 효율성 1. 청킹 전략 최적화1.1 고정 크기 청킹from langchain.text_splitter import RecursiveCharacterTextSplitter# 기본 설정text_splitter = RecursiveCharacterTextSplitter( chunk_size=1000, chunk_overlap=200, length_function=len,)# 문서 유형별 최적화## 기술 문서 - 작은 청크tech_splitter = RecursiveCharacterTextSplitter( chunk_size=500, chunk_overlap=100)## 소설/긴 글 - 큰 청크narrative_splitter = RecursiveCharacterTextSplitter( chunk_size=2000, chunk_overlap=400) 1.2 의미 기반 청킹from langchain_experimental.text_splitter import SemanticChunkerfrom langchain_openai.embeddings import OpenAIEmbeddings# 의미론적 유사도로 분할semantic_chunker = SemanticChunker( OpenAIEmbeddings(), breakpoint_threshold_type="percentile", # or "standard_deviation" breakpoint_threshold_amount=95 # 상위 5%에서 분할)chunks = semantic_chunker.split_documents(documents) 1.3 문서 구조 기반 청킹

0

벡터 데이터베이스 비교 및 선택 가이드

벡터 데이터베이스란?벡터 데이터베이스는 고차원 벡터 데이터를 효율적으로 저장하고 검색하는 데 특화된 데이터베이스입니다. RAG 시스템의 핵심 구성 요소입니다. 주요 벡터 데이터베이스 비교1. ChromaDB특징: 오픈소스, 로컬 우선 설계 Python 친화적 가볍고 시작하기 쉬움 임베디드 모드 지원 장점: ✅ 설치 및 설정이 매우 간단 ✅ 로컬 개발에 최적 ✅ 무료 오픈소스 ✅ 메타데이터 필터링 지원 단점:

0

RAG 시스템 구축 가이드

RAG 시스템 구축 단계RAG 시스템을 처음부터 구축하는 전체 과정을 단계별로 설명합니다. 1. 환경 설정필수 라이브러리 설치# Python 가상환경 생성python -m venv venvsource venv/bin/activate # Windows: venv\Scripts\activate# 기본 라이브러리 설치pip install langchain langchain-community langchain-openaipip install chromadb # 벡터 데이터베이스pip install openai # OpenAI APIpip install tiktoken # 토큰 카운팅pip install pypdf # PDF 처리pip install python-dotenv 환경 변수 설정# .env 파일 생성OPENAI_API_KEY=your-api-key-here 2. 문서 준비 및 로딩2.1 문서 로더 선택