Archive: 2026

0

Google Gemini 2.5 Flash 사용 가이드

1. API 키 발급Google AI Studio에서 API 키 받기 Google AI Studio 접속 Google 계정으로 로그인 “Get API Key” 또는 “API 키 만들기” 클릭 새 프로젝트 생성 또는 기존 프로젝트 선택 API 키 복사 및 안전하게 보관 환경 변수 설정# Linux/macOSexport GOOGLE_API_KEY='your-api-key-here'# Windows (PowerShell)$env:GOOGLE_API_KEY='your-api-key-here'# .env 파일 사용 (권장)echo "GOOGLE_API_KEY=your-api-key-here" > .env 2. Python에서 Gemini 2.5 Flash 사용설치# Python 환경 변수 관리pip install python-dotenv # Python Gemini 플러그인 설치pip install google-generativeai 기본 사용법

0

Linux에서 연결된 볼륨 확인하기

Linux 시스템에서 연결된 디스크와 볼륨을 확인하는 다양한 방법을 소개합니다. 1. lsblk - 블록 디바이스 목록 확인가장 직관적이고 많이 사용되는 명령어입니다. lsblk 출력 예시: NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTsda 8:0 0 50G 0 disk├─sda1 8:1 0 1G 0 part /boot└─sda2 8:2 0 49G 0 part /sdb 8:16 0 100G 0 disk└─sdb1 8:17 0 100G 0 part /data 유용한 옵션: # 파일시스템 정보 포함lsblk -f# 상세 정보 출력lsblk -a# 특정 디바이스만 확인lsblk /dev/sda 2. fdisk - 디스크 파티션 확인

0

Linux에서 파일과 디렉토리 찾기

Linux 시스템에서 파일과 디렉토리를 효율적으로 찾는 다양한 방법을 소개합니다. 1. find - 강력한 파일 검색 명령어가장 강력하고 유연한 파일 검색 도구입니다. 기본 사용법# 현재 디렉토리에서 특정 파일명 찾기find . -name "filename.txt"# 대소문자 구분 없이 찾기find . -iname "filename.txt"# 특정 디렉토리에서 찾기find /home/user -name "*.log" 파일 타입으로 찾기# 일반 파일만find . -type f -name "*.txt"# 디렉토리만find . -type d -name "backup"# 심볼릭 링크만find . -type l 파일 크기로 찾기# 100MB보다 큰 파일find . -type f -size +100M# 10KB보다 작은 파일find . -type f -size -10k# 정확히 1GB 파일find . -type f -size 1G# 크기 단위: c(bytes), k(KB), M(MB), G(GB)

0

스프링부트에서 Ollama 사용하기

스프링부트에서 Ollama 사용하기스프링부트 애플리케이션에서 Ollama를 통합하여 로컬 LLM을 사용하는 방법을 안내합니다. 1. Ollama 서버 준비먼저 Ollama를 설치하고 모델을 준비합니다. # Ollama 설치 (macOS/Linux)curl -fsSL https://ollama.com/install.sh | sh# 모델 다운로드ollama pull llama2:13b# Ollama 서버 실행 (기본 포트: 11434)ollama serve 2. Spring Boot 프로젝트 설정build.gradledependencies { implementation 'org.springframework.boot:spring-boot-starter-web' implementation 'org.springframework.boot:spring-boot-starter-webflux' compileOnly 'org.projectlombok:lombok' annotationProcessor 'org.projectlombok:lombok'} application.yml

0

Ollama를 이용한 GPT OSS 20B 모델 설치 가이드

Ollama를 이용한 GPT OSS 20B 모델 설치 가이드Ollama를 사용하여 오픈소스 GPT 대규모 언어 모델을 로컬 환경에서 실행하는 방법을 안내합니다. 1. Ollama 설치macOS/Linuxcurl -fsSL https://ollama.com/install.sh | sh WindowsOllama 공식 웹사이트에서 Windows 설치 프로그램을 다운로드하여 설치합니다. 설치 확인ollama --version