# Gemini CLI와의 여섯 번째 만남: Gemini CLI에서 Vertex AI 사용하기 - `gcloud` 인증 및 설정 방법 지난 단계에서 Vertex AI가 제공하는 강력한 엔터프라이즈급 기능과 장점에 대해 알아보았습니다. 이제는 Gemini CLI를 통해 이러한 Vertex AI의 이점을 실제로 활용하는 방법을 구체적으로 살펴보겠습니다. 핵심은 Gemini CLI가 일반 Gemini API 대신 Google Cloud 프로젝트의 Vertex AI 엔드포인트를 사용하도록 설정하는 것입니다. --- ## 1. Vertex AI 사용을 위한 사전 준비 Gemini CLI에서 Vertex AI를 성공적으로 사용하려면 몇 가지 사전 설정이 필요합니다. 대부분은 이전 `v4` 단계에서 Google Cloud 프로젝트를 설정하며 이미 진행되었을 수 있습니다. ### 1.1. Google Cloud 프로젝트 선택 및 결제 설정 확인 * Vertex AI를 사용할 GCP 프로젝트가 활성화되어 있고, 결제 계정이 올바르게 연결되어 있는지 확인합니다. (이전 `v4` 참조) ### 1.2. `gcloud CLI`를 통한 인증 및 기본 프로젝트/리전 설정 Vertex AI는 `gcloud CLI`를 통해 설정된 인증 정보를 활용합니다. `Application Default Credentials (ADC)`를 사용하여 Gemini CLI가 자동으로 GCP 리소스에 접근하도록 합니다. 1. **사용자 인증:** 아직 `gcloud auth application-default login`을 수행하지 않았다면 실행합니다. ```bash gcloud auth application-default login ``` 이 과정은 웹 브라우저를 통해 진행되며, 사용자 계정으로 로그인하고 필요한 권한을 부여하게 됩니다. 2. **기본 프로젝트 설정:** 모든 `gcloud` 명령어와 ADC를 사용하는 애플리케이션이 특정 GCP 프로젝트를 기본으로 사용하도록 설정할 수 있습니다. ```bash gcloud config set project [YOUR_GCP_PROJECT_ID] ``` `[YOUR_GCP_PROJECT_ID]`는 Vertex AI를 사용할 Google Cloud 프로젝트 ID로 대체해야 합니다. 3. **기본 리전 설정:** Vertex AI 모델은 특정 Google Cloud 리전에서 호스팅됩니다. 기본 리전을 설정해 두면 매번 `--location` 플래그를 지정할 필요가 없습니다. ```bash gcloud config set compute/region [YOUR_REGION] ``` `[YOUR_REGION]`은 `us-central1`, `asia-northeast3` (도쿄) 등 원하는 리전으로 대체합니다. (지원되는 Vertex AI 리전은 Google Cloud 문서에서 확인) ### 1.3. Vertex AI API 활성화 Gemini 모델을 Vertex AI를 통해 사용하려면 GCP 프로젝트에서 **Vertex AI API**가 활성화되어 있어야 합니다. 1. Google Cloud Console ([console.cloud.google.com](https://console.cloud.google.com/))에 접속합니다. 2. 상단의 프로젝트 선택기에서 사용하려는 프로젝트를 선택합니다. 3. 좌측 내비게이션 메뉴에서 "API 및 서비스" -> "라이브러리"로 이동합니다. 4. 검색창에 "Vertex AI API"를 입력하고, 검색 결과에서 "Vertex AI API"를 선택한 후 "사용 설정" 버튼을 클릭합니다. ## 2. Gemini CLI에서 Vertex AI 엔드포인트 사용하기 `gcloud` 인증과 Vertex AI API 활성화가 완료되면, Gemini CLI가 Vertex AI를 통해 Gemini 모델을 호출하도록 특정 옵션을 지정해야 합니다. Gemini CLI의 구현에 따라 정확한 명령어는 다를 수 있지만, 일반적으로 `--project`와 `--location` 플래그를 사용하여 Vertex AI 엔드포인트를 명시합니다. **예시: Vertex AI를 통해 Gemini 모델에 질문하기** ```bash gemini ask "Vertex AI 기반 Gemini 모델에 대해 설명해 줘." \ --project [YOUR_GCP_PROJECT_ID] \ --location [YOUR_REGION] \ --model gemini-pro # Vertex AI 모델 이름을 지정 (다음 섹션에서 자세히 다룸) ``` * `--project [YOUR_GCP_PROJECT_ID]`: 사용할 Google Cloud 프로젝트 ID를 지정합니다. * `--location [YOUR_REGION]`: Vertex AI 모델이 배포된 리전을 지정합니다. * `--model gemini-pro`: Vertex AI에서 사용할 Gemini 모델의 이름을 지정합니다. (`gemini-1.5-pro` 또는 `gemini-1.5-flash` 등이 될 수 있으며, 이는 다음 `v7` 포스팅에서 자세히 다룰 예정입니다.) **[참고]** 만약 `gcloud config set` 명령어로 프로젝트와 리전을 미리 설정해 두었다면, `--project`와 `--location` 플래그를 생략할 수도 있습니다. Gemini CLI는 ADC가 구성된 경우, 이 기본 설정들을 자동으로 감지하여 사용하려고 시도합니다. ## 3. Vertex AI 사용 확인하기 정말로 Vertex AI를 통해 모델이 호출되고 있는지 확인하려면 다음 방법을 활용할 수 있습니다. * **Cloud Logging 확인:** Google Cloud Console에서 "Logging" -> "로그 탐색기"로 이동하여 해당 프로젝트의 Vertex AI API 호출 로그를 확인할 수 있습니다. API 호출이 성공적으로 이루어졌다면 관련 로그가 기록됩니다. * **CLI 출력:** 일부 Gemini CLI는 디버그 모드나 상세 모드(`--verbose` 또는 `-v`)를 제공하여 어떤 엔드포인트를 사용하는지 출력해 줄 수 있습니다. ## 4. 요약 이번 단계에서는 Gemini CLI를 Vertex AI와 연동하기 위한 핵심적인 설정 방법, 즉 `gcloud CLI`를 통한 인증, 기본 프로젝트 및 리전 설정, Vertex AI API 활성화, 그리고 `gemini ask` 명령어에 Vertex AI 엔드포인트를 지정하는 방법을 살펴보았습니다. 이 설정을 통해 Gemini CLI는 Google Cloud의 강력한 Vertex AI 플랫폼을 기반으로 더욱 안정적이고 확장성 있는 AI 기능을 활용할 수 있게 됩니다. 다음 단계에서는 Vertex AI에서 사용 가능한 다양한 Gemini 모델(예: `gemini-1.5-pro`, `gemini-1.5-flash`)을 CLI에서 어떻게 지정하고 활용할 수 있는지, 그리고 각 모델의 특징과 비용 효율적인 선택 전략에 대해 알아보겠습니다.