공유

2025년 4월 9일

코드 이해 확장: Jolt AI가 Gemini API를 활용하는 방법

Yev Spektor

CEO

비샬 다르마디카리

제품 솔루션 엔지니어

AgentOps 쇼케이스 히어로

광범위한 프로덕션 규모 코드베이스를 사용하는 개발자는 그 고통을 잘 알고 있습니다. 컨텍스트를 이해하고, 관련 파일을 찾고, 변경사항을 적용하는 것은 마치 미로를 탐색하는 것과 같습니다. Jolt AI는 실제 10만 줄 이상의 코드베이스를 위해 특별히 설계된 코드 생성 및 채팅 도구를 통해 이 문제를 직접 해결하고 있습니다. 속도와 정확성을 모두 제공하는 비결은 무엇일까요? Gemini API, 특히 Gemini 2.0 Flash

Jolt AI의 목표는 개발자가 모든 코드베이스를 즉시 이해하고 기여할 수 있도록 지원하는 것입니다. 오늘날의 많은 도구는 대규모 기존 코드베이스에 어려움을 겪고 사용자가 컨텍스트 파일을 수동으로 선택해야 합니다. 지루하고 비실용적입니다. Jolt AI는 관련 컨텍스트 파일을 정확하고 자동으로 식별하는 새로운 시맨틱 검색을 사용합니다. 기능 개발, 버그 수정, 온보딩 등에 혁신을 가져올 수 있습니다.

애플리케이션 로직을 시각화하는 생성된 상태 흐름 다이어그램

Jolt AI의 과제는 속도, 일관성, 코드 이해의 적절한 조합으로 검색 파이프라인을 지원할 수 있는 모델을 찾는 것이었습니다. Jolt AI의 CEO인 예브 스펙터는 '코드 검색 파이프라인에서 AI 기반 단계를 3개 가속화하려고 했습니다'라고 설명합니다. '각 단계에서는 다양한 프로그래밍 언어, 프레임워크, 사용자 코드, 사용자 의도를 이해해야 합니다.'

Gemini 2.0 Flash: 속도와 향상된 코드 이해 제공

Gemini 2.0 Flash를 소개합니다. Jolt AI의 경우 이 모델이 원하는 성능 향상을 제공했습니다. Spektor는 '프롬프트를 조정하자 다른 제공업체의 더 크고 느린 모델보다 Gemini 2.0 Flash에서 더 일관되고 고품질의 출력을 얻을 수 있었습니다'라고 말합니다.

Jolt AI는 Gemini 2.0 Flash를 어떻게 사용하고 있나요? 이 모델은 코드 검색 파이프라인의 여러 중요한 단계를 지원하여 대규모 저장소를 탐색하고 이해하는 데 필요한 속도와 정확성을 제공합니다. 정확한 세부정보는 '비밀 소스'이지만 그 영향은 분명합니다. Gemini 2.0 Flash를 통해 Jolt AI는 복잡한 코드베이스 내에서 적절한 정보를 빠르게 표시할 수 있습니다.

Gemini API로 전환한 결과 매우 효율적이었습니다. Spektor는 'SDK를 구현하는 데 몇 시간이 걸리고 프롬프트 조정 및 테스트에는 2일이 걸립니다'라고 말합니다. 또한 이 팀은 Google AI Studio를 사용하여 프롬프트 아이디어 구상 및 조정 작업을 진행하여 개발 프로세스를 간소화했습니다.

결과: 더 빠르고, 더 높은 품질, 더 비용 효율적

Gemini 2.0 Flash로 전환한 결과 Jolt AI는 다음과 같은 놀라운 성과를 거두었습니다.

  • 응답 시간 70~80% 단축: 검색 파이프라인의 AI 지원 단계가 훨씬 더 빠릅니다.
  • 더 높은 품질과 일관성 있는 답변: 사용자가 2배 이상 빠른 속도로 더 나은 결과를 얻을 수 있습니다.
  • 80% 비용 절감: 이전된 AI 워크로드의 비용이 크게 절감되었습니다.


스펙터는 '사용자에게 2배 이상 빠른 속도로 고품질 답변을 제공하고 있습니다'라고 강조합니다. 이러한 속도, 품질, 비용 절감의 조합은 성능이 중요한 애플리케이션을 위한 Gemini 2.0 Flash의 강력한 기능을 강조합니다.

미래에 집중 및 개발자 통계

Jolt AI는 곧 출시될 JetBrains 플러그인을 통해 IDE 지원을 적극적으로 확대하고 있으며 API 접근성을 살펴보고 있습니다. Spektor는 개발자 및 엔지니어링 리더 지원부터 고객 지원팀 지원, 자동화된 AI 코드 파이프라인 지원에 이르기까지 기업 전반에서 Jolt AI가 지닌 광범위한 잠재력에 큰 기대를 걸고 있습니다.

Gemini API를 사용한 여정을 되돌아보며 Spektor는 동료 개발자에게 다음과 같은 조언을 전합니다.

'Gemini 2.0 Flash는 생각보다 더 강력합니다. 재현율이 매우 우수하며, 느리고 비용이 더 많이 드는 모델보다 훨씬 낫습니다.' 또한 개발자에게 Gemini 제품군의 최신 모델을 살펴볼 것을 권장합니다. '차세대 모델인 Gemini 2.0 Flash와 Gemini 2.5 Pro를 살펴보세요. Gemini 2.0 Flash를 통해 제품의 속도가 2배 이상 빨라졌으며 대답의 품질도 향상되었습니다. 새 모델은 중요한 단계 함수입니다.'

Jolt AI의 성공 사례는 Gemini 2.0 Flash의 속도와 기능이 AI 기반 개발자 도구, 특히 대규모 코드베이스의 복잡성을 처리하는 도구를 크게 개선할 수 있음을 보여줍니다.

빌드할 준비가 되셨나요? Gemini API 문서를 살펴보고 지금 바로 Google AI Studio를 시작하세요.