分享

2025 年 4 月 9 日

扩展代码理解能力:Jolt AI 如何利用 Gemini API

Yev Spektor

首席执行官

Vishal Dharmadhikari

产品解决方案工程师

AgentOps 展示主图

使用庞大的生产规模代码库的开发者都知道这种痛苦。了解上下文、查找相关文件和进行更改可能就像在迷宫中穿行一样。Jolt AI 正在正面应对这一挑战,它提供了一款专门为真实世界中超过 10 万行的代码库设计的代码生成和聊天工具。他们兼顾速度和准确性的秘密武器是什么?Gemini API,尤其是 Gemini 2.0 Flash。

Jolt AI 的使命是让开发者能够立即理解任何代码库并为其做出贡献。许多现有工具在处理大型现有代码库时会遇到困难,并且需要用户手动选择上下文文件。这既繁琐又不切实际。Jolt AI 使用一种新颖的语义搜索技术,可准确自动地识别相关上下文文件。它将彻底改变功能开发、bug 修复、新用户入门等流程。

生成的用于直观呈现应用逻辑的状态流程图。

Jolt AI 面临的挑战是找到一种模型,该模型能够以适当的速度、一致性和代码理解能力来支持其搜索流水线。“我们希望加快代码搜索流水线中 3 个由 AI 提供支持的步骤,”Jolt AI 的首席执行官 Yev Spektor 解释道。“每个步骤都需要了解各种编程语言、框架、用户代码和用户意图。”

Gemini 2.0 Flash:提供更快的速度和更强的代码理解能力

Gemini 2.0 Flash 应运而生。对于 Jolt AI 而言,此模型实现了他们所寻求的性能飞跃。Spektor 指出:“经过一些提示调优,我们能够使用 Gemini 2.0 Flash 获得比其他提供商提供的速度较慢、规模较大的模型更一致、更高质量的输出。”

Jolt AI 如何使用 Gemini 2.0 Flash?它为代码搜索流水线中的多个关键步骤提供支持,可提供浏览和理解海量代码库所需的速度和准确性。虽然具体细节是他们的“秘方”,但效果显而易见:Gemini 2.0 Flash 使 Jolt AI 能够在复杂的代码库中快速找到正确的信息。

切换到 Gemini API 的效率非常高。Spektor 报告说:“实现 SDK 需要几个小时,而提示调整和测试需要 2 天时间。”该团队还利用 Google AI Studio 进行提示构思和调整,从而简化开发流程。

效果:速度更快、质量更高、成本效益更高

改用 Gemini 2.0 Flash 后,Jolt AI 取得了令人瞩目的成果:

  • 响应时间缩短 70-80%:搜索流水线中由 AI 提供支持的步骤速度明显更快。
  • 更优质、更一致的回答:用户获得更优质结果的速度快了 2 倍以上。
  • 成本降低 80%:迁移后的 AI 工作负载现在具有显著的成本效益。


Spektor 强调说:“我们现在能以两倍以上的速度为用户提供更高质量的答案。”这种速度、质量和成本节省的组合凸显了 Gemini 2.0 Flash 在对性能要求严苛的应用中的强大功能。

未来重点和开发者数据洞见

Jolt AI 正在积极扩展其 IDE 支持,即将推出 JetBrains 插件,并探索 API 可访问性。Spektor 对 Jolt AI 在企业中的广泛潜力感到兴奋,它不仅可以帮助开发者和工程领导者,还可以为客户支持团队提供支持,并实现自动化 AI 代码流水线。

在回顾自己使用 Gemini API 的历程时,Spektor 向其他开发者提供了以下建议:

“Gemini 2.0 Flash 的功能比您想象的更强大,请不要忽视它。它的召回率非常高,比一些速度较慢、价格较高的模型好得多。”他还鼓励开发者探索 Gemini 系列的最新模型:“新一代模型 Gemini 2.0 Flash 和 Gemini 2.5 Pro 值得关注。Gemini 2.0 Flash 使我们产品的速度提升了一倍以上,同时还提高了回答的质量。新模型是一项重大阶跃式进步。”

Jolt AI 的成功案例突显了 Gemini 2.0 Flash 的速度和功能如何显著增强 AI 赋能的开发者工具,尤其是那些处理复杂大型代码库的工具。

准备好构建了吗?立即探索 Gemini API 文档并开始使用 Google AI Studio