Release v0.3.0
✨ 新特性
OpenAI 流式输出支持
终于来了!commit message 生成现在支持实时流式输出,类似 ChatGPT 的打字效果。
效果:不再盯着 spinner 干等,而是看着文字一个个蹦出来。
配置:默认启用,可在配置中关闭:
toml
[ui]
streaming = true # 默认开启支持情况:
| Provider | 流式支持 |
|---|---|
| OpenAI / 兼容 API | ✅ 完整支持 |
| Claude | ⏳ Fallback 到 Spinner |
| Ollama | ⏳ Fallback 到 Spinner |
不支持流式的 provider 会自动回退到 spinner 模式,无需手动配置。
技术实现:
- 新增 SSE (Server-Sent Events) 解析模块
LLMProvidertrait 新增supports_streaming()和generate_commit_message_streaming()方法- 异步流处理,实时渲染到终端
🎨 UI 改进
彩色反馈提示
Retry with feedback 选项现在会显示彩色提示文字,更清晰地引导用户输入。
简化选项描述
重试选项从 "Retry with feedback - Regenerate with instructions" 简化为 "Retry with feedback - Add instructions",更简洁。
📦 依赖变更
- 新增
bytes = "1.10"- 流式响应字节处理 - 新增
futures = "0.3"- 异步流处理 reqwest添加streamfeature
配置变更
新增 [ui] 配置项:
toml
[ui]
streaming = true # 启用流式输出(默认 true)升级说明
从 v0.2.1 升级无需任何操作,完全向后兼容。
流式输出默认启用,如果你更喜欢 spinner 等待方式,可以设置 streaming = false。
📦 安装
bash
cargo install gcop-rs统计
15 个文件变更
+413 行新增
-30 行删除📚 文档
反馈
如有问题或建议,欢迎提交 Issue。