Skip to content

Release v0.3.0

✨ 新特性

OpenAI 流式输出支持

终于来了!commit message 生成现在支持实时流式输出,类似 ChatGPT 的打字效果。

效果:不再盯着 spinner 干等,而是看着文字一个个蹦出来。

配置:默认启用,可在配置中关闭:

toml
[ui]
streaming = true  # 默认开启

支持情况

Provider流式支持
OpenAI / 兼容 API✅ 完整支持
Claude⏳ Fallback 到 Spinner
Ollama⏳ Fallback 到 Spinner

不支持流式的 provider 会自动回退到 spinner 模式,无需手动配置。

技术实现

  • 新增 SSE (Server-Sent Events) 解析模块
  • LLMProvider trait 新增 supports_streaming()generate_commit_message_streaming() 方法
  • 异步流处理,实时渲染到终端

🎨 UI 改进

彩色反馈提示

Retry with feedback 选项现在会显示彩色提示文字,更清晰地引导用户输入。

简化选项描述

重试选项从 "Retry with feedback - Regenerate with instructions" 简化为 "Retry with feedback - Add instructions",更简洁。

📦 依赖变更

  • 新增 bytes = "1.10" - 流式响应字节处理
  • 新增 futures = "0.3" - 异步流处理
  • reqwest 添加 stream feature

配置变更

新增 [ui] 配置项:

toml
[ui]
streaming = true  # 启用流式输出(默认 true)

升级说明

从 v0.2.1 升级无需任何操作,完全向后兼容。

流式输出默认启用,如果你更喜欢 spinner 等待方式,可以设置 streaming = false

📦 安装

bash
cargo install gcop-rs

统计

15 个文件变更
+413 行新增
-30 行删除

📚 文档

反馈

如有问题或建议,欢迎提交 Issue