跳转至内容
  • 版块
  • 最新
  • 标签
  • 热门
  • 世界
  • 用户
  • 群组
皮肤
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • 默认(不使用皮肤)
  • 不使用皮肤
折叠
品牌标识

独立开发很酷

  1. 主页
  2. 产品推广
  3. 一个在命令行使用 AI/Agent 的小工具(例如 code-review,文档 QA)

一个在命令行使用 AI/Agent 的小工具(例如 code-review,文档 QA)

已定时 已固定 已锁定 已移动 产品推广
1 帖子 1 发布者 20 浏览
  • 从旧到新
  • 从新到旧
  • 最多赞同
回复
  • 在新帖中回复
登录后回复
此主题已被删除。只有拥有主题管理权限的用户可以查看。
  • S 离线
    S 离线
    solodev记录君
    写于 最后由 编辑
    #1

    虽然 ChatGPT 等等这些网页工具都非常方便,但是很多时候都是在远程服务器上开发,经常想着如果能在命令行里快速调用一个 LLM 来做一些 PDF 的 summary ,或者 code-review 之类的工作,可以提升一定的效率,因此这个周末做了一个小工具。 一方面它可以把一些 workflow 固定下来打包,这样可以之后快速重用;另一方面也可以使用一些别人提前制作好的包。

    使用方法:

    安装一个 vibe的 executable

    pip install v-agents

    安装 docqa 的包

    vibe install docqa

    QA to remote files, this package will download and parse PDF, then feed into LLM

    vibe run docqa -q "what are the future work of this paper?" -f https://arxiv.org/pdf/2404.00399

    如果你在一个 git installed 的文件夹里,也可以:

    vibe install code-review
    vibe run code-review

    目前这个会使用一个远程的 LLM ,运行在一个去中心的 LLM Serving 系统上。也可以通过环境变量使用任意 LLM 。

    GitHub: https://github.com/researchcomputer/vagents

    两个包的例子: https://github.com/vagents-ai/packages

    欢迎来Discord讨论和分享!

    转载:v2ex

    1 条回复 最后回复
    0
    回复
    • 在新帖中回复
    登录后回复
    • 从旧到新
    • 从新到旧
    • 最多赞同


    • 登录

    • 没有帐号? 注册

    Powered by NodeBB Contributors
    • 第一个帖子
      最后一个帖子
    0
    • 版块
    • 最新
    • 标签
    • 热门
    • 世界
    • 用户
    • 群组