V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
lukachen94
V2EX  ›  程序员

用 Puppeteer 做“豆包 LLM 代理服务”可行吗?怎么做更稳定?

  •  
  •   lukachen94 · 2 天前 · 556 次点击

    我最近在尝试做一个“网页 LLM 代理”的 side project ,纯技术练习。

    流程:

    1. server 暴露一个 POST /chat
    2. 后端用 Puppeteer 维护一个常驻浏览器,会登录豆包的网页端
    3. 把 API 传来的 prompt 输入到网页的聊天框
    4. 监听页面返回的流式输出(类似 SSE/WS )
    5. 再把 token 实时写回 API response

    基本上就是用浏览器网页的 LLM 模型,封装成一个自己的 HTTP 接口。

    我遇到的问题:

    • 风控问题:登录同一个账号,多次请求,还是 Puppeteer ,有封号风险?
    • 页面回复通常是流式的:大家一般怎么稳定 hook ? WebSocket ?还是直接监听 DOM ?
    • Puppeteer 长时间保持登录态,有什么 best practice ?
    • 是否需要做队列避免并发导致页面状态错乱?

    有没有做过 RPA / web automation 的朋友给点经验?

    只是玩具项目,不商用。

    zktsin
        1
    zktsin  
       2 天前 via iPhone
    lukachen94
        2
    lukachen94  
    OP
       2 天前
    @zktsin 非常感谢啊 这个开源项目挺好
    bbbb
        3
    bbbb  
       2 天前
    @zktsin 感谢,也在找
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2782 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 19ms · UTC 14:12 · PVG 22:12 · LAX 06:12 · JFK 09:12
    ♥ Do have faith in what you're doing.