求问。如何用langchain流输出到前端,案例里面都是流输出到命令行,

如果用的是ConversationChain,它底层调用了两次GPT的接口,返回了问题+答案的token,如果是这样,应该怎么样定义返回给前端的结果呢

1 个赞

大佬们,你们的方法都试了,还是无法实现流式传输。
有些地方不太理解。
class TokenGenerator:
def init(self):
self.tokens = []
# 记得结束后这里置true
self.finish = False
这里,没有看到你们有在服务代码里对finish赋值为True啊?

你有解决么?我搞的头疼了都,搞了几个礼拜了。。