GPT Neo 使用 mesh-tensorflow 库实现了 GPT 系列的语言模型,其中包括 GPT-2 和 GPT-3,声称可以扩展到完整的 GPT-3 大小。
GPT-J 是一个基于 GPT-3,由 60 亿个参数组成的自然语言处理 AI 模型。该模型在一个 800GB 的开源文本数据集上进行训练,并且能够与类似规模的 GPT-3 模型相媲美。 该模型通过利用 Google Cloud 的 v3-256 TPU 以及 EleutherAI 的 The Pile 数据集进行训练的,历时大约五周时间。 性能对比: Model Weights Training
PDF GPT 允许你使用 Universal Sentence Encoder 和 Open AI 与你的 PDF 文件聊天,是一个在聊天机器人中转换 pdf 文件的开源解决方案。 由于嵌入比 OpenAI 更好,相较其他工具提供了 hallucination free 响应。 返回的响应甚至可以在方括号 ([]) 中引用信息所在的页码,增加响应的可信度并有助于快速找到相关信息。 特点: PDF
Cerebras GPT 是由 Cerebras 公司开源的自然语言处理领域的预训练大模型,其模型参数规模最小 1.11 亿,最大 130 亿,共 7 个模型。 与业界的模型相比,Cerebras-GPT几乎是各个方面完全公开,没有任何限制。不管是模型架构,还是预训练结果都是公开的。目前开源的模型结构和具体训练细节如下:
Chart-GPT 是一个基于文本输入构建图表的 AI 工具,可在几秒钟内将文本转换为漂亮的图表。 https://www.chartgpt.dev/ 首先克隆这个存储库: git clone https://github.com/whoiskatrin/chart-gpt.gitcd chart-gpt 然后用 cp .env.example .env 复制 .example 模板,并添加你的
GPT-2 是一种基于 transformer 的大型语言模型,具有 15 亿个参数,在 800 万网页数据集上进行训练。 它是论文《语言模型是无人监督的多任务学习者》(Language Models are Unsupervised Multitask Learners)的代码实现。 目前发布了 GPT-2 的小型(117M 参数)和中型(345M 参数)版本,还没有发布更大的模型,但已经发布了
Auto-GPT 是基于 GPT-4 的实验性项目,目的是让 GPT-4 完全自动化运行。除了能够自动联网搜索、搜集各种数据之外,它还能尝试访问当下的主流网站和平台,利用 GPT 进行文件存储和总结。 特性 用于搜索和信息收集的 Internet 访问 长期和短期内存管理 用于文本生成的 GPT-4 实例 访问热门网站和平台 使用 GPT-3.5 进行文件存储和汇总 运行示例