是的,GPT-2是开源的。它是一个强大的大规模自然语言生成模型,由OpenAI开发并在2019年公开发布。GPT-2的代码和模型可以在GitHub上免费获得,并且可以在各种应用中使用。但是,需要注意的是,GPT-2模型有多个版本,其中包括小型版本和超大型版本。小型版本的代码和模型是免费的,但是超大型版本的代码和模型并不是开源的,而是作为有偿服务提供的。
GPT-2 是一种基于 transformer 的大型语言模型,具有 15 亿个参数,在 800 万网页数据集上进行训练。 它是论文《语言模型是无人监督的多任务学习者》(Language Models are Unsupervised Multitask Learners)的代码实现。 目前发布了 GPT-2 的小型(117M 参数)和中型(345M 参数)版本,还没有发布更大的模型,但已经发布了
GPT-J 是一个基于 GPT-3,由 60 亿个参数组成的自然语言处理 AI 模型。该模型在一个 800GB 的开源文本数据集上进行训练,并且能够与类似规模的 GPT-3 模型相媲美。 该模型通过利用 Google Cloud 的 v3-256 TPU 以及 EleutherAI 的 The Pile 数据集进行训练的,历时大约五周时间。 性能对比: Model Weights Training
PDF GPT 允许你使用 Universal Sentence Encoder 和 Open AI 与你的 PDF 文件聊天,是一个在聊天机器人中转换 pdf 文件的开源解决方案。 由于嵌入比 OpenAI 更好,相较其他工具提供了 hallucination free 响应。 返回的响应甚至可以在方括号 ([]) 中引用信息所在的页码,增加响应的可信度并有助于快速找到相关信息。 特点: PDF
Cerebras GPT 是由 Cerebras 公司开源的自然语言处理领域的预训练大模型,其模型参数规模最小 1.11 亿,最大 130 亿,共 7 个模型。 与业界的模型相比,Cerebras-GPT几乎是各个方面完全公开,没有任何限制。不管是模型架构,还是预训练结果都是公开的。目前开源的模型结构和具体训练细节如下:
Chart-GPT 是一个基于文本输入构建图表的 AI 工具,可在几秒钟内将文本转换为漂亮的图表。 https://www.chartgpt.dev/ 首先克隆这个存储库: git clone https://github.com/whoiskatrin/chart-gpt.gitcd chart-gpt 然后用 cp .env.example .env 复制 .example 模板,并添加你的
GPT Neo 使用 mesh-tensorflow 库实现了 GPT 系列的语言模型,其中包括 GPT-2 和 GPT-3,声称可以扩展到完整的 GPT-3 大小。
Auto-GPT 是基于 GPT-4 的实验性项目,目的是让 GPT-4 完全自动化运行。除了能够自动联网搜索、搜集各种数据之外,它还能尝试访问当下的主流网站和平台,利用 GPT 进行文件存储和总结。 特性 用于搜索和信息收集的 Internet 访问 长期和短期内存管理 用于文本生成的 GPT-4 实例 访问热门网站和平台 使用 GPT-3.5 进行文件存储和汇总 运行示例
Freedom GPT 是一个桌面应用程序,允许用户在他们的本地机器上运行 Alpaca 模型,使用 Electron 和 React 构建。 需求 Node.js Yarn Git 直接运行应用程序(仅限 Mac 和 Windows) git clone https://github.com/ohmplatform/FreedomGPT.git freedom-gptcd freedom-