在自然语言处理领域中,预训练语言模型(Pre-trained Language Models)已成为非常重要的基础技术。为了进一步促进中文信息处理的研究发展,我们发布了基于全词掩码(Whole Word Masking)技术的中文预训练模型BERT-wwm,以及与此技术密切相关的模型:BERT-wwm-ext,RoBERTa-wwm-ext,RoBERTa-wwm-ext-large, RBT3, RBTL3等。
GitHub - ymcui/Chinese-BERT-wwm: Pre-Training with Whole Word Masking for Chinese BERT(中文BERT-wwm系列模型)
在自然语言处理领域中,预训练语言模型(Pre-trained Language Models)已成为非常重要的基础技术。为了进一步促进中文信息处理的研究发展,我们发布了基于全词遮罩(Whole Word Masking)技术的中文预训练模型 BERT-wwm,以及与此技术密切相关的模型:BERT-wwm-ext,RoBERTa-wwm-ext,RoBERTa-wwm-ext-large, RBT3
中文说明 | English 在自然语言处理领域中,预训练语言模型(Pre-trained Language Models)已成为非常重要的基础技术。为了进一步促进中文信息处理的研究发展,我们发布了基于全词遮罩(Whole Word Masking)技术的中文预训练模型BERT-wwm,以及与此技术密切相关的模型:BERT-wwm-ext,RoBERTa-wwm-ext,RoBERTa-wwm-e
BERT 是 Ruby 的 BERT (Binary ERlang Term) 序列化库,可以编码 Ruby 对象到 BERT 格式,或者解码 BERT 二进制到 Ruby 对象。 BERT 规范请看 bert-rpc.org。 以下的 Ruby 类实例会被自动转化为简单的 BERT 类型: Fixnum Float Symbol Array String 以下的 Ruby 类实例会被自动转换为复
Chainer implementation of Google AI's BERT model with a script to load Google's pre-trained models This repository contains a Chainer reimplementation of Google's TensorFlow repository for the BERT mo
Are you looking for X-as-service? Try the Cloud-Native Neural Search Framework for Any Kind of Data bert-as-service Using BERT model as a sentence encoding service, i.e. mapping a variable-length sent
中华新华字典数据库和 API 。收录包括 14032 条歇后语,16142 个汉字,264434 个词语,31648 个成语。 对性能没需求的话,可以用我的新华字典 API 。所有的数据放在 data/ 目录。 Project Structure chinese-xinhua/|+- .vscode/| || +- launch.json <-- VSCode 配置文件|+- data/ <-
deeplearningbook-chinese 是 Deep Learning 中文翻译。 请直接下载PDF阅读(已打包为zip,貌似现在不能上传PDF)。 虽然这一版准确性有所提高,但我们仍然建议英文好的同学或研究者直接阅读原版。 校对认领 我们划分4个类别的校对人员。每个类别需要很多人。 负责人也就是对应的翻译者。 我们需要有人简单地阅读,最好是刚入门或者想入门的同学。有什么翻得不明白的地方
chinese-search 是一个全文检索组件,基层实现依赖 nodejieba 中文分词和 redis 集合存储。比 MySQL 更轻便更敏捷。 使用 ## ES5var search = require('chinese-search');## ES6import search from 'chinese-search'var data = [{ 'name': 'C#权威指南-ful