我发现了之前关于这个主题的两个StackOverflow问题,它们是“Stanford OpenIE使用定制的NER模型”和“为什么Stanford CoreNLP NER-annotator默认加载3个模型?”
这两个帖子都有很好的答案。答案的一般信息是,您必须在文件中编辑代码。
使用自定义NER模型的斯坦福OpenIE
是否需要修改或添加此代码props.put(“ner.model”,“model_path1,model_path2”);
到CoreNLP软件中的特定类文件中?
问:从我的研究来看,我似乎需要添加/修改一些代码来调用我独特的NER模型。上面概述了这些“编辑”,这些信息是从其他StackOverflow问题中提取的。我具体需要编辑哪些文件?这些文件具体位于哪里(例如,EDU/Stanford/NLP/...)?
编辑:我的系统运行在本地服务器上,我使用API pycorenlp来打开到本地服务器的管道并对其发出html" target="_blank">请求。Python/PycorenLP代码的两个关键行是:
如果要自定义服务器使用的管道,请创建一个名为server.properties
的文件(也可以任意调用它)。
然后在使用java命令启动服务器-serverproperties server.properties
时添加此选项。
在那个。properties文件中,应该包括ner.model=/path/to/custom_model.ser.gz
A.属性文件中可以有无限量的属性设置,每行一个设置(空白行被忽略,#'d out行也被忽略)
当您运行Java命令时,它默认在运行命令的目录中查找文件。因此,如果命令包含-serverproperties server.properties
,则假定文件server.properties
位于运行命令的同一目录中。如果提供绝对路径-serverproperties/path/to/server.properties
,则可以在任何地方运行该命令。
为了明确起见,您可以使用以下命令启动服务器(在包含所有JAR的文件夹中运行):
ner.model = /path/to/custom_model.ser.gz
annotators = tokenize,ssplit,pos,lemma,ner,depparse
ner.model = /path/to/custom_model.ser.gz
parse.maxlen = 100
举个例子...您应该将所有设置放入server.properties
无法通过终端对Python3.5使用pycorenlp
您似乎在使用我并不了解的pycorenlp库。2其他选项是我在答案中显示的一些代码,或者我们制作的节
包。详细信息在上面的回答中。
问题内容: 我已经创建了自己的NER模型与斯坦福大学“斯坦福大学NER”软件,并按照这些方向。 我知道CoreNLP按照以下顺序开箱即用地加载了三个NER模型: 我现在想将我的NER模型包括在上面的列表中,并先用NER模型标记文本。 我已经找到了关于该主题的两个以前问题,它们是“使用自定义NER模型的Stanford OpenIE[”和“为什么Stanford CoreNLP NER注释器默认加载
我是NLP领域的新手,正在使用入门。 我在这里看了一些留档中给出的命令:https://opennlp.apache.org/documentation/manual/opennlp.html (我正在使用命令行界面开始) 我使用已经可用的示例模型来试验不同的工具,最后决定创建一个自定义NER模型。 我遵循了上述链接中给出的说明。 将给出的例句复制到文件(我只是创建了一个具有该扩展名的新文件,并将
我们有一个报告编写工具,我们正在尝试添加搜索功能。基本上,用户可以输入一个问题,并根据句子中的标准返回一份报告。我们正在尽可能地保持开放性,不需要特定的句子结构,这就是为什么我们想尝试OpenNLP-NER。 例如: “上季度的艺术出勤率是多少?” 标记为: 我们试着用不同的部门,不同的过滤器等提出不同的问题。。我们还没有达到15k,只有14.6k,所以我们还在努力。 就分析问题而言,这是问题的开
我正在尝试为多个实体训练自定义NER模型。以下是示例训练数据: 方法采用字符串参数。这个参数有什么用途?还有,我如何为多个实体(例如,在我的例子中,,,)训练一个模型 }
问题内容: 在Keras中,如果您需要自定义损失以及其他参数,我们可以像https://datascience.stackexchange.com/questions/25029/custom- loss-function-with-additional-parameter-in- 凯拉斯 当我训练模型时,上述方法有效。但是,一旦训练了模型,我将很难加载模型。当我尝试在load_model中使用c
如果您是一位经验丰富的ML开发人员,而且ML Kit的预训练的模型不能满足您的需求,您可以通过ML Kit使用定 的TensorFlow Lite模型。 使用Firebase托管您的TensorFlow Lite模型或将其与您的应用程序打包在一起。然后,使用ML Kit SDK来使用您的自定义模型的最佳版本构建应用。如果您使用Firebase托管您的模型,ML Kit会自动更新您的用户的所用版本。