我从中找到了有关运行RegexNER的信息http://nlp.stanford.edu/software/regexner.html
此外,我还研究了样本,并遵循cmd对我来说很好。
java-mx1g-cp'*'edu。斯坦福。nlp。管道StanfordCoreNLP——注释者的标记化、ssplit、pos、引理、ner、regexner’——文件JuliaGillard。txt-regexner。映射jg regexner。txt
我研究了如何从中设置斯坦福NLP服务器http://stanfordnlp.github.io/CoreNLP/corenlp-server.html.
并跟随cmd
java-mx4g-cp“*”教育单元。斯坦福。nlp。管道斯坦福德Corenlpserver
可以在9000端口启动nlp服务器。
但是当我试图用-regexner.mapping运行服务器时jg-regexner.txtit dos nt work.有人能帮我解决这个问题吗。
要使用stanford NERS获取Regex NERSalong,请创建Regex ner文件,例如regexner。txt文件,并将该文件放在与stanford JAR相同的目录中。然后,在调用服务器时,将这些参数添加到请求url中。
properties={"annotators": "tokenize,ssplit,ner,regexner","outputFormat": "json","enforceRequirements":"false", "regexner.mapping":"regexner.txt"}
抱歉发晚了。希望它能帮助别人。
我假设我试图将输出转换成的格式是旧版本的CorenLP的默认输出。有什么方法可以得到所需格式的输出吗?
我正在注释和分析一系列文本文件。 pipeline.annotate方法每次读取文件时都会变得越来越慢。最终,我得到了一个OutOfMemoryError。 管道初始化一次: 然后,我使用相同的管道实例处理每个文件(如SO和斯坦福大学在其他地方推荐的)。 明确地说,我希望问题出在我的配置上。但是,我确信失速和内存问题发生在pipeline.annotate(file)方法上。 在处理每个文件后,我
问题内容: 如何使用Stanford解析器将文本或段落拆分为句子? 有没有可以提取句子的方法(例如为Ruby提供的方法)? 问题答案: 您可以检查DocumentPreprocessor类。以下是一个简短的摘要。我认为可能还有其他方式可以做您想要的事情。
我在使用Stanford pipeline(CoreNLP的最后一个版本)解析BNC时遇到了一个问题。 解析器只是停留在这个句子中,它甚至不会抛出错误。句子在web界面中得到正确的解析。 我尝试了标记器的选项,但没有结果。 我添加了我正在使用的命令行:java[...]edu.stanford.nlp.pipeline.stanfordCorenlp-注释器tokenize,ssplit,pos,
我曾使用grep和awk从斯坦福CRF-NER的“内联XML”中提取英语文本中的命名实体,我希望在其他人类语言中使用相同的更大工作流。 我一直在尝试法语(西班牙语似乎给我带来了一个Java错误,这是另一个故事),并使用我得到标准文本输出,每个句子都有各种类型的注释,包括正确组合在一起的多单词实体,如下所示: 我知道解析它是可能的,但当我真的只是想要整个文件中的实体列表时,这似乎浪费了很多处理。 我
我是Java和Stanford NLP工具包的新手,并试图在一个项目中使用它们。具体地说,我尝试使用Stanford Corenlp toolkit来注释文本(使用Netbeans而不是命令行),并尝试使用http://nlp.Stanford.edu/software/Corenlp.shtml#Usage上提供的代码(使用Stanford Corenlp API)。问题是:有人能告诉我如何在文