当前位置: 首页 > 知识库问答 >
问题:

StanfordCoreNLP不同于StanfordCoreNLPServer

辛成周
2023-03-14

java-mx3g-cp“*”edu.stanford.nlp.pipeline.stanfordcorenlp-props stanfordcorenlp-spanish.properties

第二个命令打开一个终端和西班牙语解析器工作正常,但从服务器版本来看,它使用英语解析器,而不是西班牙语。

~/CoreNLP/stanford-corenlp-full-2015-12-09# java -mx3g -cp "*" edu.stanford.nlp.pipeline.StanfordCoreNLPServer  -props StanfordCoreNLP-spanish.properties
-- listing properties --
pos.model=edu/stanford/nlp/models/pos-tagger/sp...
ner.model=edu/stanford/nlp/models/ner/spanish.a...
ner.useSUTime=false
parse.model=edu/stanford/nlp/models/lexparser/spa...
tokenize.language=es
annotators=tokenize, ssplit, pos, ner, parse
ner.applyNumericClassifiers=false
Starting server on port 9000 with timeout of 5000 milliseconds.
StanfordCoreNLPServer listening at /0:0:0:0:0:0:0:0:9000
[/0:0:0:0:0:0:0:1:49579] API call w/annotators tokenize,ssplit,parse
El presidente Julio Sanches formo ungrupo de ministros a quienes llamo los cinco economistas magnificos.
[pool-1-thread-1] INFO edu.stanford.nlp.pipeline.StanfordCoreNLP - Adding annotator tokenize
[pool-1-thread-1] INFO edu.stanford.nlp.pipeline.StanfordCoreNLP - Adding annotator ssplit
[pool-1-thread-1] INFO edu.stanford.nlp.pipeline.StanfordCoreNLP - Adding annotator parse
[pool-1-thread-1] INFO edu.stanford.nlp.parser.common.ParserGrammar - Loading parser from serialized file edu/stanford/nlp/models/lexparser/englishPCFG.ser.gz ...
done [0.4 sec].

对于我使用的客户,wget--post-data'el presidente Julio Sanches formo ungrupo de ministros a quienes llamo los cinco economistas mergionos。‘'localhost:9000/?properties={“tokenize.whitespace”:“true”,“注释器”:“parse”,“outputformat”:“text”}'-o-

共有1个答案

卫财
2023-03-14

解决方案是用法国模型运行斯坦福corenlp服务器

但我只是按以下方式运行:

服务器java-mx4g-cp“*”edu.stanford.nlp.pipeline.stanfordCorenlpServer客户端

 类似资料:
  • 假设我有+10000个句子,我想像这个例子一样分析。有可能并行处理这些和多线程吗?

  • 我的目标是测试这段代码,以确保斯坦福核心NLP安装正确。首先,我使用NuGet package manager安装了StanfordCOreNLP包,然后下载了一个zip文件,其中包含一个需要使用命令安装的jar文件,然后运行代码。 在我得到一个错误,说: 埃杜。斯坦福。nlp。木卫一。RuntimeIOException:加载标记器模型时出错(可能缺少模型文件)” 内部异常IOException

  • 我试图创建一个Pig UDF,它使用通过sista Scala API接口的Stanford CoreNLP包提取tweet中提到的位置。它在本地使用“SBT run”运行时工作良好,但在从PIG调用时抛出“java.lang.NosuchMethodError”异常: 从标签器edu/stanford/nlp/models/pos-tagger/english-left3words/englis

  • 当我使用StanfordCoreNLP的SUTime功能,使用其留档中给出的代码,其中涉及使用AnnotationPipeline创建管道对象时,我能够成功地从字符串中提取TIME。 我还尝试了@StanfordNLPHelp在这个链接中建议的解决方案:使用StanfordCoreNLP管道的日期 但错误仍然存在:

  • 我正在尝试使用MapReduce处理大量文档,其想法是在mapper中将文件拆分为文档,并在reducer阶段应用stanford coreNLP注释器。 我有一个相当简单(标准)的“tokenize、ssplit、pos、lemma、ner”管道,reducer只调用一个函数,将这些注释器应用于reducer传递的值,并返回注释(作为字符串列表),但生成的输出是垃圾。 我已经观察到,如果我从映射

  • 问题内容: 我在SQL查询中使用sum()寻找帮助: 我使用它是因为我正在执行“分组依据”,这可以确保同一行不会被重复计数。 问题是SUM(conversions.value)对每行的“值”计数超过一次(由于分组依据) 我基本上想为每个DISTINCT conversions.id 做。 那可能吗? 问题答案: 我可能是错的,但据我了解 conversions.id* 是表 转换 的 主键 * s