package src;
import java.util.Properties;
import edu.stanford.nlp.pipeline.StanfordCoreNLP;
public class NLPTest {
public static void main(String[] args){
Properties props = new Properties();
props.put("annotators", "tokenize, ssplit, pos, lemma, ner, parse, dcoref");
StanfordCoreNLP coreNLP = new StanfordCoreNLP(props);
}
}
我在eclipse中运行了这个示例代码,但它给出了以下错误:从edu/stanford/nlp/models/ner/english.all.3class.distsim.crf.ser.gz中加载分类器......线程“main”Java.lang.outofmemoryerror:Java堆空间
尽管当我从Propmt命令运行Stanford CoreNLP时,一切工作都很完美。有人能告诉我解决办法吗?是否与向Eclipse分配内存有关?
Eclipse的问题在于,您不需要设置Eclipse获得的内存量(Eclipse.ini
文件),而是需要设置从Eclipse运行的Java程序获得的内存量。这在runrun configurations
中指定,如其他堆栈溢出答案所述。
但是,您是否使用32位JVM运行?您很可能需要使用64位JVM来运行,以便能够为Stanford CoreNLP分配足够的内存来愉快地运行。
我试图创建一个Pig UDF,它使用通过sista Scala API接口的Stanford CoreNLP包提取tweet中提到的位置。它在本地使用“SBT run”运行时工作良好,但在从PIG调用时抛出“java.lang.NosuchMethodError”异常: 从标签器edu/stanford/nlp/models/pos-tagger/english-left3words/englis
问题内容: 当我尝试运行以下程序时,出现了以上错误。有人可以解释什么是内存错误,以及如何解决此问题?。 该程序将字符串作为输入,并找到所有可能的子字符串,并从中创建一个集(按字典顺序),并应在用户要求的相应索引处打印值,否则应打印“无效” 问题答案: 这一个在这里: 对于大型字符串,这似乎非常低效且昂贵。 做得更好 缓冲区对象保留对原始字符串以及开始和长度属性的引用。这样,不会发生不必要的数据重复
在使用Eclipse Jetty插件(http://marketplace.Eclipse.org/content/Eclipse-Jetty?mpc=true&mpc_state=)时,我开始出现以下错误: 在Windows和MacOs X系统上的两个独立项目中开始出现这种情况。请注意,常规的Jetty部署以及Jetty runner Maven插件都非常有效,问题似乎只出现在Eclipse插件
本文向大家介绍eclipse 增加Eclipse的最大堆内存,包括了eclipse 增加Eclipse的最大堆内存的使用技巧和注意事项,需要的朋友参考一下 示例 要增加Eclipse使用的最大堆内存量,请编辑eclipse.iniEclipse安装目录中的文件。 该文件指定用于启动Eclipse的选项,例如要使用的JVM,以及JVM的选项。具体来说,您需要编辑-XmxJVM选项的值(如果不存在,请
问题内容: 我尝试按照此http://hadoop.apache.org/common/docs/stable/single_node_setup.html文档安装Hadoop 。当我尝试执行此 我收到以下异常 请提出一个解决方案,以便我可以尝试该示例。整个异常在下面列出。我是Hadoop的新手,我可能做过一些愚蠢的事情。任何建议将不胜感激。 问题答案: 您可以通过编辑conf / mapred-
问题内容: 首先,我想提一下,我有一个3 GB的内存。 我正在研究一种在节点上时间呈指数形式的算法,因此在代码中已经有了 生成列表中所有顶点的组合,然后我可以处理其中一种排列。 但是,当我为40个顶点运行程序时,它给出了内存错误。 有没有一种更简单的实现方式可以通过它生成顶点的所有组合而不会出现此错误。 问题答案: 尝试使用由排列生成的迭代器,而不是用它重新创建一个列表: 通过这样做,python