当我运行flink时,java中的scala REPL脚本无法编译。
Settings settings = new Settings(); ((MutableSettings.BooleanSetting) settings.usejavacp()).value_$eq(true); IMain main = new IMain(settings, new PrintWriter(System.out)); // Thread.currentThread().setContextClassLoader(main.classLoader()); for (String imp : imports) { main.interpret(MessageFormat.format("import {0}", imp)); } ExecutionEnvironment env = ExecutionEnvironment.createLocalEnvironment(); String script = FileUtils.readFileToString(new File("/opt/project/security-detection/sappo/src/sappo-interpreter/src/test/resources/demo.txt"), StandardCharsets.UTF_8); main.bind(new NamedParamClass("env", ExecutionEnvironment.class.getName(), env)); main.interpret(script);
val text = env.fromElements("Who's there?", "I think I hear them. Stand, ho! Who's there?") // result 1 val counts = text.flatMap { _.toLowerCase.split("\\W+") filter { _.nonEmpty } } map { (_, 1) } groupBy(0) sum(1) counts.print() // result 2 val counts = text.map((x:String) => 1) counts.print() // result 3 text.print()
import org.apache.flink.core.fs._ import org.apache.flink.core.fs.local._ import org.apache.flink.api.common.io._ import org.apache.flink.api.common.aggregators._ import org.apache.flink.api.common.accumulators._ import org.apache.flink.api.common.distributions._ import org.apache.flink.api.common.operators._ import org.apache.flink.api.common.operators.base.JoinOperatorBase.JoinHint import org.apache.flink.api.common.functions._ import org.apache.flink.api.java.io._ import org.apache.flink.api.java.aggregation._ import org.apache.flink.api.java.functions._ import org.apache.flink.api.java.operators._ import org.apache.flink.api.java.sampling._ import org.apache.flink.api.scala._ import org.apache.flink.api.scala.utils._ import org.apache.flink.streaming.api.scala._ import org.apache.flink.streaming.api.windowing.time._ env: org.apache.flink.api.java.ExecutionEnvironment = Local Environment (parallelism = 8) : ee335d29eefca69ee5fe7279414fc534 console:67: error: missing parameter type for expanded function ((x$1) => x$1.toLowerCase.split("\\W+").filter(((x$2) => x$2.nonEmpty))) val counts = text.flatMap { _.toLowerCase.split("\\W+") filter { _.nonEmpty } } map { (_, 1) } groupBy(0) sum(1)
import org.apache.flink.core.fs._ import org.apache.flink.core.fs.local._ import org.apache.flink.api.common.io._ import org.apache.flink.api.common.aggregators._ import org.apache.flink.api.common.accumulators._ import org.apache.flink.api.common.distributions._ import org.apache.flink.api.common.operators._ import org.apache.flink.api.common.operators.base.JoinOperatorBase.JoinHint import org.apache.flink.api.common.functions._ import org.apache.flink.api.java.io._ import org.apache.flink.api.java.aggregation._ import org.apache.flink.api.java.functions._ import org.apache.flink.api.java.operators._ import org.apache.flink.api.java.sampling._ import org.apache.flink.api.scala._ import org.apache.flink.api.scala.utils._ import org.apache.flink.streaming.api.scala._ import org.apache.flink.streaming.api.windowing.time._ env: org.apache.flink.api.java.ExecutionEnvironment = Local Environment (parallelism = 8) : 5cbf8e476ebf32fd8fdf91766bd40af0 console:71: error: type mismatch; found : String => Int required: org.apache.flink.api.common.functions.MapFunction[String,?] val counts = text.map((x:String) => 1)
import org.apache.flink.core.fs._ import org.apache.flink.core.fs.local._ import org.apache.flink.api.common.io._ import org.apache.flink.api.common.aggregators._ import org.apache.flink.api.common.accumulators._ import org.apache.flink.api.common.distributions._ import org.apache.flink.api.common.operators._ import org.apache.flink.api.common.operators.base.JoinOperatorBase.JoinHint import org.apache.flink.api.common.functions._ import org.apache.flink.api.java.io._ import org.apache.flink.api.java.aggregation._ import org.apache.flink.api.java.functions._ import org.apache.flink.api.java.operators._ import org.apache.flink.api.java.sampling._ import org.apache.flink.api.scala._ import org.apache.flink.api.scala.utils._ import org.apache.flink.streaming.api.scala._ import org.apache.flink.streaming.api.windowing.time._ env: org.apache.flink.api.java.ExecutionEnvironment = Local Environment (parallelism = 8) : ee335d29eefca69ee5fe7279414fc534 Who's there? I think I hear them. Stand, ho! Who's there? text: org.apache.flink.api.java.operators.DataSource[String] = org.apache.flink.api.java.operators.DataSource@53e28097 PASSED: testIMain PASSED: testIMainScript
在java中运行flink scala REPL脚本时无法编译。 我尝试了这段java代码来运行Flink scala REPL进行测试,bug总是异常。 scala文字 结果1 结果2 结果3
问题内容: 嗨,我是Android编程的新手,我想问的问题可能很简单,但是我对如何使其工作一无所知,请多多包涵。 我从Android开发人员网站安装了android-sdk和相关工具。我按照他们的指示创建了HelloWorld应用,但出现了一些我不理解的错误。 文件MainActivity.java是一个自动生成的文件,在以下位置,我不断出现此文件错误: 因此,我尝试浏览生成的class文件中的l
本文向大家介绍什么是JavaScript中的JSlint错误“缺少基数参数”?,包括了什么是JavaScript中的JSlint错误“缺少基数参数”?的使用技巧和注意事项,需要的朋友参考一下 JavaScript中可用的parseInt函数具有以下签名- 其中参数如下- 字符串-要解析的值。如果此参数不是字符串,则使用ToString方法将其转换为一个。此参数中的前导空格将被忽略。 radix -
问题内容: 考虑这个例子,该例子取自一本书,其中有一个超类Gen和一个子类Gen2 … 现在,该书指出以下内容将无法编译(让我们在主要方法中假设其内容) 由于泛型类型信息在运行时不存在,因此无法编译。如果在运行时不存在,什么时候存在?我以为它不会在编译时存在,而会在运行时存在。当然,以下适用于带有通配符的运行时… 因此要澄清,我的问题是为什么泛型类型信息在运行时不存在?我是否忽略了一个简单的概念?
我正在使用swig 4.0.2生成一个供tcl使用的包。 消息来源。i文件包含很多类和生成的_wrap。cpp文件包含了我所期望的所有类及其方法,并且一切编译正常,没有任何警告。 但是,对于至少一个类,当我从tcl脚本调用实例上的方法时,我会收到一个运行时错误,说该方法不存在。该错误还转储了该类的所有可用方法。我试图调用的方法以及其他一些方法不存在于该列表中。 虽然缺少哪些方法是一致的,但列表中似
我只是在试着学OAuth。我写了一些代码来测试它。当我提交请求时,我得到{“error”:“invalid_request”,“error_description”:“missing grant type”} 邮递员的错误。 这是我寄给邮递员的东西: