我在使用Apache Flink Scala API时遇到问题
例如,即使我从官方文档中获取示例,scala编译器也会给我大量的编译错误。
代码:
object TestFlink {
def main(args: Array[String]) {
val env = ExecutionEnvironment.getExecutionEnvironment
val text = env.fromElements(
"Who's there?",
"I think I hear them. Stand, ho! Who's there?")
val counts = text.flatMap { _.toLowerCase.split("\\W+") filter { _.nonEmpty } }
.map { (_, 1) }
.groupBy(0)
.sum(1)
counts.print()
env.execute("Scala WordCount Example")
}
}
Scala IDE为行val text=env输出以下内容。fromElements
Multiple markers at this line
- not enough arguments for method fromElements: (implicit evidence$14: scala.reflect.ClassTag[String], implicit evidence$15:
org.apache.flink.api.common.typeinfo.TypeInformation[String])org.apache.flink.api.scala.DataSet[String]. Unspecified value parameter evidence$15.
- could not find implicit value for evidence parameter of type org.apache.flink.api.common.typeinfo.TypeInformation[String]
- could not find implicit value for evidence parameter of type org.apache.flink.api.common.typeinfo.TypeInformation[String]
- not enough arguments for method fromElements: (implicit evidence$14: scala.reflect.ClassTag[String], implicit evidence$15:
org.apache.flink.api.common.typeinfo.TypeInformation[String])org.apache.flink.api.scala.DataSet[String]. Unspecified value parameter evidence$15.
这不仅仅是frommelements
方法:即使我从文件中读取数据,然后尝试做一些像ds这样简单的事情。地图(r)=
Multiple markers at this line
- not enough arguments for method map: (implicit evidence$4: org.apache.flink.api.common.typeinfo.TypeInformation[K], implicit
evidence$5: scala.reflect.ClassTag[K])org.apache.flink.api.scala.DataSet[K]. Unspecified value parameters evidence$4, evidence$5.
- could not find implicit value for evidence parameter of type org.apache.flink.api.common.typeinfo.TypeInformation[K]
- could not find implicit value for evidence parameter of type org.apache.flink.api.common.typeinfo.TypeInformation[K]
- not enough arguments for method map: (implicit evidence$4: org.apache.flink.api.common.typeinfo.TypeInformation[K], implicit
evidence$5: scala.reflect.ClassTag[K])org.apache.flink.api.scala.DataSet[K]. Unspecified value parameters evidence$4, evidence$5.
我尝试了Flink的两个版本:Maven Central的0.8.1版本和github存储库中最新的版本。
我运行的是Windows7,scala 2.10.4,JDK1.7.0_25,scala IDE版本是3.0.3-20140327-1716-Typesafe,位于Eclipse4.3.0之上
我做错了什么?
您需要将以下导入添加到代码中:
import org.apache.flink.api.scala._
那么这个例子就行了。
问题内容: 运行此程序时出现错误: 存储过程为: 请指出此代码中的问题。 问题答案: 您正在调用错误的过程。您有程序,正在打电话 改成, 设置String参数。
我有一个主干模型,我正试图销毁它,但没有随请求发送任何参数,因此服务器返回一个“Delete 404 not found”错误。 我承认我的结构有点奇怪,因为我正在根据项目是否已经在列表中创建/销毁它们。 销毁前
我试图运行一个Selenium脚本与运行它的选项使用chrome或headless驱动程序。这可能不是正确的实现方法,但这是我的第一个想法。解决办法可能是完全避免这种情况... 起作用的示例: envDomain标记也按预期工作,所以我不确定为什么driverName参数会以不同的方式工作。
我有以下场景要测试。我想知道哪个测试框架最适合我的需求。 这里,将为上述变量分配不同的值,这些变量将被传递给测试20次,每次将生成不同的测试输出文件(总共20个输出文件),然后将与预期的数据文件进行比较。(预期数据也有20个文件。) 我有这样15个场景。哪种测试框架最适合这里?参数化Junit是否合适?请提供一些指导方针,以便使用建议的框架。
问题内容: 我在和中遇到以下问题: 我调用以下javascript方法: 来自firebug的链接将如下所示: 根据以下链接: 错误:Sys.ParameterCountException:参数计数不匹配。 我设置 但我得到另一个错误 IE中不存在此问题。 编辑: 问题答案: 可能值得包装数据:用引号引起来的项目 变成
我的项目设置是Spring MVC,Hibernate 3.2.x,在 MySQL 数据库上 收到以下错误: org.hibernate.QueryParameterException:无法找到命名参数电子邮件 方法#1: 方法#2: 错误: java.lang.IllegalArgumentException:参数email不作为命名参数存在于[fromcom.cmgr.beans.UserAc