当我被处决时
< code > sqlcontext . SQL(" select * from logs where content like“% stream %”)
在我的spark应用程序中,错误显示如下:
java.lang.RuntimeException:[1.39]失败:应为“`*”,但找到“%”
从日志中选择*,其中内容如%stream%^在Success.map$. error(Parsers.scala:135)在scala.util.parsing.combinator.Parsers(1.apply)在Parsers.scala:242$$anonfun$scala.util.parsing.combinator.Parsers(1.apply)在Parsers.scala:242$anonfun$scala.util.parsing.combinator.Parsers(3.apply)在Parsers.scala:222$anonfun$org$apache$火花$sql$SparkSQLParser$其他$scala.util.parsing.combinator.Parsers(2.apply)在org.apache.spark.sql.SparkSQLParser$anonfun$org$apache$火花$sql$SparkSQLParser$其他$1.apply(SparkSQLParser.scala:95)在scala.util.parsing.combinator.Parsers$Success.map(Parsers.scala:136)在scala.util.parsing.combinator.Parsers$scala.sys.package(package.scala:27)在org.apache.spark.sql.catalyst.AbstractSparkSQLParser.apply$Parser$anonfun$map$AbstractSparkSQLParser.scala:40(org.apache.spark.sql.SQLContext)在2.apply$Parser$anonfun$map$SQLContext.scala:130(org.apache.spark.sql.SQLContext)在2.apply$$anon$SQLContext.scala:130(org.apache.spark.sql.SparkSQLParser)在1.apply$Parser$anonfun$append1美元$anonfun$应用$SparkSQLParser.scala:96(Parser. scala: 254)在scala. util. parsingator. parser$Parser$$anonfun$append1美元$anonfun$Apply2美元。应用程序(Parser.在Scala. util. parsing.组合器。解析器$Parser$anonfun1美元append1美元。应用程序(Parser. scala: 254)在Scala. util. parsing. cominator.解析器$anon3美元。应用程序(Parser. scala: 222)在Scala. util. parsing.组合器。解析器$anon2美元$anonfun$Apply14美元。应用程序(Parser. scala: 891)在Scala. util. parsing. cominator.解析器$anon2美元$anonfun$Apply14美元。应用程序(Parser. scala: 891)在Scala. util. DynamicVariable. with Value(DynamicVariable. scala: 57)在Scala. util. parsing. cominator. Parser$anon2美元应用程序(Parser. scala: 890)在Scala. util. parsing. PackratParser$anon1美元应用程序(Pack)在org. apache. spark. stream. dstream. dStream$anonfun$foreachRDD1元.申请(DStream. scala: 534)在org. apache. spark. stream. dstream. dStream$anonfun$foreachRDD1元.申请(DStream. scala: 534)在org. apache. sql. dstream. ForEachDStream$anonfun1元.申请$mcV$sp(ForEachDStream. scala: 42)在org. apache. sql. sql. forEachDStream$anonfun1元.申请(ForEachDStream. scala: 40)在scal. util.尝试$.应用(Try. scala: 161)在org. apache.
如何在 spark sql 中使用“喜欢
”语法?有什么建议吗?
可能您使用的是旧版本的Spark,我已经在Apache Spark 1.4.0中测试了您的查询,它是正确的,但根据行-
java.lang.RuntimeException: [1.39] failure: ``*'' expected but `%' found
你应该试试这个-
sqlcontext.sql("select * from logs where content like '*stream*' ")
问题内容: 我将RDD [myClass]转换为数据框,然后将其注册为SQL表 该表是可调用的,可以用以下命令演示 但是下一步给出了错误,说表未找到:my_rdd Spark的新手。 不明白为什么会这样。有人可以帮我吗? 问题答案: 确保从相同的SQLContext导入hidden._。临时表在一个特定的SQLContext中保留在内存中。
我将RDD[myClass]转换为dataframe,然后将其注册为SQL表 此表是可调用的,可以使用以下命令演示 对Spark来说是个新手。不明白为什么会这样。有谁能帮我摆脱这一切吗?
问题内容: 我目前正在制作一份报告,向我显示我们销售团队涵盖的所有邮政编码。 每个团队涵盖100多个邮政编码。我想做的是创建一个报告,将邮政编码内的客户带回去。目前,我的代码如下所示。 我希望的是有一种更快,更轻松的方式来做到这一点。任何建议将不胜感激。有没有一种方法可以为每个销售团队创建变量,例如 只是在钓鱼的想法。干杯 问题答案:
问题内容: 我在遵循MySQL语法指南时遇到语法错误。 我的查询是: 从逻辑上讲,这应该选择,但是我得到了 问题答案: 您的查询仅在存储过程/函数上下文中有效。参见那里以供参考。
问题内容: 我最近在Java PreparedStatements中遇到了此问题。我有以下代码: 方法在哪里 但是,它总是抛出此错误: 当我以幼稚的方式执行“ …”时,不会发生此问题,但我希望以此方式进行。 任何帮助深表感谢。 更新 我尝试了社区的各种建议,例如 仍然出现错误信息。 问题答案: 解决问题的方法实际上非常简单,当您要调用PreparedStatement.executeQuery()
我正在为我的数据库使用Sequelize(6.3.0)和sqlite3(4.2.0),并试图定义以下模型: 它应该在进程启动时定义,但我得到以下错误: 当然,每当我试图对此表执行任何操作时,都会出现以下错误: 我猜问题来自使用数组数据类型的“参与”和“赢家”行。 谢谢你的帮助