SBT抛出以下错误:
value split is not a member of (String, String)
[error] .filter(arg => arg.split(delimiter).length >= 2)
对于以下代码块:
implicit def argsToMap(args: Array[String]): Map[String, String] = {
val delimiter = "="
args
.filter(arg => arg.split(delimiter).length >= 2)
.map(arg => arg.split(delimiter)(0) -> arg.split(delimiter)(1))
.toMap
}
有人能解释一下这里发生了什么吗?一些细节:
java version "1.8.0_191"
sbt version 1.2.7
scala version 2.11.8
我在命令行和intellij上都试过了。我也试过Java 11和Scala 2.11.12,但都没有用。
我无法在另一台机器(不同的操作系统、SBT、IntelliJ等)上复制这一点,我还可以编写一个最小的失败案例:
value split is not a member of (String, String)
[error] Array("a", "b").map(x => x.split("y"))
我认为发生的事情是隐式方法被调用得有点过于急切。也就是说,似乎不知从哪里冒出来的元组2是隐式函数将每个字符串转换为键/值对的结果。隐函数递归地调用自身。我发现这一点是因为其他一些代码在操作字符串集合时导致堆栈溢出。
问题是过滤方法是通过隐式方法添加到数组的。当您调用参数时。筛选器(…),参数通过Predef转换为数组。重构隐式方法。
您正在定义从
Array[String]
到Map[(String, String)]
的隐式转换。此隐式的优先级高于Predef.refArrayOps
,因此被替代使用。
所以
args
被转换成Map[(String,String)]
。该映射的过滤方法需要类型为(String,String)的函数=
我正在尝试提出一种解决方案,它涉及在连接操作之后应用一些逻辑,从多个中的中选择一个事件。这类似于reduce函数,但它只返回1个元素,而不是递增地返回。因此最终结果将是单个(,对,而不是一个 每个键保证只到达一次。 假设像上面这样的连接操作,它用4个生成了1个,成功地连接并收集在。现在,我想做的是,立即访问这些值,并执行一些逻辑以将正确匹配到一个。例如,对于上面的数据集,我需要(,和)。 将为每个
所以我一直在读Kafka的语义学,我对它的工作原理有点困惑。 我理解生产者如何避免发送重复的消息(以防代理的ack失败),但我不明白的是,在消费者处理消息但在提交偏移量之前崩溃的情况下,一次是如何工作的。Kafka不会在这种情况下重试吗?
问题内容: 我已经在eclipse中创建了一个项目,并添加了Maven依赖项。在Eclipse中,它表示我正在使用JRE 1.5。一切在Eclipse中都可以正常运行,例如,我可以运行测试。 当我尝试从终端运行时,出现以下错误。 …在-source 1.3中不支持泛型(使用-source 5或更高版本来启用泛型)… 看来,Maven认为我正在使用JRE 1.3,并且无法识别泛型或for-each循
问题内容: 在碰到此链接http://www.javacodegeeks.com/2013/01/java-thread-pool-example-using- executors-and-threadpoolexecutor 之后,这是我第一次为新项目使用Java线程池。 .html ,我对此更加困惑,这是页面中的代码, 在代码中,创建了一个固定大小的池并创建了10个工作线程,对吗? 线程池应该
问题内容: 与此代码有点混淆。 我在pg-go 仓库中找到了这段代码,不知道为什么这样声明。请解释一下用这种方式声明变量的用例是什么。 问题答案: 这在运行时不会执行任何操作,但是除非类型满足接口要求,否则编译将失败。这是一种静态断言。
问题内容: 我可以理解以下定义: 每个对象都有一个标识,一个类型和一个值。一旦创建了对象,其身份就永远不会改变。您可能会认为它是对象在内存中的地址。所述操作者比较两个对象的身份; 该函数返回一个表示其身份的整数。 我认为上面的定义在创建“某物”时起作用,例如: 但是我不理解: 我还没有创建任何东西。那么整数“ 1”如何具有ID?这是否意味着只要我在Python Shell中“提及” 1,便立即将其