当前位置: 首页 > 知识库问答 >
问题:

Apache camel文件解析中的拆分和unicode字符问题

施旭东
2023-03-14

我尝试了很少的东西来验证我的理论,即修改主体是在破坏unicode字符。以下是我尝试的路由:1)从(文件).to(文件)->Unicode字符被保留2)从(文件).split(body()).streaming().to(文件)->Unicode字符被保留3)从(文件).convertbodyto(string.class,“UTF-8”).split(body()).streaming()->Unicode字符丢失4)从(文件).split(body(string.class).to(文件)->Unicode字符丢失。

我还验证了我的JVM正在使用UTF-8进行编码,我还尝试将file组件中的charset参数设置为UTF-8,但没有任何变化。

有人能帮我解决这个问题吗?

unicode字符§,正在被转换为反向?

共有1个答案

纪翰
2023-03-14

您确定您的文件有UTF-8编码吗?您总是可以通过以下方式强制exchange编码:

 <setProperty propertyName="Exchange.CHARSET_NAME">
      <constant>UTF-8</constant>
 </setProperty>

在处理文件时,我通常将exchange编码设置为文件的确切内容,然后在读取文件后,将exchange编码更改为UTF-8。

如果有帮助就告诉我。

 类似资料:
  • 我有一个输入表单,允许某人键入unicode字符。所以它可能是类似于“嘿,uF32A怎么了?如果我得到这个字符串,它将有一个子字符串“\uF32A”,我如何将其转换为字符“\uF32A”?

  • 使用将反斜杠作为文字反斜杠,因此我无法用unicode解析字符串输入。 我的意思是: 将之类的字符串粘贴到call中会被解释为 ,而不是两个单独的字符。 有人知道如何或如果可能的话,让它发生吗? 编辑:我将输入如上,并将其转换为ascii,如下。 根据我标记的答案,正确的解决方案是:

  • 问题内容: 我正在尝试在NetBeans 6.0.1中使用OpenCSV解析.csv文件。我的文件包含一些Unicode字符。当我在输出中写入字符时,字符以其他形式显示,例如(HJ1’-E /;)。当我在记事本中打开此文件时,它看起来还可以。 我使用的代码: 问题答案: 首先,您需要知道文件的编码格式,例如UTF-8或UTF-16。生成此文件的原因是什么? 在那之后,它相对简单- 您需要创建一个包

  • 问题内容: 我有一个带有unicode字符的json文件,但我无法解析它。我已经在Flash CS5(JSON库)中进行了尝试,并且在http://json.parser.online.fr/中进行了尝试,但我始终会收到“意外令牌- 评估失败” 抱歉,语法确实存在问题,它是通过客户端发送的。 有人可以帮帮我吗?谢谢 问题答案: RFC: JSON文本应以Unicode编码。默认编码为UTF-8。

  • 问题内容: 过去几天,我一直在搜索有关此内容的信息,但我认为我找不到正确的指针。如果发现重复,请与适当的问题合并。 我是使用JSON的新手,作为我的项目之一,我需要解码JSON文件并对其进行进一步处理。但是,当我尝试使用Json- simple库解码时,在解析的对象中出现了一些奇怪的问号,而不是实际的字符。示例代码如下所示: 我也尝试过使用Json-lib,但结果相同。 谢谢您的帮助。 问题答案:

  • 我从基于apache-camel-spark的rest接口获得一个json数组作为输入。开始时,我想通过apache camels路线分割json-array来处理每个元素。我该怎么做? 我的测试输入json: 对于这个问题,我在stackoverflow上找到了一些间接描述的问题: link 1, link 2, link 3。 根据这些示例,我尝试了以下骆驼路线: 当我这样做时,我总是得到以下