在bash中使用unzip
命令时,会在终端中创建大量输出。使用-q
选项或-qq
(“=更安静”-解压人)可以抑制某些输出。然而,在进程结束时,我始终会收到一条消息,如10成功处理了存档文件
(前面有一条空行)。
看起来这条消息来自STDERR,因为当我将STDOUT输出到一个类似于
unzip -qq files2zip.zip 1> stdoutput.txt
它仍然输出到终端,而不是文件。当我输出STDERR(即,
2
在我的脚本中,我希望在屏幕上显示错误,但我不希望出现此消息。那么,有没有办法在不丢失错误输出的情况下抑制此消息(我不想将stderr输出到文件)?
除了标准误差和标准输出外,没有第三输出。所以,除了前一行之外,您可以做的最好的事情是过滤来自stderr的不需要的消息。请注意,这假设解压的输出具有特定的结构化,这可能很容易中断。大概是这样的:
unzip file.zip 2> >(head --lines=-2)
您可以使用proc-sub
unzip -qq files2zip.zip 2> >(grep -v "were successfully processed")
我的web项目一旦有前端页面的更新就需要清理浏览器缓存后才能看到最新效果,有时不清理不但不能看到最新效果还会出现页面布局错乱,如何能避免这种情况,我想要更新前端页面,用户也不需要清理浏览器缓存,页面关闭重新打开就能显示最新效果
问题内容: 我可以解压缩zip,gzip和rar文件,但是我还需要解压缩bzip2文件以及对其进行存档(.tar)。我还没有遇到好的图书馆可以使用。 我理想地将Java与Maven一起使用,我想将其作为依赖项包含在POM中。 您推荐什么图书馆? 问题答案: 我所看到的最好的选择是具有此Maven依赖项的Apache Commons Compress 。 从示例:
在使用 Java 的javax.imageio包读取图片并进行缩放处理后保存为新的图片文件时,偶尔会出现内存溢出的错误,该如何解决这个问题? 分批处理图片,每次处理 10 张图片,处理完一批后再处理下一批。但还是会出现这个问题,想问下还有别的处理办法吗
本文向大家介绍Spark处理数据排序问题如何避免OOM,包括了Spark处理数据排序问题如何避免OOM的使用技巧和注意事项,需要的朋友参考一下 错误思想 举个列子,当我们想要比较 一个 类型为 RDD[(Long, (String, Int))] 的RDD,让它先按Long分组,然后按int的值进行倒序排序,最容易想到的思维就是先分组,然后把Iterable 转换为 list,然后sortby,但
问题内容: Groovy中是否有内置支持来处理Zip文件(采用groovy方式)? 还是我必须使用Java的java.util.zip.ZipFile来处理Groovy中的Zip文件? 问题答案: AFAIK,没有本机的方法。但是请查看本文,了解如何向File 添加方法,这与您要查找的内容非常接近。您只需要制定一个方法。
问题内容: 我正在尝试通过从客户端向服务器发送密钥和随机数来认证用户。 我的代码未向我显示客户端的响应。执行下面的代码时,我得到了一个空指针异常。 问题答案: 解决大多数问题的固定步骤: 阅读堆栈跟踪以确定哪一行代码引发NPE 在该行代码处设置一个断点 使用调试器,在遇到断点时,确定该行中的对象引用是 弄清楚为什么引用该文件(到目前为止,这是唯一实际的困难部分) 解决根本原因(也可能很困难)