我有一个原始视频文件“inputvideofile.mp4”
我使用ffmpeg解码输入视频文件,处理每一帧,然后将那些帧编码为“OutputVideofile.mp4”。
$FFProbe InputVideofile.mp4
持续时间:00:00:04.08,开始时间:0.000000,生成时间:7835 KB/s
$FFProbe OutputVideofile.mp4
不,不准确。这是基于平均比特率和文件化的猜测。显然,filesize总是准确的,但在某些情况下,平均比特率没有正确记录。但是,我不知道这是文件格式的根本问题还是由创建视频文件的系统/程序引起的问题。例如,对于Mythtv录制,对于NuppelVideo格式化的录制,FFMPEG估计值将降低2-3x,也就是说,它估计1小时的录制值为2或3小时长。
我正在尝试用FFMPEG录制一段H264视频。 以下是我在FFMPEG中使用的选项: -thread_queue_size 512-framerate 30-f rawvideo-pix_fmt rgb32-video_size 1920x1080-i\.\pipe\pipe_name-vcodec libx264-crf 23-pix_fmt yuv420p-preset超快-r 30“outp
使用FFmpeg C API,我试图将输入视频转换成类似动画gif的视频,这意味着没有音频流,视频流为4/fps。 我有解码/编码部分工作。我可以从输出文件中删除音频流,但在降低fps时遇到了问题。我可以将输出视频流的time_base更改为4/fps,但它会增加视频的持续时间-基本上是以慢速模式播放。 我想我需要先删除额外的帧,然后再将它们写入输出容器。 下面是我读取输入帧,然后将它们写入输出容
我想获取正在上传到系统中的音频/视频文件的持续时间。早些时候,我使用了,但我想它不再被维护了,因为没有与此兼容的python 3模块。 还有其他轻量级替代品吗? 如果我想写一些自己的东西来完成它,先决条件是什么?
我有两个使用FFmpeg concat解复用器连接的输入视频: 档案。txt包含以下两个文件路径: 不幸的是,串联的视频有两个问题: 第一个输入视频的持续时间为4秒。在输出视频中,在第二个输入视频开始之前,最后一帧冻结几秒钟 我已尝试指定视频中每个视频的持续时间。由FFmpeg文档指定的txt文件,但这似乎对输出没有影响。 我对FFmpeg有点新手,所以非常感谢任何帮助! 编辑-每个输入视频的属性
如何使用ffmpeg生成一部电影,使用一个特定分辨率的图像(image1.png)持续15秒,这样当我播放视频时,图像将在屏幕上显示15秒。