您必须生成1分钟音频文件。这意味着您必须计算重复次数,然后创建concat.txt
文件,如下所示:
file '/path/to/original.mp3'
file '/path/to/original.mp3'
在您的情况下,原始音频的持续时间是30s,您需要1分钟。因此,concat.txt
文件中只有2行。
然后生成新的音频文件:
ffmpeg -t 60 -f concat -i concat.txt -c copy -t 60 output.mp3
我想获取正在上传到系统中的音频/视频文件的持续时间。早些时候,我使用了,但我想它不再被维护了,因为没有与此兼容的python 3模块。 还有其他轻量级替代品吗? 如果我想写一些自己的东西来完成它,先决条件是什么?
我正在尝试用FFMPEG录制一段H264视频。 以下是我在FFMPEG中使用的选项: -thread_queue_size 512-framerate 30-f rawvideo-pix_fmt rgb32-video_size 1920x1080-i\.\pipe\pipe_name-vcodec libx264-crf 23-pix_fmt yuv420p-preset超快-r 30“outp
如何使用part:snippet和contentDetails??我想获得持续时间,只有音乐视频,标题和观看次数。请帮助我。
我将录制多个视频,这样我就可以用FFmpeg获得一个视频文件。 我已经找到了几种方法来实现这一点,但我发现的所有方法都不能与每个视频的特定持续时间相一致。 这意味着他们只关注整个视频。 正是,我想要的是将Video1插入到有特定时间的Video2中。在搜索与此相关的几篇文章时,我查看了许多文章说“ffmpeg不可能”。 所以我试图将Video2分成两个视频(如Video2-1、Video2-2)和
使用FFmpeg C API,我试图将输入视频转换成类似动画gif的视频,这意味着没有音频流,视频流为4/fps。 我有解码/编码部分工作。我可以从输出文件中删除音频流,但在降低fps时遇到了问题。我可以将输出视频流的time_base更改为4/fps,但它会增加视频的持续时间-基本上是以慢速模式播放。 我想我需要先删除额外的帧,然后再将它们写入输出容器。 下面是我读取输入帧,然后将它们写入输出容
我将来自用户的一条文本消息作为输入。根据文本消息中的字母,我正在维护一个数组(在代码中命名为持续时间),该数组存储必须播放Audio1的时间。 我或者在特定位置循环播放两个音频文件并停止它们。 第一音频文件播放到第一个字母的持续时间,然后第二音频文件用持续时间值设置位置值,并播放到持续时间2秒。每当该值适当增加时。 但当我播放时,它有时会停在正确的位置(比如前两次迭代),但有时会超过设置的位置,并