我试图在一个单独的文件中每40毫秒生成一个视频和音频,并将其发送到云端进行直播,但创建的视频和音频无法使用ffplay播放。
命令:
ffmpeg-f alsa-thread_queue_size1024-i hw: 0-f video o4linux2-i /dev/video0-c: a aac-ar48k-t 0:10-segment_time00:00.04-f段sample-3d.aac-c: v h264-force_key_frames"expr: gte(t,n_forced*0.04)"-pix_fmtyuv420p-s: v640x480-t 0:10-r 25-g 1-segment_time00:00.04-f段帧-3d. h264
错误:
第001帧。h264:处理输入时发现无效数据。
控制台输出:
配置:--prefix=/usr--extra version=0ubuntu0。2--toolchain=harded--libdir=/usr/lib/x86_64-linux-gnu--incdir=/usr/include/x86_64-linux-gnu--enable gpl--enable剥离--enable avresample--enable avisynch--enable gnutls--enable ladspa--enable libbs2b--enable libcaca--enable libcdio--enable libflite--enable libfontconfig--enable libfreetype--启用libfribidi--enable libgme--enable libgsm--enable-libmp3lame--enable libmysofa--enable libopenjpeg--enable libopenmpt--enable libopus--enable libpulse--enable librubberband--enable librsvg--enable libshine--enable libsoxr enable libspeex--enable libssh--enable libthera--enable libtwolame--enable libvorbis--enable libvpx--enable libwavpack--enable libwebp--enable-libx265--enable-libxml2--enable libxvid--enable libzvbi--enable omx--enable openal--enable opengl--enable-sdl2--enable-libdc1394--enable libdrm--enable-libiec61883--enable chromaprint--enable-frei0r--enable libopencv enable-libx264--启用共享libavutil 55。78.100 / 55. 78.100 libavcodec 57.107。100 / 57.107.100 libav57格式。83.100 / 57. 83.100 libav设备57。10.100 / 57. 10.100 libavfilter 6.107。100 / 6.107.100磅重采样3。7. 0 / 3. 7.0 libswscale 4。8.100 / 4. 8.100磅重采样2。9.100 / 2. 9.100 libpostroc 54。7.100 / 54. 7.100输入流的猜测通道布局#0.0:立体声输入#0,alsa,从'hw:0':持续时间:N/A,开始时间:1610338632.931406,比特率:1536 kb/s流#0:0:音频:pcm#U s16le,48000 Hz,立体声,s16,1536 kb/s输入#1,video4linux2,v4l2,从'/dev/video0':持续时间:N/A,开始时间:3405.427360,比特率:147456/s,视频:1(YUY2/0x32595559)、yuyv422、640x480、147456 kb/s、30 fps、30 tbr、1000k tbn、1000k tbc流映射:流#0:0-
使用-fstream_segment
(或别名-f s段落
)。从留档:
stream_segment
是segment
muxer的一种变体,用于写入流输出格式,即不需要全局头,建议用于输出,例如MPEG传输流段s段
是流段
的较短别名。
命令示例:
ffmpeg -f alsa -thread_queue_size 1024 -i hw:0 -f video4linux2 -i /dev/video0 -c:a aac -ar 48k -t 0:10 -segment_time 00:00.04 -f stream_segment sample-%003d.aac -c:v h264 -force_key_frames "expr:gte(t,n_forced*0.04)" -pix_fmt yuv420p -s:v 640x480 -t 0:10 -r 25 -g 1 -segment_time 00:00.04 -f stream_segment frame-%003d.h264
然而,您的输出持续时间太短,您可能无法播放它们,但这是一个完全不同的主题。
我是一名大学生,现在正在学习FFmpeg。 当我使用这个公式时,我发现一个现象。 1.帧率越高,视频播放速度越快。 2.帧率越慢,视频播放速度越快。 我希望无论帧率是多少,视频播放速度都是合适的。不要太快或太慢。
本文向大家介绍Javacv使用ffmpeg实现音视频同步播放,包括了Javacv使用ffmpeg实现音视频同步播放的使用技巧和注意事项,需要的朋友参考一下 最近用javaCV的ffmpeg包的FFmpegFrameGrabber帧捕捉器对捕捉到的音频帧和视频帧做了同步的播放。采用的同步方法是视频向音频同步。 程序和源码 具体的思路如下: (1)首先介绍ffmpeg是如何捕捉视频文件的图像和声音的
我有一个蓝牙耳机(可以播放立体声音乐)连接到我的android手机(android 4.4.3)。现在,我希望我的代码能够播放立体声音乐并从耳机中录制音频,这两种方式的采样率都很高(44100)。我在以下帖子中遵循了这些解决方案。 如何使用蓝牙耳机录制声音 通过与Android设备配对的蓝牙耳机捕获音频 我的基本代码如下所示。 权限: 打开蓝牙Sco的代码: 播放立体声音乐的代码: 录制音频的代码
在我的网络应用程序中,用户应该能够上传自己的视频(任意一种格式)。我正在使用ffmpeg对视频进行编码。mp4和。flv使用命令: ffmpeg-iuservid.whateveroutput.mp4output.flv 当ffmpeg对视频进行编码时,它会加载到用户页面上的flowplayer中。但flowplayer总是说“找不到文件”,因为ffmpeg编码尚未完成。 是否有可能在某个播放器中
问题内容: 我正在使用Flask提供.m3u8和.ts文件来模拟vod流。 视频播放器不会流式传输文件并显示错误(请参见下面的屏幕截图)。我找不到它是什么错误的日志。 我缺少某处的日志消息吗?是什么原因造成的,我该如何解决? 问题答案: 默认情况下,开发服务器以单线程模式运行,这意味着它一次只能处理一个请求。你一次请求两个文件流,.m3u8和.ts。你可以传递或以允许一次处理多个请求,但是,用它自