当前位置: 首页 > 知识库问答 >
问题:

创建一个虚拟麦克风Ubuntu16.04并从RTSP IP camera将音频流到其中

颛孙晗昱
2023-03-14

我需要在Ubuntu16.04机器上创建虚拟摄像头和虚拟麦克风,以便通过我的web浏览器使用WebRTC在web应用程序中使用。

我需要从IP摄像机(RTSP流)向这2个虚拟设备提供视频和音频。直接在VLC中播放RTSP流与视频和音频都很好。

为此,我使用video4linux2创建了/dev/video1。我可以将IP摄像机输入/dev/video1。

FFMPEG-I RTSP:/ip_address:554/streaming/channels/101/-f v4l2/dev/video1

如果我看VLC播放器,我可以选择/dev/video1作为视频设备,但我只有“HW:0,0”作为音频设备,这是我的内置麦克风。

如何正确地将这样的RTSP流同时馈送到虚拟网络摄像头和虚拟麦克风?

共有1个答案

南门鸿雪
2023-03-14

你需要某种环回音频驱动程序。如果希望在Alsa级别执行此操作,可以丢失snd-aloop模块。https://www.alsa-project.org/main/index.php/matrix:module-aloop#aloop_driver

如果您的预期目标支持Pulseaudio,则可以添加一个null接收器,并使用其监视器源从中录制。

pactl load-module module-null-sink sink_name=video1

然后将监视器源命名为video1.source

https://wiki.archlinux.org/index.php/pulseaudio/examples

然后,您需要从FFMPEG添加一个额外的输出。这可能很简单,只需在您现在拥有的内容的末尾添加类似-f pulse“video1”的内容。

 类似资料:
  • 我正在尝试获取传入的麦克风音频并将其流式传输到另一部iPhone。基本上是一个电话,但通过蓝牙。我有音频通过进入: 然后我尝试使用来自这里的-StreamReader from@martin-r 使用: 然后使用以下方法将数据发送到另一台设备: 我将行转换为NSData,然后使用dispatch_after 0.5秒不断运行,我通过蓝牙将其发送到另一台设备。 它似乎不起作用,我不认为这是一种实用的

  • 问题内容: 我正在寻找一种将文件中的音频数据馈送到麦克风的方法,因此,当第三方应用程序(例如 arecord 或Chromium的“按语音搜索”功能)使用麦克风进行音频输入时,它们会从文件中接收音频数据代替。 这是我的情况 :我编写的一个应用程序记录了来自麦克风的音频数据(使用ALSA)并将其保存到文件(audioFile0.raw)中。在将来的某个未知时间点,某些未知的第三方应用程序(例如,我没

  • 问题内容: 我正在尝试通过Apples Multipeer Connectivity框架将音频从麦克风流式传输到另一个iPhone。为了进行音频捕获和回放,我使用了AVAudioEngine。 我通过在输入上安装一个抽头来从麦克风接收数据,由此我得到了AVAudioPCMBuffer,然后将其转换为UInt8数组,然后将其流式传输到另一部电话。 但是,当我将数组转换回AVAudioPCMBuffe

  • 在遵循类似的教程之后,我正在使用MediaRecorder类用相机录制视频 http://androidcookbook.com/Recipe.seam;jsessionid=40151FCD26222877E151C3EEFB406EED?recipeId=1375 我希望在录音时能够使麦克风静音/取消静音。怎么可能呢? 我正在开始设置音频源 但是如果我想在某个时候录制没有声音的音乐呢?

  • 我正在尝试通过camera2 api录制我自己,同时观看视频。我想录制视频配乐,用麦克风音源录制表面。 我如何创建两个音轨,第一个为呈现给用户的视频,第二个为mediaRecorder AudioSource.mic

  • 根据官方文件 Android 10 (API level 29)和更高版本采用了一种优先级方案,可以在应用程序运行时在它们之间切换输入音频流。在大多数情况下,如果一个新的应用程序获得了音频输入,以前捕获的应用程序会继续运行,但会收到静音。在某些情况下,系统可以继续向两个应用程序发送音频。下面解释了各种共享场景。 除某些特殊情况外,应用程序之间不共享音频。 但是我看到许多应用程序共享音频输入,而没有