当前位置: 首页 > 知识库问答 >
问题:

webrtc - 如何解决 WebRTC 通话中视频正常但无音频的问题?

杜正奇
2024-05-15

WebRTC只能获取视频,但是没有音频

f62c2f4bf3b5376d33287ac94939d07d.png

ba4f46ebb28a6e83fefbf559fe7ae9d9.png

b1b7b2f537f6e269bffdb7ab249e1541.png

希望提供一些排查思路

共有1个答案

凌蕴藉
2024-05-15

是不是没有电脑没开启音频权限或者浏览器没有开启了音频权限

 类似资料:
  • 我在android上使用APPRTCdemo应用程序。我试着让它播放来自另一个同龄人的声音,音量与Android设置中设置的音量一样大。因此,如果用户将设备静音,则不会听到音频。我几乎尝试了每一个Android API调用,但似乎对音量没有任何影响。以下是我尝试过的东西:AudioManager AudioManager=(AudioManager)_context.getSystemServic

  • 我使用aws kinesis video stream webRTC在reactjs中进行视频聊天。一切都很好。但是我想把视频存储在s3 Bucket中。我应该如何实现这个视频存储?

  • 目前,我正在解析wav文件并将样本存储在std::vector中 解析的wav文件为16KHz、16位PCM、单声道。我的代码是C。 我已经搜索了很多关于它的内容,但找不到关于webRTC的VAD功能的适当文档。 根据我的发现,我需要使用的函数是。它的原型写在下面: 根据我在这里的发现:https://stackoverflow.com/a/36826564/6487831 发送到VAD的每帧音频

  • 我正在尝试使用webrtc和socket通过getUserMedia()获取音频。io将其发送到服务器(socket.io支持音频、视频、二进制数据),然后服务器将其广播到所有连接的客户端。问题是,当流到达连接的客户端时,它会转换为JSON对象,而不是媒体流对象。所以我无法发送音频,我也尝试了套接字。io流模块,但我认为未成功。您能帮我正确捕获音频流并将其发送到所有连接的客户端吗。 下面是发送数据

  • 我正在尝试从谷歌眼镜流音频和视频到浏览器。broswer只需要接收视频和音频。 我按照下面的说明编译了google源代码http://www.webrtc.org/native-code/android。 到目前为止,它起作用了。但我对录像有意见。它是以灰度显示的,我不确定为了修复这个问题,我应该对源代码做哪些更改。 null 非常感谢您能提供的任何帮助!

  • 1. 凡泰SDK是否支持WebRTC? 支持,使用时请确保SDK及手机系统均满足以下条件: SDK版本要求 手机系统要求 Android SDK版本为2.24.1及以上 Android系统 6.0及以上 iOS SDK版本为2.33.9及以上 iOS系统 14.3及以上 提示 1.iOS 2.24.4~~2.27.1 也支持WebRTC,不过在H5中读取UserAgent会偶现不包含Provide