当前位置: 首页 > 软件库 > 程序开发 > 多媒体处理 >

SonoBus

实时音频推流
授权协议 GPL
开发语言 C/C++
所属分类 程序开发、 多媒体处理
软件类型 开源软件
地区 不详
投 递 者 夏兴生
操作系统 跨平台
开源组织
适用人群 未知
 软件概览

SonoBus是一个免费的、优雅的、多平台的、开源的点对点传输解决方案, 用于在互联网或本地网络上的设备之间流媒体高质量、低延迟的对等音频。

SonoBus 是一个易于使用的应用程序,但提供的功能强大:

  • 能够连接到多个用户
  • 创建一个有可选密码的小组
  • 分享来自你的麦克风的音频输入
  • 分享来自文件的音频流
  • 支持单声道/立体声
  • 组内播放
  • 录制所有人的音频
  • 能够使个别用户或所有人都静音
  • 可以通过互联网或本地网络连接
  • 支持节拍器,用于协作制作音乐或远程练习课程
  • 支持高质量的音频,最高可达 256Kbps
  • 输入混音器
  • 支持声相
  • 支持有用的效果器(噪声门、压缩器和均衡器)
  • 可在 JACK 和 ALSA 下工作
  • 跨平台支持(Windows、macOS、Android、iOS 和 Linux)
 相关资料
  • 问题内容: 我正在另一台PC上实现从MIC到Java服务器的实时流传输。但是我只听到白噪声。 我已经附上了客户端程序和服务器程序 并且服务器端没有问题。它与android客户端AudioRecord完美运行。 问题答案: 因此,我用正弦波(或某种在某种意义上类似正弦波的东西)填充了麦克风,并且您的程序运行正常。 因此,我的具体更改是: 显然,我将其误解为一个512字节长的片段,并破坏了正弦波,但事

  • 我面临的问题,使用MediaPlayer以及原生Android音频播放器播放音频网址。这是我的网址http://live.politiafm.com:8500/politiafm.mp3 这是我的代码使用本机音频播放器Intent意图=new Intent(android.content.Intent。ACTION_VIEW);intent.setDataAndType(Uri.parse(STR

  • 我想做一个网站,将作为一个VoIP录音机应用程序。它将从麦克风获取音频,仅将音频传输到服务器和服务器,然后服务器将处理音频重新分配到其连接的客户端。 以下是我已经尝试过的: WebRTC(据我所知,它只是点对点的) 我设置的堆栈是带有Express的NodeJS,但我对任何有帮助的包都非常开放。 就可能性而言,我知道这是可能的,因为不和谐在他们自己的博客中写道,他们明确不发送点对点数据包,因为他们

  • 嘿。我想在Swift中用新的实现一个实时音频应用程序。有人对新框架有经验吗?实时应用程序如何工作? 我的第一个想法是将(处理过的)输入数据存储到对象中,然后让它通过播放,如您在我的演示类中所见: 但这离实时很远,效率也不是很高。有什么想法或经历吗?如果您更喜欢Objective-C或Swift,我非常感谢所有的注释、评论、意见、解决方案等。

  • 我试图写一个简单的应用程序,播放声音,可以改变音量的声音在任何时候播放。我通过将声音字节数组中的每对字节转换成一个整数,然后将这个整数乘以音量的增加或减少,然后将它们写回为两个字节(即1个样本)。然而,这导致了声音的极度失真。有没有可能我把位移错了?我的声音格式是: 这段代码的基础是:audio:改变字节数组中样本的音量,而asker正试图在其中执行相同的操作。然而,使用了他的问题中的代码(我认为

  • 我有一个传递客户端PCM或ADPCM数据的服务器。 我最初决定使用PCM是因为我不想处理编码和解码。 我让PCM工作,但在每一个音频块之间,我听到毛刺。(有点像剪辑) 所以我想原因可能是延迟/高质量的音频和所有这些东西。 所以我决定使用ADPCM来减少数据量。我用JavaScript编写了一个adpcm到pcm解码器。这是个麻烦。我希望,由于数据计数减少了,也许这会阻止小故障(数据将赶上正在播放的