当前位置: 首页 > 知识库问答 >
问题:

如何将IP-Camera与kinesis-video-streams-webrtc-sdk示例代码集成?

魏书
2023-03-14

我愿意使用https://github.com/awslabs/amazon-kinesis-video-streams-webrtc-sdk-js来访问KVSWebRTC用于我们的现场摄像机视频流。我想在从端口读取相机流(rtsp)的服务器上运行此代码。当我将这些代码移植到服务器端运行时(JS代码运行在NODEJS上),我了解到这些代码使用了很多用于access laptop Camera的浏览器API。有人能建议我如何使用这个代码流rtsp相机吗?我目前正在努力如何从rtsp相机流,以便我可以集成它与此代码?

下面是我需要修改的代码部分:https://github.com/awslabs/amazon-kinesis-video-streams-webrtc-sdk-js/blob/master/examples/master.js#l111

任何帮助都将非常感谢。

共有1个答案

苍恩
2023-03-14

https://github.com/awslabs/amazon-kinesis-video-streams-webrtc-sdk-js包含KVS信令客户端的一个实现,以及一个将浏览器WebRTC实现与应用程序中的信令联系在一起的示例。为了流式传输一个通用的rtsp,您首先需要修改webrtc的浏览器实现,或者添加您自己对webrtc的处理,并将帧输入到浏览器的webrtc中。

您还可以从kvs查看本地的基于C的WebRTC实现:https://github.com/awslabs/amazon-kinesis-video-streams-webrtc-sdk-c

 类似资料:
  • 我正在尝试使用cucumber-testng,它看起来很简单。到目前为止,我已经使用Gradle安装了以下软件包: (cucumber with testng) (java现在识别cucumber注释) (运行cucumber-testng测试) 如何运行这些测试?当通过命令运行时,我会看到错误。 我在java中的测试大纲如下: src/test/resources/feature/structu

  • 问题内容: 我想在webrtc中使用IP摄像机。但是,webrtc似乎仅支持网络摄像头。因此,我尝试将IP摄像机的流转换为虚拟网络摄像机。 我找到了IP Camera Adapter之类的软件,但是它们运行不佳(每秒2-3帧,延迟2秒),并且只能在Windows上运行,我更喜欢使用Linux(如果可能)。 我尝试ffmpeg / avconv: 首先,我使用v4l2loopback创建了一个虚拟设

  • 本文向大家介绍springboot2.0集成rabbitmq的示例代码,包括了springboot2.0集成rabbitmq的示例代码的使用技巧和注意事项,需要的朋友参考一下 安装rabbitmq 简介: rabbitmq即一个消息队列,主要用来实现应用程序的异步和解耦,消息缓冲,消息分发的作用. 由于rabbitmq依赖于erlang语言,所以先安装erlang: 添加erlang soluti

  • 我正在使用AWS kinesis视频流来流直播视频,并在图像馈源上执行面部识别。我需要帮助来理解一些关于它的基本概念:-1)如果我想使用WerRTC进行实时流媒体,我将如何做到这一点?2)在kinesis视频流中,有一个通道和一个流(当使用webRTC时,它连接到一个通道,我如何将它连接到一个视频流?)

  • 本文向大家介绍android studio集成ijkplayer的示例代码,包括了android studio集成ijkplayer的示例代码的使用技巧和注意事项,需要的朋友参考一下 介绍 ijkplayer是一款非常火的开源视频播放器,android和IOS通用。关于怎么编译怎么导入android Studio中自己的项目,其中坑很多,本篇记录下自己的操作记录。ijkplayer现在的版本是0.

  • 我想在MacOS应用程序中使用AWS的Kinesis视频流用于WebRTC。我在AWS实验室的Github上遇到了一个名为amazon-kinesis-video-streams-webrtc-sdk-c的C库,这听起来很像我想要的,但我不确定如何在Swift中使用它。 我使用他们的自述文件从源代码构建了这个库-在构建之后,我最终得到了一些示例可执行文件以及两个文件: 接下来,我将和添加到我的Ma