我想在webrtc中使用IP摄像机。但是,webrtc似乎仅支持网络摄像头。因此,我尝试将IP摄像机的流转换为虚拟网络摄像机。
我找到了IP Camera Adapter之类的软件,但是它们运行不佳(每秒2-3帧,延迟2秒),并且只能在Windows上运行,我更喜欢使用Linux(如果可能)。
我尝试ffmpeg / avconv:
首先,我使用v4l2loopback创建了一个虚拟设备(命令是:)sudo modprobe v4l2loopback
。检测到虚拟设备,并可以使用以下命令将视频(.avi)馈入虚拟设备: ffmpeg -re -i testsrc.avi -f v4l2 /dev/video1
IP摄像机的视频流可rtsp://IP/play2.sdp
用于:Dlink DCS-5222L摄像机。ffmpeg可以捕获此流。
我的问题是在这两个步骤之间建立链接(接收rstp流并将其写入虚拟网络摄像头)。我尝试过,ffmpeg -re -i rtsp://192.168.1.16/play2.sdp -f video4linux2 -input_format mjpeg -i /dev/video0
但是v4l2有一个错误(找不到v4l2)。
有谁知道如何在webRTC中使用IP摄像机?
简短的答案是,不会。RTSP
WebRTC的IETF标准中未提及该文件,并且当前没有浏览器计划支持它。链接到Chrome讨论。
更长的答案是,如果您真的对这个想法感到厌烦,那么您将必须使用本机WebRTC
API
构建一个webrtc网关/断路器。
这就是其他人如何做到的,以及它将如何做到。
2014年7月30日更新:
我已经尝试过janus-gateway,并且我相信流插件确实可以做到这一点,因为它可以抓取rtp流并将其推送到webrtc对等端。对于RTSP,您可能会创建RTSP客户端(可能使用gstreamer之类的库),然后将RTP和RTCP从连接推送到WebRTC对等方。
我想在WebRTC上使用IP摄像机。然而,webrtc似乎只支持网络摄像头。所以我尝试将IP摄像机的流转换为虚拟网络摄像机。 我找到了像IP摄像机适配器这样的软件,但它们不太好用(每秒2-3帧,延迟2秒),它们只在Windows上工作,我更喜欢使用Linux(如果可能的话)。 我尝试FFMPEG/AVCONV: > 首先,我使用v4l2loopback创建了一个虚拟设备(命令为:)。虚拟设备会被检
我正在尝试获取我网络上的摄像头产生的流。主要问题是这台相机产生的流是H264流。我四处寻找管理这种流的最佳方法,我发现mediacodec是最合适的类。不幸的是,这个API的文档很差,但尽管如此,我还是找到了一些资源,从中获得了这个类的基本信息,并编写了以下代码。 公共类DecodeActivity扩展Activity实现SurfaceHolder.Callback{ (20736):无法实例化类
我正在使用Ubuntu 16.04,ZoneMinder V1.29.1与这个docker和这个相机(海康威视红外全景鱼眼)。我可以连接到相机,我得到了设置等的相机界面。问题是实时视图需要一个依赖于windows的插件,这就是为什么我想使用ZoneMinder。 现在我根据本指南配置了所有内容。基本上,我必须添加一个监视器,将源设置为remote,将协议设置为rtsp,将方法设置为RTP/rtsp
我有这个IP摄像机Nexus CCTV 235FW。我再也连接不上它了。我能重置它吗?我想这是在我修改了管理员密码之后发生的。它是连接的以为WiFi,但我也试过用电缆,没有任何运气。 我也试着用搜索工具搜索相机,但还是没有运气。 另一件事,我甚至看不到摄像头在路由器的列表上连接的单位。 希望任何人能帮助我。
问题内容: 如何访问我的IP摄像机流? 用于显示标准网络摄像头流的代码是 除了IP摄像机,我该如何做同样的事情? 我的系统: Python 2.7.14 OpenCV 2.4.9 Teledyne Dalsa Genie Nano XL相机 帮助将不胜感激 您可以将视频捕获对象用作 问题答案: 我回答了我自己的问题,报告了什么似乎是Python OpenCV中访问IP摄像机的 最全面的 总体过程。
前面的教程中我们讨论了观察矩阵以及如何使用观察矩阵移动场景(我们向后移动了一点)。OpenGL本身没有摄像机(Camera)的概念,但我们可以通过把场景中的所有物体往相反方向移动的方式来模拟出摄像机,产生一种我们在移动的感觉,而不是场景在移动。 本节我们将会讨论如何在OpenGL中配置一个摄像机,并且将会讨论FPS风格的摄像机,让你能够在3D场景中自由移动。我们也会讨论键盘和鼠标输入,最终完成一个