我知道这可能是一个相对通用的问题,但我正试图看看如何才能被指向正确的方向...
我试图用AWS Rekognition建立一个实时人脸识别应用程序。我对API很满意,并使用上传到S3的静态图像来执行面部识别。然而,我正试图找到一种将实时数据流到Rekognition的方法。在阅读了Amazon提供的各种文章和文档后,我发现了这个过程,但似乎无法克服一个障碍。
根据文档,我可以用Kinesis来完成这件事。看起来很简单:创建一个Kinesis视频流,并通过rekognition处理该流。制作者将流数据生成到Kinesis流中,我是黄金。
任何帮助或指导都将不胜感激。
您可以使用GStreamer示例应用程序,该应用程序使用网络摄像头或任何连接到您机器上的摄像头作为输入,将视频摄取到Kinesis视频流中。目前示例应用程序可以在Mac、Ubuntu或Raspberry Pi中执行。此外,您还可以使用Android示例应用程序从Android设备上摄取视频。
对于AWS Rekognition与Kinesis视频流的集成,请查看消费者解析器库中发布的示例。这个例子展示了如何摄取视频文件(您可以用上面的GStreamer示例应用程序之类的实时生成器替换它)、检索数据、解析MKV、解码H264帧、与Rekognition JSON输出集成以及在视频帧中检测到的人脸上绘制边框。
我对Api非常陌生,我们的用例是将实时数据从网络摄像头流到kinesis视频流。步骤:在aws上创建ubuntu服务器并安装CPP SDK。在aws中创建了kinesis视频流,下载并在本地安装了Gstreamer。 我试图将rtsp示例数据放到Ec2ubuntu服务器上的gstream中,我运行的查询$gst-launch-1.0rtspsrc location=“rtsp://yourcame
我正在尝试使用gstreamer 1.0将网络摄像头视频从树莓流到VLC播放器。现在,我对覆盆子有以下命令: 以及以下sdp文件,以使用vlc播放流: 当我运行gst-Launst-1.0命令时,我可以通过wireshark看到它正在发送udp数据包,但当我尝试使用vlc和sdp文件播放流时,我什么也没有得到。vlc日志说: 我不知道怎么了。我可能没有正确地构建管道,这就是为什么vlc不能将该流识
我目前正在做一个项目,从网络摄像头捕捉视频,并通过UDP发送编码流来做实时流。 有人说从cap.read得到的帧已经是解码帧,我不知道这是如何以及何时发生的。我想要的是编码的帧或流。我应该怎么做才能得到它?我应该再编码一次吗?
后摄像头工作正常,但是,当我们从后摄像头切换到前摄像头时,它会崩溃(在使用MediaCorder录制视频的情况下)....它显示了我在日志中显示的错误!! 下面是我的代码: 对于初始化,我使用
我正在开发一个web应用程序,它可以浏览和拍摄本地照片,我还想通过相机拍摄图像。我使用下面的代码,我可以捕捉设备摄像头。 现在,我想获得图像和onchangeevent,转换为base64,并希望在该页面中显示。 好心帮我伙计们!
问题内容: 我是Stackoverflow和OpenCV编程领域的新手。我已经使用Java的OpenCV绑定(opencv.org官员,而不是JavaCV)进行了一些项目,例如通过ORB和SURF功能识别对象,使用图像。一切都没问题。现在,我将转向视频流中的对象识别。我想从摄像头中获取视频流并应用对象识别。我不是Java专家,所以我在OpenCV中找到了VideoCapture类,但无法从摄像机获