当前位置: 首页 > 知识库问答 >
问题:

如何使用Win iot在Raspberry pi上显示摄像头的视频流,并进行一些图像处理

袁赞
2023-03-14
  1. 我试图建立一个基于摄像头的面部检测器使用覆盆子pi作为基地和Win 10 IOT作为操作系统
  2. 我试图捕捉的图像将来自具有自己的API的网络摄像头
  3. 我需要OpenCV来检测对象,因为任何Haar分类器都可以使用
  4. 我无法将我的控制台应用到ARM底座上
  5. 通用Windows应用程序所需的Xaml不支持视频捕获作为输出类型IM使用图像构造函数新点
  6. 当使用视频捕获与我们的代码,当写入图像垫类型,天气我们使用帽

帮助任何这些点是赞赏

共有1个答案

罗波鸿
2023-03-14

我试图建立一个基于摄像头的面部检测器使用覆盆子pi作为基地和Win 10 IOT作为操作系统。

Windows IoT完全支持某些USB网络摄像头,请确保兼容列表中支持您的设备。

我要捕捉的图像来自一个自带API的摄像头

自己的API是否支持Windows ARM平台?如果没有,您可能需要针对ARM编译它,如果它不是开源的,从网络摄像头制造商请求。

OpenCV是我检测对象所必需的,因为任何Haar分类器都可以使用。

由于微软的移植,视窗物联网完全支持OpenCV。您可以按照此处的教程为Windows ARM编译它。

如果您正在使用C#开发UWP应用程序,则可能需要围绕OpenCV DLL创建一个包装器类。或者,Emgu CV的最新版本引入了对UWP的支持。

我无法将我的控制台应用程序html" target="_blank">移植到通用Windows应用程序所需的基于ARM的Xaml上。该应用程序不支持将视频捕获作为输出类型

你能提供一些代码示例吗?

 类似资料:
  • 后摄像头工作正常,但是,当我们从后摄像头切换到前摄像头时,它会崩溃(在使用MediaCorder录制视频的情况下)....它显示了我在日志中显示的错误!! 下面是我的代码: 对于初始化,我使用

  • 如题所示,纯前端可以播放回放吗

  • 问题内容: 我是OpenCV的初学者。我想对要上传到服务器的视频帧进行一些图像处理。我只想读取可用的框架并将它们写入目录中。然后,等待视频的另一部分上载并将帧写入目录。并且,我应该等待每个帧都完全上传,然后将其写入文件。 您能告诉我如何使用OpenCV(Python)吗? 编辑1: 我编写了这段代码,用于从文件中捕获视频,而新数据将附加在文件末尾。换句话说,该文件不是完整的视频,并且另一个程序正在

  • 我正在尝试用相机拍照并上传到Firebase。我使用AlertDialog询问用户是否想要使用相机或从图库中选择图像。我可以用相机拍照,但是当我试图上传图像时,它说找不到图像。 以下是我的图像选择方法: 下面是我上传图片的方法: 提前感谢任何帮助的朋友。

  • 我计划用网络摄像机捕捉视频,然后用opencv处理,最后在google原生客户端环境下用opencv naclport在网页上显示输出 我现在意识到的是 使用javascript中的MediaStreamTrack接口和 然后 将其编码为Base64字符串并发送到c模块以使用opencv进行处理, 在cpp模块中,将其解码回Mat图像并进行处理,最后将其发送回浏览器进行显示。 所以我想知道,在op

  • 我知道这可能是一个相对通用的问题,但我正试图看看如何才能被指向正确的方向... 我试图用AWS Rekognition建立一个实时人脸识别应用程序。我对API很满意,并使用上传到S3的静态图像来执行面部识别。然而,我正试图找到一种将实时数据流到Rekognition的方法。在阅读了Amazon提供的各种文章和文档后,我发现了这个过程,但似乎无法克服一个障碍。 根据文档,我可以用Kinesis来完成