当前位置: 首页 > 面试题库 >

如何获取Linux(ubuntu)上的视频捕获设备(网络摄像机)列表?(C / C ++)

阚小云
2023-03-14
问题内容

因此,我所需要的很简单-当前可用的视频捕获设备(网络摄像机)列表。我在简单的C或C ++控制台应用程序中需要它。通过列表,我的意思是类似这样的控制台输出:

1) Asus Web Camera
2) Sony Web Camera

因此,这似乎很简单,但我有一个要求-尽可能使用本机OS API-完全没有外部库-毕竟-我们想要的只是打印出一个列表-不要飞上月球!)

怎么做这样的事情?


问题答案:

这是我编写的代码段。大概是一本书。我想您可以遍历所有/ dev / videoN节点并获取信息。

#include <stdio.h>
#include <unistd.h>
#include <fcntl.h>
#include <sys/ioctl.h>
#include <linux/videodev.h>

int main(){
    int fd;
    struct video_capability video_cap;
    struct video_window     video_win;
    struct video_picture   video_pic;

    if((fd = open("/dev/video0", O_RDONLY)) == -1){
        perror("cam_info: Can't open device");
        return 1;
    }

    if(ioctl(fd, VIDIOCGCAP, &video_cap) == -1)
        perror("cam_info: Can't get capabilities");
    else {
        printf("Name:\t\t '%s'\n", video_cap.name);
        printf("Minimum size:\t%d x %d\n", video_cap.minwidth, video_cap.minheight);
        printf("Maximum size:\t%d x %d\n", video_cap.maxwidth, video_cap.maxheight);
    }

    if(ioctl(fd, VIDIOCGWIN, &video_win) == -1)
        perror("cam_info: Can't get window information");
    else
        printf("Current size:\t%d x %d\n", video_win.width, video_win.height);

    if(ioctl(fd, VIDIOCGPICT, &video_pic) == -1)
        perror("cam_info: Can't get picture information");
    else
        printf("Current depth:\t%d\n", video_pic.depth);

    close(fd);
    return 0;
}


 类似资料:
  • 问题内容: 因此,我所需要的很简单-当前可用的视频捕获设备(网络摄像机)列表。我在简单的C或C ++控制台应用程序中需要它。通过列表,我的意思是类似这样的控制台输出: 所以我知道如何使用如下代码获取W,H等凸轮道具: 但不是名字(如何获得名字? 因此,这似乎很简单,但我有一个要求-尽可能使用本机OS API-完全没有外部库-毕竟-我们想要的只是打印出一个列表-不要飞上月球!) 怎么做这样的事情?

  • 我计划用网络摄像机捕捉视频,然后用opencv处理,最后在google原生客户端环境下用opencv naclport在网页上显示输出 我现在意识到的是 使用javascript中的MediaStreamTrack接口和 然后 将其编码为Base64字符串并发送到c模块以使用opencv进行处理, 在cpp模块中,将其解码回Mat图像并进行处理,最后将其发送回浏览器进行显示。 所以我想知道,在op

  • 我目前正在做一个项目,从网络摄像头捕捉视频,并通过UDP发送编码流来做实时流。 有人说从cap.read得到的帧已经是解码帧,我不知道这是如何以及何时发生的。我想要的是编码的帧或流。我应该怎么做才能得到它?我应该再编码一次吗?

  • 问题内容: 如何使用Python API使用OpenCV一次(或几乎)捕获两个或更多摄像机的视频? 我有三个可以进行视频流传输的网络摄像头,分别位于/ dev / video0,/ dev / video1和/ dev / video2。 以本教程为例,从单个摄像机捕获图像很简单: 这很好。 但是,如果我尝试初始化第二台相机,则尝试从它返回None: 为了确保我不会意外给OpenCV一个不好的相机

  • OpenCV无法在Linux上打开超过8个网络摄像头的视频捕获。这里有一个简单的例子: 对于我的设置(OpenCV 2.4.11,Ubuntu 14.04),比如说,有9个网络摄像头,opencap。py在前8个摄像头(0-7个)中成功,但在最后一个摄像头中成功 注意:正确列出了9个网络摄像头(/dev/video0、/dev/video8)。

  • 问题内容: 如何连续从摄像头捕获图像? 我想尝试对象识别(也许使用Java Media Framework)。 我当时正在考虑创建两个线程 一个线程: 节点1:捕获实时图像 节点2:将图片另存为“ 1.jpg” 节点3:等待5秒 节点4:重复… 其他线程: 节点1:等到捕获图像 节点2:使用“ 1.jpg”获取每个像素的颜色 节点3:将数据保存在数组中 节点4:重复… 问题答案: 此JavaCV实