MMTracking

视频目标感知工具
授权协议 Apache 2.0
开发语言 Python
所属分类 神经网络/人工智能、 计算机视觉库/人脸识别
软件类型 开源软件
地区 不详
投 递 者 薛博艺
操作系统 跨平台
开源组织
适用人群 未知
 软件概览

MMTracking 是一款基于 PyTorch 的视频目标感知开源工具箱,是 OpenMMLab 项目的一部分,目前支持 PyTorch 1.5 以上的版本,支持视频对象检测(VID)、多对象跟踪(MOT)、单对象跟踪(SOT)、视频实例分割(VIS)。

主要特性

  • 首个开源一体化视频目标感知平台

    MMTracking 是首个开源一体化视频目标感知工具箱,同时支持视频目标检测,多目标跟踪,单目标跟踪和视频个例分割等多种任务和算法。

  • 模块化设计

    MMTracking将统一的视频目标感知框架解耦成不同的模块组件,通过组合不同模块组件,用户可以便捷地构建自定义视频目标感知模型。

  • 简洁、高效、强大

    简洁:MMTracking与其他OpenMMLab平台充分交互。MMTracking充分复用MMDetection中的已有模块,我们只需要修改配置文件就可以使用任何检测器。

    高效:MMTracking所有操作都在GPU上运行。相比其他开源库的实现,MMTracking的训练和推理更加高效。

    强大:MMTracking复现了SOTA性能的模型。受益于MMDetection的持续推进,部分实现精度超出官方版本。

  • 要学习ByteTrack,首先得了解其名字是怎么来的:这个工作是一个学生在字节实习的时候提出来的算法,因此就以Byte这个单词来命名,可能从名字上没有太直观的含义来体现出这个算法在干嘛。 ByteTrack是基于TBD范式提出来的跟踪算法,作者的work就是提出来了一种数据关联方法(name叫BYTE),它和主流的SORT类算法的区别在于:ByteTrack不会简单的去掉低分结果(detectio

  • MMTracking地址: https://github.com/open-mmlab/mmtracking 1、根据readme中 install.md按步骤安装       也可参考这篇文档 写的非常详细:https://blog.csdn.net/weixin_41010198/article/details/112291036 2、可能出现的问题  (1)缺少pycocotools库:  

  • 对于像 DeepSORT、Tracktor 这样的 MOT 算法,算法本身由目标检测器和ReID分类器两部分构成,因此如果需要做自定义数据集的跟踪,就得先训练一个目标检测器和一个ReID分类器,之后再测试 MOT 整体模型。 A. 训练 ReID分类器 训练ReID分类器有两种办法,第一种是采用MMClassification,另一种是采用MMtracking-1.0.0rc1\configs\r

  • 虽然卡尔曼(KF算法)和二分图(KM算法)在目标跟踪任务中完全可以当黑盒用。但是在发论文时(比如小目标跟踪需要在卡尔曼滤波中做平滑)则需要对原始代码进行必要的修改。首先,为什么我们要用卡尔曼滤波器?如果直接用detector的结果进行跟踪行不行?假设我的detector检测到了前一帧的结果,也检测到了当前帧的结果,直接拿它们俩做匹配实现跟踪不可以吗?我们举这样一个例子:假设我们用高德地图进行导航,

  • 简介 MMTracking 作为 OpenMMLab 的一体化视频目标感知平台,同时支持了视频目标检测( Video Object Detection )、单目标跟踪(Single Object Tracking)、多目标跟踪(Multiple Object Tracking)等多种任务和算法,填补了这些领域内基准开源平台的空白,既包含前沿算法的实现,又有成熟预训练模型可供直接使用。 视频目标检测

  • B站大佬同济子豪兄关于多目标轨迹可视化的代码在新版本MMTracking上不太适用,一些API和数据结构都不太一样,因此代码改动比较多。下面是博主自己的可视化效果。 # Copyright (c) OpenMMLab. All rights reserved. import mmcv import mmengine import tempfile import cv2 import numpy

  • 阅读了b站大佬同济子豪兄有关MMTracking轨迹可视化的相关代码,但其代码在被MMengine统一后的MMTracking-1.0.0rc1以上版本不太适用,故作此文。 我们对原始代码做了必要的修改,首先是用SOT算法对单目标的跟踪做轨迹可视化: import mmcv import mmengine import tempfile import cv2 import os.path as o

 相关资料
  • 我试图通过Microsoft使用Python 3.2通过情感API分析一个视频 代码:

  • POST notify_url Content-Type:application/json 参数: { "namespace": "video", "action": "transcode", "temp_id": 123, "id": 123 } 参数说明: 字段 名称 类型 namespace 接口类型 string action 接口动作 string t

  • 项目相关问了40分钟左右,对模型的具体实现和验证非常感兴趣,论文要求详细讲解创新点,不过问的问题都比较常规,也没有问八股 手撕代码是三道题 链表中环的入口节点 快慢指针,同时从head出发,fast走两步,slow走一步,第一次相遇后把fast放到开始,步长改成1,下次相遇就是入口结点 打家劫舍2(首尾相连) 首尾相连的情况下,首尾不能同时取,所以直接对nums[:n-1]和nums[1:]分别动

  • 第一步。ffmpeg工作:。mp4- ffmpeg选项: ffmpeg-y-i我nternet.mp4-pix_fmtyuv420p-vcodec libx264-acodec ac3-r 30-配置文件:v基线-b:v1500k-maxrate2000k-s 480x300-map 0-标志-global_header-f段-segment_listindex_1500. m3u8-segmen

  • 1. 光线传感器(板载)光线强度 报告指定光线传感器检测到的光线强度。 示例: 按下空格键,板载光线传感器检测到的光线强度会显示在 mBot 的外接表情面板。 2. 超声波传感器(接口3)距离 cm 报告指定超声波传感器检测到的障碍物距离(cm)。 示例: 按下空格键,接口3连接的超声波传感器检测到的障碍物距离会显示在 mBot 的外接表情面板。 3. 巡线传感器(接口2)读数 报告指定巡线传感器

  • 该部分 API 将帮助您使用光环上的各类传感器的状态值,包含按钮、麦克风、加速度计、陀螺仪以及四个触摸点。 省略代码中的halocode 注意:该部分 API 省略了“halocode.”,本篇提及的所有 API 均省略了“halocode.” ,如 led_driver.off( )实际为halocode.led_driver.off()。mBuild 电子模块平台的所有功能均维护在haloco