# mmtracking **Repository Path**: zhangming8/mmtracking ## Basic Information - **Project Name**: mmtracking - **Description**: https://github.com/open-mmlab/mmtracking - **Primary Language**: Unknown - **License**: Apache-2.0 - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2021-06-29 - **Last Updated**: 2021-10-15 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README
[![PyPI - Python Version](https://img.shields.io/pypi/pyversions/mmtrack)](https://pypi.org/project/mmtrack/) [![PyPI](https://img.shields.io/pypi/v/mmtrack)](https://pypi.org/project/mmtrack) [![docs](https://img.shields.io/badge/docs-latest-blue)](https://mmtracking.readthedocs.io/en/latest/) [![badge](https://github.com/open-mmlab/mmtracking/workflows/build/badge.svg)](https://github.com/open-mmlab/mmtracking/actions) [![codecov](https://codecov.io/gh/open-mmlab/mmtracking/branch/master/graph/badge.svg)](https://codecov.io/gh/open-mmlab/mmtracking) [![license](https://img.shields.io/github/license/open-mmlab/mmtracking.svg)](https://github.com/open-mmlab/mmtracking/blob/master/LICENSE) [English](/README.md) | 简体中文 文档:https://mmtracking.readthedocs.io/ ## 简介 MMTracking是一款基于PyTorch的视频目标感知开源工具箱,是[OpenMMLab](http://openmmlab.org/)项目的一部分。 主分支代码目前支持**PyTorch 1.3以上**的版本。
### 主要特性 - **首个开源一体化视频目标感知平台** MMTracking是首个开源一体化视频目标感知工具箱,同时支持视频目标检测,单目标跟踪和多目标跟踪等多种任务和算法。 - **模块化设计** MMTracking将统一的视频目标感知框架解耦成不同的模块组件,通过组合不同模块组件,用户可以便捷地构建自定义视频目标感知模型。 - **简洁、高效、强大** **简洁**:MMTracking与其他OpenMMLab平台充分交互。MMTracking充分复用[MMDetection](https://github.com/open-mmlab/mmdetection)中的已有模块,我们只需要修改配置文件就可以使用任何检测器。 **高效**:MMTracking所有操作都在GPU上运行。相比其他开源库的实现,MMTracking的训练和推理更加高效。 **强大**:MMTracking复现了SOTA性能的模型。受益于[MMDetection](https://github.com/open-mmlab/mmdetection)的持续推进,部分实现精度超出官方版本。 ## 许可 该项目遵循[Apache 2.0 license](/LICENSE)开源协议。 ## 更新记录 v0.8.0版本已于2021年10月03日发布,可通过查阅[更新日志](/docs/changelog.md)了解更多细节以及发布历史。 ## 基准测试与模型库 本工具箱支持的各个模型的结果和设置都可以在[模型库](docs/model_zoo.md)页面中查看。 支持的视频目标检测算法: - [x] [DFF](configs/vid/dff) (CVPR 2017) - [x] [FGFA](configs/vid/fgfa) (ICCV 2017) - [x] [SELSA](configs/vid/selsa) (ICCV 2019) - [x] [Temporal RoI Align](configs/vid/temporal_roi_align) (AAAI 2021) 支持的多目标跟踪算法: - [x] [SORT/DeepSORT](configs/mot/deepsort) (ICIP 2016/2017) - [x] [Tracktor](configs/mot/tracktor) (ICCV 2019) 支持的单目标跟踪算法: - [x] [SiameseRPN++](configs/sot/siamese_rpn) (CVPR 2019) ## 安装 请参考[安装指南](docs/install.md)进行安装。 ## 开始使用MMTracking 请参考[数据集](docs/dataset.md)和[快速开始](docs/quick_run.md)了解MMTracking的基本使用。MMTracking也提供了更详细的[教程](docs/tutorials/),比如[了解配置文件](docs/tutorials/config.md), [一个有关视频目标检测器配置文件的详细解释](docs/tutorials/config_vid.md), [一个有关多目标跟踪器配置文件的详细解释](docs/tutorials/config_mot.md), [一个有关单目标跟踪器配置文件的详细解释](docs/tutorials/config_sot.md), [自定义数据集](docs/tutorials/customize_dataset.md), [自定义数据预处理流程]](docs/tutorials/customize_data_pipeline.md), [自定义视频目标检测器](docs/tutorials/customize_vid_model.md), [自定义多目标跟踪器](docs/tutorials/customize_mot_model.md), [自定义单目标跟踪器](docs/tutorials/customize_sot_model.md), [自定义训练配置](docs/tutorials/customize_runtime.md) and [有用的工具和脚本](docs/useful_tools_scripts.md). ## 参与贡献 我们非常欢迎用户对于MMTracking做出的任何贡献,可以参考[贡献指南](https://github.com/open-mmlab/mmcv/blob/master/CONTRIBUTING.md)文件了解更多细节。 ## 致谢 MMTracking是一款开源项目,我们欢迎任何贡献和反馈。我们希望该工具箱和基准测试可以为社区提供灵活的代码工具,供用户复现现有算法并开发自己新的视频目标感知方法。 ## 引用 如果你觉得MMTracking对你的研究有所帮助,可以考虑引用它: ```latex @misc{mmtrack2020, title={{MMTracking: OpenMMLab} video perception toolbox and benchmark}, author={MMTracking Contributors}, howpublished = {\url{https://github.com/open-mmlab/mmtracking}}, year={2020} } ``` ## OpenMMLab 的其他项目 - [MMCV](https://github.com/open-mmlab/mmcv):OpenMMLab计算机视觉基础库 - [MIM](https://github.com/open-mmlab/mim): MIM 是 OpenMMlab 项目、算法、模型的统一入口 - [MMClassification](https://github.com/open-mmlab/mmclassification):OpenMMLab图像分类工具箱与测试基准 - [MMDetection](https://github.com/open-mmlab/mmdetection):OpenMMLab目标检测工具箱与测试基准 - [MMDetection3D](https://github.com/open-mmlab/mmdetection3d):OpenMMLab新一代通用3D目标检测平台 - [MMSegmentation](https://github.com/open-mmlab/mmsegmentation):OpenMMLab语义分割工具箱与测试基准 - [MMAction2](https://github.com/open-mmlab/mmaction2):OpenMMLab新一代视频理解工具箱与测试基准 - [MMTracking](https://github.com/open-mmlab/mmtracking):OpenMMLab一体化视频目标感知平台 - [MMPose](https://github.com/open-mmlab/mmpose):OpenMMLab姿态估计工具箱与测试基准 - [MMEditing](https://github.com/open-mmlab/mmediting):OpenMMLab图像视频编辑工具箱 - [MMOCR](https://github.com/open-mmlab/mmocr):OpenMMLab全流程文字检测识别理解工具箱 - [MMGeneration](https://github.com/open-mmlab/mmgeneration):OpenMMLab生成模型工具箱 ## 欢迎加入 OpenMMLab 社区 扫描下方的二维码可关注 OpenMMLab 团队的 [知乎官方账号](https://www.zhihu.com/people/openmmlab),加入 OpenMMLab 团队的 [官方交流 QQ 群](https://jq.qq.com/?_wv=1027&k=aCvMxdr3)
我们会在 OpenMMLab 社区为大家 - 📢 分享 AI 框架的前沿核心技术 - 💻 解读 PyTorch 常用模块源码 - 📰 发布 OpenMMLab 的相关新闻 - 🚀 介绍 OpenMMLab 开发的前沿算法 - 🏃 获取更高效的问题答疑和意见反馈 - 🔥 提供与各行各业开发者充分交流的平台 干货满满 📘,等你来撩 💗,OpenMMLab 社区期待您的加入 👬