4月最新小猪CMS(PigCMS)多用户微信营销系统全能版大家都知道,官方售价188000多元新增功能:微投票8.1、募捐、微现场3.0 (独立)APP打包、(独立)收银 微信连WIFI、个性化自定义菜单、新版微砍价、官方高级关注回复、优惠接力、摇一摇红包、微拍卖、图文投票、摇钱树 会员卡自定义选项、粉丝红包、谁是情圣 新版微助力 我要上头条 集字游戏 等等。。。。。本站发布版本为全开源版本,没有任何加密文件,更不需要域名授权等一些乱七八糟的要求,直接那里就能使用,非常方便二次开发,目前最强大的多用户微信营销系统!很多系统都是基于小猪内核修改出来,但肯定都不如小猪原版稳定或者可靠的!对于个人站长来说,只能望尘莫及!其功能和价值,相信大家都知道。网上有卖的,高达几千元不等!本站在破解了小猪加盟版内核的基础上,在保持了原来加盟版的功能外,新增整合了20多个行业,这是微信营销的关键所在。首页采用了一套非常漂亮的模板,时尚大气,科技力度十足!微官网模板多达330套!还有几十套高级模板管理。最关键的是可以自己开代理商,层层利润,这是全能版最大的优势!程序已经基本达到很高的完善度,对于个人运营来说,已经基本不成问题!在各行业的微信营销系统中,我们可以说已经做的比较完美了!本版本为独家开源解密去后门完整运营版
文件:590m.com/f/25127180-497827692-67f0a5(访问密码:551685)
以下内容无关:
-------------------------------------------分割线---------------------------------------------
事实上,Sparse R-CNN 很多地方是借鉴了去年 Facebook 发布的 DETR,当时应该也算是惊艳众人。其有两点:
无需 nms 进行端到端的目标检测
将 NLP 中的 Transformer 引入到了 CV 领域(关于 Transformer 我在这里有提到。)
然而 DETR 需要每个目标的 query 和全局语义信息进行 interact (这里可以理解为进行相关性的计算), DETR 这种密集(dense)计算的性质使得其训练时间长,而且限制了它成为一个彻底的稀疏(sparse)的目标检测算法。Sparse R-CNN 则认为 sparse 性质在于两方面:
sparse boxes:是指小数量的 starting boxes(初始的 boxes),这已经足以预测一张图中的所有目标了。
sparse features:暗指每个 box 的 feature 不需要和全图中所有其他的 features 进行interact。
目前主流的目标检测算法可以分为:一阶段和两阶段的目标检测算法,两阶段的目标检测算法常常是有先验框(anchor-based)的,而一阶段又分为 anchor-based 和 anchor-free 两种。如果根据定义 object candidates 的方式来分:
♠ Dense object candidates
这类算法常常是一阶段的,它们采用密集的候选目标进行预测。比如,anchor-based 会根据特征图的大小铺设先验框,假如特征图大小是 B×C×8×8。这张特征图最终会预测出 64×K×4 个先验框的偏移(因为这 64 个位置上,每个位置有预设不同长宽比的 K 个先验框,每个先验框有 4 个参数,所以它等于预测了原图上的 64 位置上所有先验框的偏移),先验框根据预测偏移得到最后的预测框。在训练阶段预测框根据预测框与真值框的比较(可能是 IoU 或其他标准)进行正样本的确定,在测试阶段通过后处理来过滤掉多余的框。
同理 anchor-free 的算法,同样也是根据这样网格点式的去预测,不同的是它没有先验框了,可能会直接预测角点的坐标或者中心点偏移长宽或格点到四条边的距离。总之,最后每个格点会得到一个框,选取正样本也许跟 anchor-based 一样,也许就直接根据格点离真值框中心来确定。预测部分是一样的。
♣ Dense to sparse object candidates
这类算法一般是两阶段的,在第一阶段它们像 Dense object candidates 进行预测,但是每个位置不预测类别,只预测是前景还是背景。然后选出可能概率在 top 2k 的框,对特征图或者原图进行截取,通过 roi-aligned 等操作调整到统一的大小,进行第二阶段的预测。第二阶段主要预测每个框的具体类别与位置信息的再次调整。
♥ sparse object candidates
这类算法直接提出 k 个区域或者说 boxes,例如 DETR、Deformable-DETR、Sparse-RCNN。训练的时候通过匈牙利算法进行一对一的匹配,预测的时候只需设置分数进行过滤就行了。
在上述分类中,无论是第一类还是第二类都存在以下的问题:
产生太多冗余的结果和十分接近的结果,因此而不得不使用 NMS,而 NMS 会产生很多问题(比如在单阶段的算法中因为分类和回归不一致影响算法表现;物体密集时,将正确的结果给抑制掉了)
在训练中多对一的分配规则使得网络对启发式分配规则十分敏感
性能表现极大受到尺寸、纵横比和先验框的数量影响
正因此,sparse 类的网络不断提出,实现 one-to-one 的匹配原则,去除了人工预设的先验框与复杂的后处理。
首先使用 resnet + fpn 进行特征图的提取,然后使用初始化的 proposal boxes 和 proposal features 进行迭代式地对 proposal boxes 进行修正。
文章的 backbone + neck 是使用的 Resnet50 + FPN 或者 Resnet101 + FPN。其中 Resnet 部分是将 res2 - res5 的输出输入到 FPN 之中,FPN 的最顶层是用 LastLevelMaxPool 得到,但最后只使用了 p2 - p5 (eg. p2 是由 res2 得到的),输出特征的通道均为 256。
首先,使用 Embedding 的权重获得 shape 为 (num_proposals, 4) 的初始化 proposal boxes(这里 boxes 的第二维是中心点坐标和宽高在的原图的比例),并将 proposal boxes 初始值设置为 (0.5, 0.5, 1, 1),也就是说最初始的 proposal boxes 在图片中心,宽高与图片相同。作者也提供了其他初始化的方式,比如均匀分布在图片上,没有采用,应该是这个效果最好),proposal features 则是直接采用 shape 为 (num_proposals, proposal_dim) 的 Embedding 的权重。(在文中 num_proposals 为 100/300 即建议框的数量)