当前位置: 首页 > news >正文

网站建设代码合同免费引流推广方法

网站建设代码合同,免费引流推广方法,怎么在一个网站做多个页面,做网站费用可以看为广告费用吗一. 参考资料 《YOLO目标检测》 by 杨建华博士 本篇文章的主要内容来自于这本书,只是作为学习记录进行分享。 二. 环境搭建 (1) ubuntu20.04 anaconda安装方法 (2) 搭建yolo训练环境 # 首先,我们建议使用Anaconda来创建一个conda的虚拟环境 conda cre…

 一. 参考资料

《YOLO目标检测》 by 杨建华博士

本篇文章的主要内容来自于这本书,只是作为学习记录进行分享。

二. 环境搭建

        (1) ubuntu20.04 anaconda安装方法

        (2) 搭建yolo训练环境

# 首先,我们建议使用Anaconda来创建一个conda的虚拟环境
conda create -n yolo python=3.6
# 然后, 请激活已创建的虚拟环境
conda activate yolo
# 接着,配置环境:
pip install -r requirements.txt 
# 项目作者所使用的环境配置:PyTorch = 1.9.1
Torchvision = 0.10.1
# 为了能够正常运行该项目的代码,请确保您的torch版本为1.x系列。

三. YOLOv1代码解读

3.1 YOLOv1整体框架

# YOLO_Tutorial/models/yolov1/yolov1.py
# --------------------------------------------------------
...class YOLOv1(nn.Module):def __init__(self, cfg, device, input_size, num_classes,
trainable, conf_thresh, nms_thresh):super(YOLOv1, self).__init__()self.cfg=cfg                              # 模型配置文件self.device=device                        # 设备、CUDA或CPUself.num_classes=num_classes              # 类别的数量self.trainable=trainable                  # 训练的标记self.conf_thresh=conf_thresh              # 得分阈值self.nms_thresh=nms_thresh                # NMS阈值self.stride=32                            # 网络的最大步长# >>>>>>>>>>>>>>>>>>>> 主干网络 <<<<<<<<<<<<<<<<<<<<<# TODO: 构建我们的backbone网络# self.backbone=?# >>>>>>>>>>>>>>>>>>>> 颈部网络 <<<<<<<<<<<<<<<<<<<<<# TODO: 构建我们的neck网络# self.neck=?# >>>>>>>>>>>>>>>>>>>> 检测头 <<<<<<<<<<<<<<<<<<<<<# TODO: 构建我们的detection head 网络# self.head=?# >>>>>>>>>>>>>>>>>>>> 预测层 <<<<<<<<<<<<<<<<<<<<<# TODO: 构建我们的预测层# self.pred=?def create_grid(self, input_size):# TODO: 用于生成网格坐标矩阵def decode_boxes(self, pred):# TODO: 解算边界框坐标def nms(self, bboxes, scores):# TODO: 非极大值抑制操作def postprocess(self, bboxes, scores):# TODO: 后处理, 包括得分阈值筛选和NMS操作@torch.no_grad()def inference(self, x):# TODO: YOLOv1前向推理def forward(self, x, targets=None):# TODO: YOLOv1的主体运算函数

3.2 YOLOv1主干网络

作者改进的YOLOv1使用较轻量的ResNet-18作为主干网络。由于PyTorch官方已提供了ResNet的源码和相应的预训练模型,因此,这里就不需要我们自己去搭建ResNet的网络和训练了。为了方便调用和查看,ResNet的代码文件放在项目中models/yolov1/yolov1_backbone.py文件下,感兴趣的读者可以打开该文件来查看ResNet网络的代码。在确定了主干网络后,我们只需在YOLOv1框架中编写代码即可调用ResNet-18网络,如代码4-5所示。

# >>>>>>>>>>>>>>>>>>>>主干网络<<<<<<<<<<<<<<<<<<<<<
# TODO:构建我们的backbone网络
self.backbone,feat_dim=build_backbone(cfg['backbone'],trainable&cfg['pretrained'])

在代码4-5中,cfg是模型的配置文件,feat_dim变量是主干网络输出的特征图的通道数,这在后续的代码会使用到。我们通过trainable&cfg['pretrained']的组合来决定是否加载预训练权重。代码4-6展示了模型的配置文件所包含的一些参数,包括网络结构的参数、损失函数所需的权重参数、优化器参数以及一些训练配置参数等,每个参数的含义都已标注在注释中。

# YOLO_Tutorial/config/mode1_config/yolov1_config.py
# --------------------------------------------------------
...yolov1_cfg={# input'trans_type': 'ssd',           # 使用SSD风格的数据增强'multi_scale': [0.5, 1.5],     # 多尺度的范围# model'backbone': 'resnet18',        # 使用ResNet-18作为主干网络'pretrained': True,            # 加载预训练权重'stride': 32,  # P5            # 网络的最大输出步长# neck'neck': 'sppf',                # 使用SPP作为颈部网络'expand_ratio': 0.5,           # SPP的模型参数'pooling_size': 5,             # SPP的模型参数'neck_act': 'lrelu',           # SPP的模型参数'neck_norm': 'BN',             # SPP的模型参数'neck_depthwise': False,       # SPP的模型参数# head'head': 'decoupled_head',      # 使用解耦检测头'head_act': 'lrelu',           # 检测头所需的参数'head_norm': 'BN',             # 检测头所需的参数'num_cls_head': 2,             # 解耦检测头的类别分支所包含的卷积层数'num_reg_head': 2,             # 解耦检测头的回归分支所包含的卷积层数'head_depthwise': False,       # 检测头所需的参数# loss weight'loss_obj_weight': 1.0,      # obj损失的权重'loss_cls_weight': 1.0,      # cls损失的权重'loss_box_weight': 5.0,      # box损失的权重# training configuration'no_aug_epoch': -1,          # 关闭马赛克增强和混合增强的节点# optimizer'optimizer': 'sgd',          # 使用SGD优化器'momentum': 0.937,           # SGD优化器的momentum参数'weight_decay': 5e-4,        # SGD优化器的weight_decay参数'clip_grad': 10,             # 梯度剪裁参数# model EMA'ema_decay': 0.9999,         # 模型EMA参数'ema_tau': 2000,             # 模型EMA参数# lr schedule'scheduler': 'linear',       # 使用线性学习率衰减策略'lr0': 0.01,                 # 初始学习率'lrf': 0.01,                 # 最终的学习率=lr0 * lrf'warmup_momentum': 0.8,      # Warmup阶段, 优化器的momentum参数的初始值'warmup_bias_lr': 0.1,       # Warmup阶段, 优化器为模型的bias参数设置的学习率初始值
}

3.3 YOLOv1颈部网络

作者改进的YOLOv1选择SPP模块作为颈部网络。SPP网络的结构非常简单,仅由若干不同尺寸的核的最大池化层所组成,实现起来也非常地简单,相关代码我们已经在前面展示了。而在YOLOv1中,我们直接调用相关的函数来使用SPP即可,如代码4-7所示。

# >>>>>>>>>>>>>>>>>>>> 颈部网络 <<<<<<<<<<<<<<<<<<<<<
# TODO: 构建我们的颈部网络
self.neck=build_neck(cfg, feat_dim, out_dim=512)
head_dim=self.neck.out_dim

3.4 YOLOv1检测头

有关检测头的代码和预测层相关的代码已经在前面介绍过了,这里,我们只需要调用相关的函数来使用解耦检测头,然后再使用1 \times 1卷积创建预测层,如代码4-8所示。

# >>>>>>>>>>>>>>>>>>>> 检测头 <<<<<<<<<<<<<<<<<<<<<
# TODO: 构建我们的detection head 网络
## 检测头
self.head=build_head(cfg, head_dim, head_dim, num_classes)# >>>>>>>>>>>>>>>>>>>> 预测层 <<<<<<<<<<<<<<<<<<<<<
# TODO: 构建我们的预测层
self.obj_pred=nn.Conv2d(head_dim, 1, kernel_size=1)
self.cls_pred=nn.Conv2d(head_dim, num_classes, kernel_size=1)
self.reg_pred=nn.Conv2d(head_dim, 4, kernel_size=1)

3.5 YOLOv1前向推理函数

在上述所示的推理代码中,作者对pred操作执行了view操作,将HW两个维度合并到一起,由于这之后不会再有任何卷积操作了,而仅仅是要计算损失,因此,将输出张量的维度从[B,C,H,W]调整为[B,H \times W,C]的目的仅是方便后续的损失计算和后处理,而不会造成其他不必要的负面影响。

def forward(self, x):if not self.trainable:return self.inference(x)else:# 主干网络feat=self.backbone(x)# 颈部网络feat=self.neck(feat)# 检测头cls_feat, reg_feat=self.head(feat)# 预测层obj_pred=self.obj_pred(cls_feat)cls_pred=self.cls_pred(cls_feat)reg_pred=self.reg_pred(reg_feat)fmp_size=obj_pred.shape[-2:]# 对pred 的size做一些调整, 便于后续的处理# [B, C, H, W] -> [B, H, W, C] -> [B, H*W, C]obj_pred=obj_pred.permute(0, 2, 3, 1).contiguous().flatten(1, 2)cls_pred=cls_pred.permute(0, 2, 3, 1).contiguous().flatten(1, 2)reg_pred=reg_pred.permute(0, 2, 3, 1).contiguous().flatten(1, 2)# 解耦边界框box_pred=self.decode_boxes(reg_pred, fmp_size)# 网络输出outputs={"pred_obj": obj_pred,         # (Tensor) [B, M, 1]"pred_cls": cls_pred,         # (Tensor) [B, M, C]"pred_box": box_pred,         # (Tensor) [B, M, 4]"stride": self.stride,        # (Int)"fmp_size": fmp_size          # (List) [fmp_h, fmp_w]}return outputs

另外,在测试阶段,我们只需要推理当前输入图像,无须计算损失,所以我们单独实现了一个inference函数,如代码4-10所示。

@torch.no_grad()
def inference(self, x):# 主干网络feat=self.backbone(x)# 颈部网络feat=self.neck(feat)# 检测头cls_feat, reg_feat=self.head(feat)# 预测层obj_pred=self.obj_pred(cls_feat)cls_pred=self.cls_pred(cls_feat)reg_pred=self.reg_pred(reg_feat)fmp_size=obj_pred.shape[-2:]# 对pred 的size做一些调整, 便于后续的处理# [B, C, H, W] -> [B, H, W, C] -> [B, H*W, C]obj_pred=obj_pred.permute(0, 2, 3, 1).contiguous().flatten(1, 2)cls_pred=cls_pred.permute(0, 2, 3, 1).contiguous().flatten(1, 2)reg_pred=reg_pred.permute(0, 2, 3, 1).contiguous().flatten(1, 2)# 测试时, 默认batch是1# 因此, 我们不需要用batch这个维度, 用[0]将其取走obj_pred=obj_pred[0]       # [H*W, 1]cls_pred=cls_pred[0]       # [H*W, NC]reg_pred=reg_pred[0]       # [H*W, 4]# 每个边界框的得分scores=torch.sqrt(obj_pred.sigmoid() * cls_pred.sigmoid())# 解算边界框, 并归一化边界框: [H*W, 4]bboxes=self.decode_boxes(reg_pred, fmp_size)# 将预测放在CPU处理上, 以便进行后处理scores=scores.cpu().numpy()bboxes=bboxes.cpu().numpy()# 后处理bboxes, scores, labels=self.postprocess(bboxes, scores)return bboxes, scores, labels

在上面的用于推理的代码中,装饰器@torch.no_grad()表示该inference函数不会存在任何梯度,因为推理阶段不会涉及反向传播,无须计算变量的梯度。在这段代码中,多了一个后处理postprocess函数的调用,将在后续进行说明。

至此,我们搭建完了YOLOv1的网络,只需将上面的单独实现分别对号入座地加入YOLOv1的网络框架里。最后,我们就可以获得网络的3个预测分支的输出。但是,这里还遗留下了以下3个问题尚待处理。

(1) 如何有效地计算出边界框的左上角点坐标和右下角点坐标。

(2) 如何计算3个分支的损失。

(3) 如何对预测结果进行后处理。

3.6 YOLOv1的后处理

(1) 求解预测边界框的坐标

对于某一处的网格(grid_x,grid_y),YOLOv1输出的边界框的中心点偏移量预测为t_xt_y,宽和高的对数映射预测为t_wt_h,我们使用公式(4-6)即可解算出边界框的中心点坐标c_xc_y与宽高Wh

c_x = \left[ \text{grid}_x + \sigma(t_x) \right] \times \text{stride} \\ c_y = \left[ \text{grid}_y + \sigma(t_y) \right] \times \text{stride} \\ w = \exp(t_w) \times \text{stride} \\ h = \exp(t_h) \times \text{stride}

其中,\sigma(t_x)是Sigmoid函数。从公式中可以看出,为了计算预测的边界框的中心点坐标,我们需要获得网格的坐标(grid_x,grid_y),因为我们的YOLOv1也是在每个网格预测偏移量,从而获得精确的边界框中心点坐标。直接的方法就是遍历每一个网格,以获取网格坐标,然后加上此处预测的偏移量即可获得此处预测出的边界框中心点坐标,但是这种for循环操作的效率不高。在一般情况下,能用矩阵运算来实现的操作就尽量避免使用for循环,因为不论是GPU还是CPU,矩阵运算都是可以并行处理的,开销更小,因此,这里我们采用一个讨巧的等价方法。

在计算边界框坐标之前,先生成一个保存网格所有坐标的矩阵\mathbf{G} \in \mathbb{R}_{H_0 \times W_0 \times 2},其中H_0W_0是输出的特征图的空间尺寸,2是网格的横纵坐标。G(grid_x,grid_y)就是输出特征图上G(grid_x,grid_y)处的网格坐标(grid_x,grid_y),即G(grid_x,grid_y,0)=grid_xG(grid_x,grid_y,1)=grid_y,如图4-7所示。

所以,在清楚了G矩阵的含义后,我们便可以编写相应的代码来生成G矩阵,如代码4-11所示。

def create_grid(self, input_size):# 输入图像的宽和高w, h=input_size, input_size# 特征图的宽和高ws, hs=w // self.stride, h // self.stride# 生成网格的x坐标和y坐标grid_y, grid_x=torch.meshgrid([torch.arange(hs), torch.arange(ws)])# 将x和y两部分的坐标拼起来:[H, W, 2]grid_xy=torch.stack([grid_x, grid_y], dim=-1).float()# [H, W, 2] -> [HW, 2]grid_xy=grid_xy.view(-1, 2).to(self.device)return grid_xy

注意,为了后续解算边界框的方便,将grid_xy的维度调整成[HW,2]的形式,因为在讲解YOLOv1的前向推理的代码时,输出的txtytwth_pred的维度被调整为[HW,2]的形式,这里我们为了保持维度一致,也做了同样的处理。在得到了G矩阵之后,我们就可以很容易计算边界框的位置参数了,包括边界框的中心点坐标、宽、高、左上角点坐标和右下角点坐标,代码4-12展示了这一计算过程。

def decode_boxes(self, pred, fmp_size):"""将txtytwth转换为常用的x1y1x2y2形式"""# 生成网格坐标矩阵grid_cell=self.create_grid(fmp_size)# 计算预测边界框的中心点坐标、宽和高pred_ctr=(torch.sigmoid(pred[..., :2]) + grid_cell) * self.stridepred_wh=torch.exp(pred[..., 2:]) * self.stride# 将所有边界框的中心点坐标、宽和高换算成x1y1x2y2形式pred_x1y1=pred_ctr - pred_wh * 0.5pred_x2y2=pred_ctr + pred_wh * 0.5pred_box=torch.cat([pred_x1y1, pred_x2y2], dim=-1)return pred_box

最终,我们会得到边界框的左上和右下角点坐标。

3.7 后处理

当我们得到了边界框的位置参数后,我们还需要对预测结果做进一步的后处理,滤除那些得分低的边界框和检测到同一目标的冗余框。因此,后处理的主要作用可以总结为两点:

(1)滤除得分低的低质量边界框;

(2)滤除对同一目标的冗余检测结果,即非极大值抑制(NMS)处理。在清楚了后处理的逻辑和目的后,我们就可以编写相应的代码了,如代码4-13所示。

def postprocess(self, bboxes, scores):# 将得分最高的类别作为预测的类别标签labels=np.argmax(scores, axis=1)# 预测标签所对应的得分scores=scores[(np.arange(scores.shape[0]), labels)]# 阈值筛选keep=np.where(scores >=self.conf_thresh)bboxes=bboxes[keep]scores=scores[keep]labels=labels[keep]# 非极大值抑制keep=np.zeros(len(bboxes), dtype=np.int)for i in range(self.num_classes):inds=np.where(labels==i)[0]if len(inds)==0:continuec_bboxes=bboxes[inds]c_scores=scores[inds]c_keep=self.nms(c_bboxes, c_scores)keep[inds[c_keep]]=1keep=np.where(keep > 0)bboxes=bboxes[keep]scores=scores[keep]labels=labels[keep]return bboxes, scores, labels

我们采用十分经典的基于Python语言实现的代码作为本文的非极大值抑制。在入门阶段,希望读者能够将这段代码烂熟于心,这毕竟是此领域的必备算法之一。相关代码如代码4-14所示。

def nms(self, bboxes, scores):"""Pure Python NMS baseline."""x1=bboxes[:, 0]  #xminy1=bboxes[:, 1]  #yminx2=bboxes[:, 2]  #xmaxy2=bboxes[:, 3]  #ymaxareas=(x2 - x1) * (y2 - y1)order=scores.argsort()[::-1]keep=[]while order.size > 0:i=order[0]keep.append(i)# 计算交集的左上角点和右下角点的坐标xx1=np.maximum(x1[i], x1[order[1:]])yy1=np.maximum(y1[i], y1[order[1:]])xx2=np.minimum(x2[i], x2[order[1:]])yy2=np.minimum(y2[i], y2[order[1:]])# 计算交集的宽和高w=np.maximum(1e-10, xx2 - xx1)h=np.maximum(1e-10, yy2 - yy1)# 计算交集的面积inter=w * h# 计算交并比iou=inter / (areas[i] + areas[order[1:]] - inter)# 滤除超过NMS阈值的边界框inds=np.where(iou <=self.nms_thresh)[0]order=order[inds + 1]return keep

经过后处理后,我们得到了最终的3个输出变量:

(1)变量bboxes,包含每一个边界框的左上角坐标和右下角坐标;

(2)变量scores,包含每一个边界框的得分;

(3)变量labels,包含每一个边界框的类别预测。

至此,我们填补了之前留下来的空白,只需要将上面实现的每一个函数放置到YOLOv1的代码框架中,即可组成最终的模型代码。读者可以打开项目中的models/yolov1/yolov1.py文件来查看完整的YOLOv1的模型代码。

四.代码

https://github.com/Tipriest/Lessons/tree/master/YOLO/YOLO_Tutorialhttps://github.com/Tipriest/Lessons/tree/master/YOLO/YOLO_Tutorialhttps://github.com/Tipriest/Lessons/tree/master/YOLO/YOLO_Tutorialhttps://github.com/Tipriest/Lessons/tree/master/YOLO/YOLO_Tutorialhttps://github.com/Tipriest/Lessons/tree/master/YOLO/YOLO_Tutorialhttps://github.com/Tipriest/Lessons/tree/master/YOLO/YOLO_Tutorialhttps://github.com/Tipriest/Lessons/tree/master/YOLO/YOLO_Tutorial

http://www.hengruixuexiao.com/news/6987.html

相关文章:

  • dede做招聘网站文案代写
  • 做美术鉴赏网站的心得谷歌广告联盟
  • 桐乡网站设计公司新闻稿发布平台
  • 公众平台网站建设哪家专业公司网站建设费用多少
  • udacity 移动网站开发谷歌浏览器网页版入口手机版
  • 做网站1500全包今日国际新闻事件
  • 百度投放广告联系谁seo基础入门视频教程
  • 郑州信息网官网seo排名优化软件有用吗
  • 用什么软件写网站网络营销方式都有哪些
  • 国际网站怎么样做企业网站管理系统怎么操作
  • 网页的版面设计是指郭生b如何优化网站
  • 做招标应该关注什么网站无锡整站百度快照优化
  • 莆田企业自助建站系统电子商务说白了就是干什么的
  • 网站开发工程师是什么内容seo推广有哪些方式
  • 网站建设的好处论文济南网络推广公司
  • 网站建设项目运营岗江西百度推广公司
  • 怎么做网站注册的网页站长友情链接平台
  • 中文旅游网站模板下载如何建立网上销售平台
  • 镇江网站设计哪家好软文推广渠道主要有
  • 简单页面设计海淀区seo搜索引擎优化企业
  • 公司网站作用百度客服电话人工服务热线
  • 刚做网站和搜出来的不一样2345浏览器影视大全
  • q版设计网站东莞市民最新疫情
  • 一元购网站建设多少钱网站的营销推广
  • 找人做网站排名yandex网站推广
  • 263企业邮箱官方入口网页版长沙网站seo推广
  • 做棋牌网站建设哪里有学计算机培训班
  • 廊坊市网站软文推广做得比较好的推广平台
  • 微商城网站建设怎么样广告投放价目表
  • 加盟营销型网站建设网络营销课程总结