1 Star 0 Fork 0

元原子/你只看一次版本3

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
文件
克隆/下载
模型库.py 15.98 KB
一键复制 编辑 原始数据 按行查看 历史
元原子 提交于 2023-05-04 11:10 . 添加请读我
import numpy as np
import torch
from torch import nn
import torch.nn.functional as 火炬函数
from 工具屋.工具库 import 到中央处理器, 构建目标列表
from 工具屋.解析配置库 import 解析模型配置
def 创建模块(模块定义列表):
超参数列表 = 模块定义列表.pop(0)
输出_过滤器_列表 = [int(超参数列表["通道数"])]
模块列表 = nn.ModuleList()
for 模块_索引, 模块_定义 in enumerate(模块定义列表):
多个模块 = nn.Sequential()
if 模块_定义["类型"] == "卷积":
是否批归一化 = int(模块_定义["是否归一化批"])
过滤器数量 = int(模块_定义["过滤器数量"])
内核大小 = int(模块_定义["大小"])
填充 = (内核大小 - 1) // 2
多个模块.add_module(
f"卷积_{模块_索引}",
nn.Conv2d(
in_channels=输出_过滤器_列表[-1],
out_channels=过滤器数量,
kernel_size=内核大小,
stride=int(模块_定义["步长"]),
padding=填充,
bias=not 是否批归一化
)
)
if 是否批归一化:
多个模块.add_module(f"批归一化_{模块_索引}", nn.BatchNorm2d(过滤器数量, momentum=0.9, eps=1e-5))
if 模块_定义["激活函数"] == "泄露型线性整流函数":
多个模块.add_module(f"泄露型_{模块_索引}", nn.LeakyReLU(0.1))
elif 模块_定义["类型"] == "最大池化":
内核大小 = int(模块_定义["大小"])
步长 = int(模块_定义["步长"])
if 内核大小 == 2 and 步长 == 1:
多个模块.add_module(f"_调试_填充_{模块_索引}", nn.ZeroPad2d((0, 1, 0, 1)))
最大池化 = nn.MaxPool2d(kernel_size=内核大小, stride=步长, padding=int((内核大小 - 1) // 2))
多个模块.add_module(f"最大池化_{模块_索引}", 最大池化)
elif 模块_定义["类型"] == "上采样":
某个上采样 = 上采样(比例因子=int(模块_定义["步长"]), 模式="nearest")
多个模块.add_module(f"上采样{模块_索引}", 某个上采样)
elif 模块_定义["类型"] == "路径":
层数列表 = [int(x) for x in 模块_定义["层数"].split(",")]
过滤器数量 = sum([输出_过滤器_列表[1:][i] for i in 层数列表])
多个模块.add_module(f"路径_{模块_索引}", 空层())
elif 模块_定义["类型"] == "捷径":
过滤器数量 = 输出_过滤器_列表[1:][int(模块_定义["来自"])]
多个模块.add_module(f"捷径_{模块_索引}", 空层())
elif 模块_定义["类型"] == "你只看一次":
锚定盒序号列表 = [int(x) for x in 模块_定义["掩码"].split(",")]
锚定盒列表 = [int(x) for x in 模块_定义["锚定盒"].split(",")]
锚定盒列表 = [(锚定盒列表[i], 锚定盒列表[i + 1]) for i in range(0, len(锚定盒列表), 2)]
锚定盒列表 = [锚定盒列表[i] for i in 锚定盒序号列表]
分类数 = int(模块_定义["分类数"])
图片尺寸 = int(超参数列表["高度"])
一个你只看一次层 = 你只看一次层(锚定盒列表, 分类数, 图片维度=图片尺寸)
多个模块.add_module(f"你只看一次_{模块_索引}", 一个你只看一次层)
模块列表.append(多个模块)
输出_过滤器_列表.append(过滤器数量)
return 超参数列表, 模块列表
class 上采样(nn.Module):
def __init__(self, 比例因子, 模式="nearest"):
super().__init__()
self.比例因子 = 比例因子
self.模式 = 模式
def forward(self, 输入):
输出 = 火炬函数.interpolate(输入, scale_factor=self.比例因子, mode=self.模式)
return 输出
class 空层(nn.Module):
def __init__(self):
super().__init__()
class 你只看一次层(nn.Module):
def __init__(self, 锚定盒列表, 分类数, 图片维度=416):
super().__init__()
self.锚定盒列表 = 锚定盒列表
self.锚定盒数量 = len(锚定盒列表)
self.分类数 = 分类数
self.忽略用阈值 = 0.5
self.均方误差损失值函数 = nn.MSELoss()
self.二元交叉熵损失值函数 = nn.BCELoss()
self.有物体的比例 = 1
self.无物体的比例 = 100
self.指标字典 = {}
self.图片维度 = 图片维度
self.网格尺寸 = 0
def 计算网格漂移量(self, 网格尺寸, 是否使用统一计算设备架构=True):
self.网格尺寸 = 网格尺寸
网格 = self.网格尺寸
浮点型张量 = torch.cuda.FloatTensor if 是否使用统一计算设备架构 else torch.FloatTensor
self.步长 = self.图片维度 / self.网格尺寸
self.网格_x = torch.arange(网格).repeat(网格, 1).view([1, 1, 网格, 网格]).type(浮点型张量)
self.网格_y = torch.arange(网格).repeat(网格, 1).t().view([1, 1, 网格, 网格]).type(浮点型张量)
self.锚定盒比例列表 = 浮点型张量([(锚定盒宽 / self.步长, 锚定盒高 / self.步长) for 锚定盒宽, 锚定盒高 in self.锚定盒列表])
self.锚定盒宽列表 = self.锚定盒比例列表[:, 0:1].view((1, self.锚定盒数量, 1, 1))
self.锚定盒高列表 = self.锚定盒比例列表[:, 1:2].view((1, self.锚定盒数量, 1, 1))
def forward(self, 输入列表, 目标列表=None, 图片维度=None):
# print("输入列表", 输入列表.shape)
浮点型张量 = torch.cuda.FloatTensor if 输入列表.is_cuda else torch.FloatTensor
长整型张量 = torch.cuda.LongTensor if 输入列表.is_cuda else torch.LongTensor
字节型张量 = torch.cuda.ByteTensor if 输入列表.is_cuda else torch.ByteTensor
self.图片维度 = 图片维度
采样数 = 输入列表.size(0)
网格尺寸 = 输入列表.size(2)
预测的张量列表 = (输入列表.view(采样数, self.锚定盒数量, self.分类数 + 5, 网格尺寸, 网格尺寸).permute(0, 1, 3, 4, 2).contiguous())
# print("预测的张量", 预测的张量列表.shape)
x = torch.sigmoid(预测的张量列表[..., 0])
y = torch.sigmoid(预测的张量列表[..., 1])
= 预测的张量列表[..., 2]
= 预测的张量列表[..., 3]
预测的置信度列表 = torch.sigmoid(预测的张量列表[..., 4])
预测的分类列表 = torch.sigmoid(预测的张量列表[..., 5:])
if 网格尺寸 != self.网格尺寸:
self.计算网格漂移量(网格尺寸, 是否使用统一计算设备架构=x.is_cuda)
#
预测的盒子列表 = 浮点型张量(预测的张量列表[..., :4].shape)
预测的盒子列表[..., 0] = x.data + self.网格_x
预测的盒子列表[..., 1] = y.data + self.网格_y
预测的盒子列表[..., 2] = torch.exp(.data) * self.锚定盒宽列表
预测的盒子列表[..., 3] = torch.exp(.data) * self.锚定盒高列表
输出 = torch.cat(
(
预测的盒子列表.view(采样数, -1, 4) * self.步长,
预测的置信度列表.view(采样数, -1, 1),
预测的分类列表.view(采样数, -1, self.分类数)
),
-1,
)
if 目标列表 is None:
return 输出, 0
else:
交并比分数列表, 分类掩码列表, 有物体的掩码列表, 无物体的掩码列表, 目标中x的列表, 目标中y的列表, 目标中宽的列表, 目标中高的列表, 目标分类的列表, 目标的置信度列表 = 构建目标列表(
预测的盒子列表=预测的盒子列表,
预测的分类列表=预测的分类列表,
目标列表=目标列表,
锚定盒列表=self.锚定盒比例列表,
忽略用阈值=self.忽略用阈值
)
x的损失值 = self.均方误差损失值函数(x[有物体的掩码列表], 目标中x的列表[有物体的掩码列表])
y的损失值 = self.均方误差损失值函数(y[有物体的掩码列表], 目标中y的列表[有物体的掩码列表])
宽的损失值 = self.均方误差损失值函数([有物体的掩码列表], 目标中宽的列表[有物体的掩码列表])
高的损失值 = self.均方误差损失值函数([有物体的掩码列表], 目标中高的列表[有物体的掩码列表])
有物体的置信度的损失值 = self.二元交叉熵损失值函数(预测的置信度列表[有物体的掩码列表], 目标的置信度列表[有物体的掩码列表])
无物体的置信度的损失值 = self.二元交叉熵损失值函数(预测的置信度列表[无物体的掩码列表], 目标的置信度列表[无物体的掩码列表])
# 这里置信度超过100%了吗?
置信度的损失值 = self.有物体的比例 * 有物体的置信度的损失值 + self.无物体的比例 * 无物体的置信度的损失值
分类的损失值 = self.二元交叉熵损失值函数(预测的分类列表[有物体的掩码列表], 目标分类的列表[有物体的掩码列表])
整体的损失值 = x的损失值 + y的损失值 + 宽的损失值 + 高的损失值 + 置信度的损失值 + 分类的损失值
分类的准确度 = 100 * 分类掩码列表[有物体的掩码列表].mean()
有物体的置信度 = 预测的置信度列表[有物体的掩码列表].mean()
无物体的置信度 = 预测的置信度列表[无物体的掩码列表].mean()
置信度50 = (预测的置信度列表 > 0.5).float()
交并比50 = (交并比分数列表 > 0.5).float()
交并比75 = (交并比分数列表 > 0.75).float()
检查掩码列表 = 置信度50 * 分类掩码列表 * 目标的置信度列表
精确度 = torch.sum(交并比50 * 检查掩码列表) / (置信度50.sum() + 1e-16)
召回率50 = torch.sum(交并比50 * 检查掩码列表) / (有物体的掩码列表.sum() + 1e-16)
召回率75 = torch.sum(交并比75 * 检查掩码列表) / (有物体的掩码列表.sum() + 1e-16)
self.指标字典 = {
"损失值": 到中央处理器(整体的损失值).item(),
"x": 到中央处理器(x的损失值).item(),
"y": 到中央处理器(y的损失值).item(),
"宽": 到中央处理器(宽的损失值).item(),
"高": 到中央处理器(高的损失值).item(),
"置信度": 到中央处理器(置信度的损失值).item(),
"分类": 到中央处理器(分类的损失值).item(),
"分类的准确度": 到中央处理器(分类的准确度).item(),
"召回率50": 到中央处理器(召回率50).item(),
"召回率75": 到中央处理器(召回率75).item(),
"精确度": 到中央处理器(精确度).item(),
"有物体的置信度": 到中央处理器(有物体的置信度).item(),
"无物体的置信度": 到中央处理器(无物体的置信度).item(),
"网格尺寸": 网格尺寸
}
return 输出, 整体的损失值
class 黑夜网络(nn.Module):
def __init__(self, 配置文件路径, 图片尺寸=416):
super().__init__()
self.模块定义列表 = 解析模型配置(配置文件路径)
self.超参数列表, self.模块列表 = 创建模块(self.模块定义列表)
self.你只看一次层列表 = [[0] for in self.模块列表 if hasattr([0], "指标字典")]
self.图片尺寸 = 图片尺寸
self.见过 = 0
self.头部_信息 = np.array([0, 0, 0, self.见过, 0], dtype=np.int32)
def forward(self, 输入列表, 目标列表=None):
图片维度 = 输入列表.shape[2]
损失值 = 0
层的输出列表, 你只看一次层的输出列表 = [], []
for 索引, (模块_定义, 模块) in enumerate(zip(self.模块定义列表, self.模块列表)):
if 模块_定义["类型"] in ["卷积", "上采样", "最大池化"]:
输入列表 = 模块(输入列表)
elif 模块_定义["类型"] == "路径":
输入列表 = torch.cat([层的输出列表[int(层索引)] for 层索引 in 模块_定义["层数"].split(",")], 1)
elif 模块_定义["类型"] == "捷径":
层索引 = int(模块_定义["来自"])
输入列表 = 层的输出列表[-1] + 层的输出列表[层索引]
elif 模块_定义["类型"] == "你只看一次":
输入列表, 层损失值 = 模块[0](输入列表, 目标列表, 图片维度)
损失值 += 层损失值
你只看一次层的输出列表.append(输入列表)
层的输出列表.append(输入列表)
你只看一次层的输出列表 = 到中央处理器(torch.cat(你只看一次层的输出列表, 1))
return 你只看一次层的输出列表 if 目标列表 is None else (损失值, 你只看一次层的输出列表)
def 载入黑夜网络权重(self, 权重路径):
with open(权重路径, "rb") as 文件:
头部 = np.fromfile(文件, dtype=np.int32, count=5)
self.头部_信息 = 头部
self.见过 = 头部[3]
权重数组 = np.fromfile(文件, dtype=np.flot32)
# 载入骨干权重来建立近路
近路 = None
if "黑夜网络53.卷积.74" in 权重路径:
近路 = 75
指针 = 0
for 索引, (模块定义, 模块) in enumerate(zip(self.模块定义列表, self.模块列表)):
if 索引 == 近路:
break
if 模块定义["类型"] == "卷积":
卷积层 = 模块[0]
if 模块定义["批归一化"]:
批归一化层 = 模块[1]
偏置项数目 = 批归一化层.bias.numel()
# 偏置项
批归一化的偏置项 = torch.from_numpy(权重数组[指针:指针 + 偏置项数目]).view_as(批归一化层.bias)
批归一化层.bias.data.copy_(批归一化的偏置项)
指针 += 偏置项数目
# 权重
批归一化的权重 = torch.from_numpy(权重数组[指针:指针 + 偏置项数目]).view_as(批归一化层.weight)
批归一化层.bias.weight.copy_(批归一化的权重)
指针 += 偏置项数目
# 运行时平均数
批归一化运行时平均数 = torch.from_numpy(权重数组[指针:指针 + 偏置项数目]).view_as(
批归一化层.running_mean)
批归一化层.bias.running_mean.copy_(批归一化运行时平均数)
指针 += 偏置项数目
# 运行时方差
批归一化运行时方差 = torch.from_numpy(权重数组[指针:指针 + 偏置项数目]).view_as(
批归一化层.running_var)
批归一化层.running_var.data.copy_(批归一化运行时方差)
指针 += 偏置项数目
else:
偏置项数目 = 卷积层.bias.numel()
卷积层的偏置项 = torch.from_numpy(权重数组[指针:指针 + 偏置项数目]).view_as(卷积层.bias)
卷积层.bias.data.copy_(卷积层的偏置项)
指针 += 偏置项数目
权重的数目 = 卷积层.weight.numel()
卷积层的权重 = torch.from_numpy(权重数组[指针:指针 + 权重的数目]).view_as(卷积层.weight)
卷积层.weight.data.copy_(卷积层的权重)
指针 += 偏置项数目
Loading...
马建仓 AI 助手
尝试更多
代码解读
代码找茬
代码优化
Python
1
https://gitee.com/zozero/you-only-look-once-v3.git
git@gitee.com:zozero/you-only-look-once-v3.git
zozero
you-only-look-once-v3
你只看一次版本3
master

搜索帮助

0d507c66 1850385 C8b1a773 1850385