针对现有方法对肝部医学影像分割上的不足,提出了一种用于对肝部医学影像进行分割的改进型U-Net结构。在上采样过程中只复制池化层特征,以减少信息丢失;同时引入残差网络对初步分割图像进行循环精炼,实现高层特征与低层特征的融合;利用对边界敏感的新型混合损失函数对图像进行细化处理,得到更为精确的分割结果。实验结果表明,肝脏图像和肝脏肿瘤图像的Dice系数分别为96.26%和83.32%。相比传统的U-Net,所提网络可以获得更高级的语义信息,进一步提高对肝脏和肝肿瘤图像的分割精度。
2021-12-29 15:21:20 11.67MB 图像处理 图像分割 肝部医学 U-Net
1
损失函数(加权Hausdorff距离) 用于对象定位 该存储库包含本文描述的加权Hausdorff损失的PyTorch实现: 抽象的 卷积神经网络(CNN)的最新进展在对图像中的对象进行定位方面取得了显著成果。 在这些网络中,训练过程通常需要提供边界框或最大数量的预期对象。 在本文中,我们解决了在没有带注释的边界框的情况下估计对象位置的任务,边界框通常是手工绘制的,并且标注时很费时间。 我们提出了一种损失函数,可以在任何完全卷积网络(FCN)中使用它来估计对象位置。 此损失函数是两个无序点集之间的平均Hausdorff距离的修改。 所提出的方法不需要“猜测”图像中最大数量的对象,并且没有边界框,区域提议或滑动窗口的概念。 我们使用旨在定位人的头部,学生中心和植物中心的三个数据集来评估我们的方法。 我们报告了这三个数据集的平均精度和召回率94%,在256x256图像中的平均位置误差为6个像素
2021-12-29 09:33:00 4.26MB Python
1
损失函数matlab代码我们的 CVPR 2016 论文的预训练模型:“通过最小化全局损失函数学习具有深度连体和三重卷积网络的局部图像描述符” 如果您使用此代码进行研究,请引用我们的论文: @InProceedings{G_2016_CVPR, author = {Kumar B G, Vijay and Carneiro, Gustavo and Reid, Ian}, title = {Learning Local Image Descriptors With Deep Siamese and Triplet Convolutional Networks by Minimising Global Loss Functions}, booktitle = {The IEEE Conference on Computer Vision and Pattern Recognition (CVPR)}, month = {June}, year = {2016} } 要求:软件 MATLAB MatConvNet-13 ()
2021-12-29 06:11:35 36.49MB 系统开源
1
两种常用损失函数: 平方损失: 最小Bayesian风险估计:后验期望 点损失: 最大后验密度估计
2021-12-25 11:43:17 187KB 贝叶斯 估计
1
本代码基于pytorch实现,复现ICCV 2019论文 Robust Loss Functions under Label Noise for Deep Neural Networks,论文地址https://arxiv.org/abs/1712.09482v1
2021-12-21 19:09:24 20KB 深度学习 pytorch python 图像分类
1
损失函数matlab代码 #iyolov3_learning 用来自己学习yolo,有缘的新手看到也能一起学学! 目标 不敲一行代码、不改损失函数,随意拼接、改网络。 搞懂损失函数、反向传播 自己改损失函数,写反向传播,再试试训练效果 ... 更新内容: 2018.12.23 创建项目 上传了2个DIY的yolo模型 上传了人头数据集brainwash的地址 上传了数据集brainwash格式转yolo格式的matlab脚本文件 idl2yolo 2018.12.24 上传SCUT_HEAD人头数据集 上传配套格式转换脚本(修改自yolo的voc脚本) 原数据集xml文件有问题,有些size是0,0,用上面的脚本可以修复,文件路径自己vim看下改改
2021-12-18 21:51:02 5KB 系统开源
1
keras自定义函数时候,正常在模型里自己写好自定义的函数,然后在模型编译的那行代码里写上接口即可。如下所示,focal_loss和fbeta_score是我们自己定义的两个函数,在model.compile加入它们,metrics里‘accuracy’是keras自带的度量函数。 def focal_loss(): ... return xx def fbeta_score(): ... return yy model.compile(optimizer=Adam(lr=0.0001), loss=[focal_loss],metrics=['accuracy',fbeta_sco
2021-12-18 12:33:05 48KB AS keras ras
1
1.3 特征融合方法与损失函数改进优化 与弱监督网络结构与定位方法不同的是,特征融合方法与损失函数的改进是在前两者的125 基础上帮助前两者可以得到到更好的特征,增加类间距离减少类内距离。关于特征融合现有 的方法大多只是级联 concat 和求和 sum,这些方法限制了层间和层内的本质高阶关系, HIHCA [32] 提出了层级卷积响应的核融合机制使得不同特征可以更好的融合,使得多特征的 优势最大化。通过将卷积激活作为一个局部描述符,层级卷积激活可以处理不同尺度的局部 表示。提出一个基于预测器的多项式核来捕捉卷积激活的高阶统计信息,并通过核融合将多130 项式预测器拓展来对局部建模。 本文的目的是捕捉部件之间更复杂的高阶的关系,写成所 有成分的线性组合,多项式预测如下公式(1)所示。另外 RACNN 引入的排序损失函数、 常用的 triplet loss [33] 、softmax loss 的变种及优化目的都是在缩小类内距离,增加类间距离, 从而使得细粒度识别的效果更好。其中 MAMC [34] 便是提取每张图像的多个区域,然后按照 类别和区域的不同,采用 Triplet Loss 和 Softmax Loss 来训练网络。现有的很多方法是把目135 标的每个部位单独处理,忽略了他们之间的相关性。MAMC 能够拉近相同注意力并且是相 同类别的特征,同时拉远不同注意力或者不同类别的特征。使得分类效果更好。特征融合方 法与损失函数的改进优化这两个方面在细粒度识别领域的应用是最经济适用的,因为在不增 加模型耗时与显存的情况下仅根据训练优化就会使得模型有更好的结果。 (1) 2 应用介绍 140 基于深度学习的计算机视觉近些年发展迅猛,但是视觉算法理论的发展与实际的落地还 有很大的距离。在细粒度识别领域,目前最直接的落地实现便是百度、搜狗等公司推出的车
2021-12-08 11:26:24 605KB 首发论文
1
1.损失函数 损失函数,又叫目标函数,是编译一个神经网络模型必须的两个要素之一。另一个必不可少的要素是优化器。 损失函数是指用于计算标签值和预测值之间差异的函数,在机器学习过程中,有多种损失函数可供选择,典型的有距离向量,绝对值向量等。 损失Loss必须是标量,因为向量无法比较大小(向量本身需要通过范数等标量来比较)。 损失函数一般分为4种,平方损失函数,对数损失函数,HingeLoss 0-1 损失函数,绝对值损失函数。 我们先定义两个二维数组,然后用不同的损失函数计算其损失值。 import torch from torch.autograd import Variable import
2021-12-05 13:51:38 167KB c fu func
1
本资源为一种粗糙集程序源代码,属于决策粗糙集的一种扩展形式,称之为单参数决策粗糙集。编程语言为matlab。代码免费开放,请在使用时注明并引用相应的文章信息。 为解决决策粗糙集参数不便于确定问题,提出了一种单参数决策粗糙集。文章信息:M. Suo, L. Tao, B. Zhu, X. Miao, Z. Liang, Y. Ding, X. Zhang, T. Zhang, Single-parameter decision-theoretic rough set, Information Sciences (2020), doi: https://doi.org/10.1016/j.ins.2020.05.124 欢迎交流(QQ/WeChat: 379786867)。请在使用此代码时做好引用。本代码严禁应用于任何商业用途,版权必究! 本程序是单参数决策粗糙集的matlab源代码,内附两个演示数据集,供运行参考。
1