1. 项目使用的数据集是PASCAL VOC语义分割数据集 2. 通过自定义 dataset 实现对 VOC 数据集的处理 3. 使用学习率衰减,根据训练的 epoch 按照cos自动衰减学习率 4. 损失函数为交叉熵损失,对填充的灰度值为255的忽略损失计算 5. 通过混淆矩阵对网络性能进行评估,计算分割像素的准确率和各个像素点的iou,以及mean iou 。并将训练损失和测试精度绘制成曲线形式 6. 由于VOC的填充方式独特,所以预测代码可以根据得到的VOC调色板进行填充
2023-07-31 15:27:18 402.88MB 数据集 网络 网络 矩阵
1
YD 5060-2010 通信设备安装抗震设计图集
2023-07-26 22:06:25 1.66MB LabVIEW
1
易语言BMP图片文件头显示工具源码,BMP图片文件头显示工具,字节集到十六进制文本,十六进制文本到字节集,十六进制到十进制,十进制到十六进制,读字节位,宽度对齐,置图片,替换数据
1
分享自然语言处理课程——自然语言处理NLP企业级项目课程合集(实体关系抽取+情感分析+新闻文本分类+火车票识别+命名实体识别),视频,源码,数据,课件,资料完整
2023-07-21 10:33:18 287B 自然语言处理 NLP
1
教程名称:韩顺平Linux学习视频教程含PPT(14集)课程目录:【】LinuxPPT文档【】linux视频教程第0讲.开山篇【】linux视频教程第1讲.基础介绍【】linux视频教程第3讲【】linux视频教程第4讲【】linux视频教程第5讲.文件权限.用户组(1)【】linux视频教程第6讲【】linux视频教 资源太大,传百度网盘了,链接在附件中,有需要的同学自取。
1
在不进行任何配置的情况下,就可以在全系统范围内进行划词查询。 下载后,将 ZIP 归档解包,将得到的 .dictionary 文件(实际上是文件夹)移动到下列目录:~/Library/Dictionaries发现很多评论都提到找不到这个目录,这里讲一下怎么办。首先打开 Finder(访达),而后在 Finder 当中按下快捷键「Command + Shift + G」,接着在弹出的输入框中键入「~/Library」,点击「前往」即可打开你「个人目录下的资源库」。在资源库中,寻找名为「Dictionaries」的目录。若目录不存在,则新建一个。而后我们在 Finder 中进入 ~/Library/Dictionaries 目录。 将 ZIP 解包归档得到的 .dictionary 文件,拷贝到 ~/Library/Dictionaries 目录。 打开系统里的词典程序,在配置中,就能看到新增的词典了。
2023-07-20 09:21:32 458.75MB macos
1
粗糙集工具rosetta,有效处理数据挖掘,数据分割等问题
2023-07-19 16:04:38 8.1MB rough set matlab
1
显著性目标检测相当于语义分割中的二分类任务(包含背景) 项目里包含了DUTS数据集,对预处理transform的重新实现,利用混淆矩阵计算网络的性能,对预训练权重的迁移学习等等 对dataset的init方法重新编写的话,可以完成别的u2net的二分类任务
2023-07-18 17:17:08 943.77MB 目标检测 数据集
1
希腊电力负荷预测IPTO 此存储库包含我研究生论文的代码,该论文涉及短期负荷预测,使用希腊独立电力公司提供的每日负荷数据集,在R,RStudio,R-markdown和R-Shiny中开发了预测希腊每小时的电力负荷需求传输运营商(IPTO)-(希腊的AΔΜHΕ) 可以在亚里斯多德大学的论文库中找到我的论文的文档: : ln= ,请原谅我文档中的错误,如果发现任何错误,请通知我 :) 库-依赖关系 数据预处理库 xlsx软件包:install.packages('xlsx') JSONLite :install.packages(“ jsonlite”) lubridate :install.packages('lubridate') 标题:install.packages(“标题”) 功能选择,库:install.package(“ Boruta”) 机器学习图书馆 SV
2023-07-14 12:21:55 14.47MB machine-learning r r-markdown r-shiny
1
Dataset We use preprocessed data (See Xiang Zhang's folder) AG's news, Sogou, DBpedia, Yelp P., Yelp F., Yahoo A., Amazon F., Amazon P. Experiment # Download a spacy "en_core_web_lg" model $ python3 -m spacy download en_core_web_lg --user # Download datasets (select your os (mac or ubuntu)) $ sh
2023-07-12 08:29:36 613.88MB nlp
1