Windows体验计划连接不上,执行此脚本解决
2021-11-01 21:01:13 763KB 预体验计划
1
第二章 数字失真技术理论 第一节 引言 第 节 线性化技术 述第二节 线性化技术概述 第二节 数字失真基本原理第 节 数字失真基本原理 第三节 数字失真线性化系统 第四节 数字失真器及其参数辨识 1.无记忆数字失真器 (多项式、Salel) 2.记忆型数字失真器(Volterra级数、记忆多项式、 Hammerstein-Wiener、改进型Hammerstein、改进型Wiener等) 第 节 数字 失真器参数辨识算法第五节 数字失真器参数辨识算法 第六节 峰均值比及削峰技术简介第六节 峰均值比及削峰技术简介 第七节 数字失真器的ADS仿真
2021-11-01 20:48:32 2.7MB DPD 介绍
1
超详细的全混冷凝热水炉系统安装图册.pdf
2021-11-01 18:04:32 3.92MB 锅炉房图纸
1
inception_v1.pytorch 在pytorch上使用训练的权重实现inception_v1。 这段代码是soumith火炬仓库的pytorch翻译: : 它实现了初始架构的原始版本; 众所周知的是GoogLeNet。 可以在找到训练的权重 免责声明 imagenet上训练模型的测试精度仅为26.38%。 如果我没记错的话,这是原始火炬回购的问题-数据加载正确完成。 如果您训练此模型的准确性更高,我希望获得新的权重! 执照 该代码是根据MIT许可证获得许可的。 有关详细信息,请参见文件。
2021-10-31 16:46:49 9KB Python
1
51单片机设计可以先设置电压的数控电源,并由LCD屏显示设置以及当前电压值
2021-10-31 09:19:57 161KB 仿真
1
内含针对16Qam的功放模型仿真,并有失真器仿真程序说明
2021-10-30 15:32:17 151KB 预失真 功放模型
1
MobileNetv2 是一个训练模型,已经在 ImageNet 数据库的一个子集上进行了训练。 该模型接受了超过一百万张图像的训练,可以将图像分类为1000个对象类别(例如键盘,鼠标,铅笔和许多动物)。 从您的操作系统或 MATLAB 中打开 mobilenetv2.mlpkginstall 文件将启动您拥有的版本的安装过程。 此 mlpkginstall 文件适用于 R2019a 及更高版本。 用法示例: % 访问训练好的模型net = mobilenetv2(); % 查看架构细节网络层 % 读取图像进行分类I = imread('peppers.png'); % 调整图片大小sz = net.Layers(1).InputSize I = I(1:sz(1),1:sz(2),1:sz(3)); % 使用 mobilenetv2 对图像进行分类标签 = 分类(净,我
2021-10-28 13:48:56 6KB matlab
1
U2Net网络训练模型 u2netp.pth (4.7 MB) for https://github.com/NathanUA/U-2-Net 源资源在Google drive: https://drive.google.com/file/d/1rbSTGKAE-MTxBYHd-51l2hMOQPT_7EPy/view?usp=sharing
2021-10-28 00:49:54 4.09MB U2Net u2netp 预训练模型 U2Net网络
1
变形金刚 对VQA任务进行下行趋势化的训练V + L模型的实现。 现在支持:Linux和上的VisualBERT,LXMERT和 。 笔记: 这只是一个测试版,如果遇到任何错误,请随时提出问题。 我们的实现基于的大型。 如果您采用V + L模型的训练权重,请考虑引用其原始工作。 如果您发现我们的实施有帮助,请考虑引用以下内容:) @inproceedings{li2020comparison, title={A comparison of pre-trained vision-and-language models for multimodal representation learning across medical images and reports}, author={Li, Yikuan and Wang, Hanyin and Luo, Yuan},
2021-10-27 20:02:52 1.91MB Python
1
Google提出的开源人脸识别算法FaceNet的训练模型,FaceNet的官方的训练模型,20180408-102900 NOTE: If you use any of the models, please do not forget to give proper credit to those providing the training dataset as well.
1