基于知识的认知雷达 该方向为雷达领域的新发展方向 而本书对于学习该方面的技术人员将提供很好的借鉴价值!
2022-05-25 21:26:23 5.08MB 基于知识 雷达
1
CLSAG:紧凑的可链接环签名。 对MLSAG的修改
1
科技文献检索与写作:04第三章 第四节 4 Web of Knowledge.ppt
2022-05-20 19:07:41 2.95MB 文档资料 科技 前端
yolov3 yolov4 channel and layer pruning, Knowledge Distillation 层剪枝,通道剪枝,知识蒸馏 yolov3-channel-and-layer-pruning 本项目以ultralytics/yolov3为基础实现,根据论文Learning Efficient Convolutional Networks Through Network Slimming (ICCV 2017)原理基于bn层Gmma系数进行通道剪枝,下面引用了几种不同的通道剪枝策略,并对原策略进行了改进,提高了剪枝率和精度;在这些工作基础上,又衍生出了层剪枝,本身通道剪枝已经大大减小了模型参数和计算量,降低了模型对资源的占用,而层剪枝可以进一步减小了计算量,并大大提高了模型推理速度;通过层剪枝和通道剪枝结合,可以压缩模型的深度和宽度,某种意义上实现了针对不同数据集的小模型搜索。 项目的基本工作流程是,使用yolov3训练自己数据集,达到理想精度后进行稀疏训练,稀疏训练是重中之重,对需要剪枝的层对应的bn gamma系数进行大幅压缩,理想的压缩情况如下图,
2022-05-04 21:02:31 1.4MB Python Deep Learning
1
Mapping of Runnables in RTE Background Knowledge MICROSAR
2022-04-06 02:06:37 2.69MB 功能安全 Autosar
1
json-ld-transform 这是一个旨在将每个json转换为。 如何使用 首先,克隆存储库。 $ git clone https://github.com/krinde/json-ld-transform.git 然后,在本地安装依赖项。 $ cd json-ld-transform $ npm install 最后,运行测试。 $ npm test 例子 var input = { "_id" : "5b51a803c3665e14977c4a20" , "name" : "Booth Garner" , "email" : "boothgarner@daycore.com" , "phone" : "+1 (817) 421-3062" , "about
2022-04-01 10:14:32 17KB knowledge-graph json-ld transform schema-mapping
1
零知识证明 该存储库包含ING的Bulletproof ,零知识范围证明(ZKRP)和零知识集成员资格(ZKSM)的实现。 当前的实现基于以下论文: 基于以下论文的范围证明: Fabrice Boudot给出内。 设置成员资格证明基于Jan Camenisch,Rafik Chaabouni和Abhi Shelat撰写的论文 。 BenediktBünz,Jonathan Bootle,Dan Boneh,Andrew Poelstra,Pieter Wuille和Greg Maxwell撰写的基于纸质的:“等等。 零知识范围证明 区块链技术中的一个基本问题是数据的机密性。 为了在所有独立节点之间达成共识,每个节点必须能够验证所有事务(例如,针对双花),在大多数情况下,这意味着事务的内容对于所有节点都是可见的。 幸运的是,存在几种在区块链上保持机密性的解决方案(私有交易,HyperL
2022-03-10 10:11:36 1.02MB bulletproofs range-proofs zero-knowledge-proofs zkp
1
知识蒸馏 知识蒸馏(a.k.a Teacher-Student Model)旨在利用一个小模型(Student)去学习一个大模型(Teacher)中的知识, 期望小模型尽量保持大模型的性能,来减小模型部署阶段的参数量,加速模型推理速度,降低计算资源使用。 目录结构 1.参考 (Hinton et al., 2015), 在cifar10数据上的复现,提供一个对Knowledge Distillation的基本认识,具体内容请查阅: 2.利用BERT-12 作为Teacher,BERT-3作为student,同时学习ground truth 和 soften labels,性能与Teacher 相当甚至更优,具体内容请查阅: 主要参考论文: 3.利用模块替换的思路,来进行Knowledge Distillation,具体内容请查阅: 论文: Blog: repo: 4.利用不同样本预测的难易
2022-02-25 14:29:26 87KB nlp keras knowledge-distillation bert
1
半导体先进封装专业知识,适合于想初步了解这方面的朋友们.
2022-02-11 10:09:46 3.67MB 半导体
1