项目算表 项目算表 项目算表 项目算表 项目算表 项目算表 项目算表
2021-10-13 10:40:03 30KB 项目预算表
1
Matlab ofdm仿真代码HybridPrecodingOpt:毫米波(mmWave)MIMO系统中混合编码的优化算法 作者: 最后页面更新时间:2018年11月29日 最新版本:1.1.1(有关更多信息,请参见发行说明) 介绍 混合(-)是减少大规模毫米波(mmWave)系统中的高硬件成本和高功耗的最有前途的方法。 混合编码将通过相移器进行的高维模拟编码(或波束成形)与低维数字基带编码结合在一起。 频谱效率的最大化问题大致归结为全数字编码器和混合编码器之间的欧几里德距离的最小化问题。 该问题被进一步表述为全数字编码器与数字基带编码器矩阵和模拟射频(RF)编码器(或波束成形)矩阵乘积的问题。 值得注意的一点是,移相器在模拟RF编码器矩阵上施加了额外的逐元素单位模量约束。 该软件包提供了用于混合编码的建议优化算法的代码。 该代码也包含现有的最新算法。 此程序包的大多数代码来自。 文档 该文件可以在下面找到; H. Kasai,“用于毫米波MIMO系统中混合编码的复杂斜流形上的快速优化算法”,GlobalSIP2018。 演算法 建议的 H. Kasai,“复杂
2021-10-13 10:31:12 400KB 系统开源
1
使用yolo v3 训练模型,通常用在自己专业训练集训练,采用darknet53作为boneback进行训练。
2021-10-12 22:08:44 155.34MB 预训练 权重 yolov3
1
中文XLNet训练模型,该版本是XLNet-base,12-layer, 768-hidden, 12-heads, 117M parameters。
1
使用训练好的InceptionV3模型对自己的数据进行分类
2021-10-12 10:13:13 131KB Python开发-机器学习
1
MNIST / CIFAR10的训练GAN,VAE +分类器 在pytorch中使用GAN / VAE建模的简单起点。 包括模型类定义+培训脚本 包括笔记本电脑,其中显示了如何加载训练的网络/如何使用它们 用pytorch 1.0+测试 生成与数据集图像大小相同的图像 mnist 使用基于的体系结构生成MNIST数据集(28x28)大小的图像。 训练了100个纪元。 重量。 数据样本 dcgan样本 样品 为了与不那么复杂的体系结构进行比较,我还在文件夹中包含了一个训练的非卷积GAN,它基于代码(训练了300个纪元)。 我还基于在文件夹中包含了经过训练的LeNet分类器,该分类器可实现99%的测试准确性。 cifar10 cifar10 gan来自pytorch示例回购,并实现了DCGAN论文。 它只需要很小的改动就可以生成大小为cifar10数据集(32x32x3)的
2021-10-10 13:40:14 88.1MB python machine-learning statistics ai
1
【导读】训练模型是当下研究的热点,来自西电的研究人员发布《知识增强的训练模型》,非常值得关注! 训练模型通过自监督学习方法在大规模文本语料库上学习上下文化的词表示,该方法经过微调后取得了良好的性能。然而,这些模型的健壮性差,且缺乏可解释性。带有知识注入的训练模型(knowledge enhanced pre- training model, KEPTMs)具有深刻的理解和逻辑推理能力,并在一定程度上引入了可解释性。在这个综述中,我们提供了自然语言处理的KEPTMs的全面概述。首先介绍了训练模型和知识表示学习的研究进展。然后我们从三个不同的角度对现有KEPTMs进行了系统的分类。最后,对KEPTMs的未来研究方向进行了展望。
2021-10-08 23:19:34 1.91MB 预训练
1
置三方apk的so文件和so文件的执行权限
2021-10-08 17:15:48 3KB so
1
matlab模拟优化代码topopt-mgcg-matlab 用于高效3-D拓扑优化的MATLAB代码使用多网格CG,近似灵敏度分析,回收编码器 该存储库包含以下论文中使用的matlab代码: Omir,N.Aage和BS Lazarov(2014)。 在multigrid-CG上进行有效的拓扑优化。 结构和多学科优化,49(5),815-829。 Amir,O.(2015年)。 回顾拓扑优化中的近似重新分析:以最小的重量过程进行循环处理的优势。 结构和多学科优化,51(1),41-57。 这些代码现已免费提供,请在您的研究工作中参考相关出版物。 三种类型的代码: top3d * .m =使用MGCG求解器的3-D最小符合性topopt: a)基本 b)具有灵敏度监控 minV * .m =二维最小体积topopt: a)基本 b)重新分析 c)无基质再分析 minW3d * .m =使用MGCG求解器的3-D最小体积topopt: a)基本 b)无基质,带回收处理器 c)无矩阵,带有循环处理器和灵敏度监控 强烈建议扩展和改进!!!
2021-10-08 16:13:50 33KB 系统开源
1
中文生成式训练模型 NLU的训练模型大家应该见过不少了,NLG的训练资源还比较少。这里汇总一些中文的生成式训练模型,给出bert4keras下的加载方式。 模型列表 GPT 以GPT为代表的单向语言模型训练。 GPT Base(NEZHE-GEN) 链接: 大小:1亿参数,体积390M 说明:结构跟BERT Base一致,通用语料训练,官方github提供了下载链接,不过保存了多余的meta导致体积过大,笔者对原始权重进行了转换,可以从笔者提供的链接(,验证码xynn)下载,结果跟原版一样,体积更小。 使用: CDial-GPT 链接: (原版链接: ) 大小:1亿参数,体积350M 说明:模型为GPT模型,使用闲聊型对话语料训练。原版为pytorch模型,笔者对原始权重进行了转换。 使用: GPT2-ML 链接: 大小:15亿参数,体积5.3G 说明:基于BERT代码修改,跟最
2021-10-08 14:48:23 1KB
1