ChineseBERT-large.zip.002
2022-01-12 09:12:58 635.57MB bert
1
文字识别 字库 HCL2000—A Large-scale Handwritten Chinese Character Database for Handwritten Character Recognition
2022-01-05 17:59:35 684KB 文字识别 字库 HCL2000 人工智能
1
【CVPR2018】4DFAB A Large Scale 4D Database for Facial Expression Analysis and Biometric4DFAB:用于面部表情分析和生物识别应用的大型4D数据库
2021-12-24 22:49:54 1.43MB 数据库 人工智能 计算机视觉 生物 应用
1
这个计算器是计算C(n,r)值的。 它能够快速计算出很大很大的n和很大的r的值。 比如 C(1000000,100)的值多少? 下面看看结果: The Value R =: 100 The Value N =: 100,000,0 The Value C(n,r) = 106,621,924,285,106,201,287,451,825,038,562,207,162,667,291,115,250,807,231,138,436,050,033,662,565, 128,461,577,069,893,007,400,408,832,321,251,568,497,238,439,932,140,446,325,755,370,965,466,641,195, 767,816,552,902,208,943,845,877,075,718,358,356,661,181,350,791,716,785,335,491,343,911,367,725,552, 965,843,373,005,217,464,604,268,074,615,501,493,580,306,301,333,740,424,239,274,035,545,865,236,910, 680,072,670,693,715,212,099,023,702,191,415,528,254,475,104,994,069,540,849,260,162,799,814,361,834, 050,912,071,796,659,748,280,824,079,114,567,738,202,249,960,747,145,186,667,035,942,012,16 The number of digits is 443 十分漂亮的计算,它有443位十进制。
2021-12-12 11:58:39 803KB large combinations calculator 大数排列组合
1
Efron 教授 2010 年的一本新书Large-Scale Inference 通过此书可以感受到古典几何学与现代统计学的结合之美 获取此书不易 希望大家抓紧时间下载!
1
Large Scale Networks Modeling and Simulation 英文无水印pdf pdf所有页面使用FoxitReader和PDF-XChangeViewer测试都可以打开 本资源转载自网络,如有侵权,请联系上传者或csdn删除 本资源转载自网络,如有侵权,请联系上传者或csdn删除
2021-12-08 21:15:05 11.88MB Large Scale Networks Modeling
1
Dota 2 with Large Scale Deep Reinforcement Learning.pdf
2021-11-27 21:10:40 8.4MB 人工智能
1
Large Movie Review Dataset
2021-11-27 16:42:56 80.25MB 数据集
1
VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION非常经典的VGG-NET框架就是出自这篇文章
2021-11-25 22:36:44 195KB VGG-NET
1
新加坡国立大学最新「大规模深度学习优化」综述论文,带你全面了解最新深度学习准确率和效率的优化方法 【导读】深度学习优化是构建深度学习模型中的一个关键问题。来自NUS的研究人员发布了《大规模深度学习优化》综述论文,DL优化目标是双重的: 模型准确性和模型效率。至于模型的准确性,研究了最常用的优化算法,从梯度下降变量到(大批量)自适应方法,从一阶方法到二阶方法。此外,还阐述了在大批量训练中出现的泛化差距这一有争议的问题。 深度学习在人工智能的广泛应用中取得了可喜的成果。更大的数据集和模型总是产生更好的性能。然而,我们通常花更长的训练时间在更多的计算和通信上。在这项综述中,我们的目标是提供一个清晰的草图,关于优化大规模深度学习的模型准确性和模型效率。我们研究最常用于优化的算法,阐述大批量训练中出现的泛化缺口这一有争议的话题,并回顾SOTA解决通信开销和减少内存占用的策略。
2021-11-24 13:07:11 988KB
1