tensorflow.models安装资源,下载直接放入TensorFlow安装文件中即可
2021-03-03 22:52:54 64B 网盘下载
1
在线草书维吾尔族手写单词分割为基本可识别单元的动态规划方法
1
github下载速度不稳定。本人2020年3月18日"https://github.com/tensorflow/models"下载,自取。
2021-03-03 16:34:15 125.32MB tensorflow inceptionV3 slim models
1
Building Predictive Models in R Using the caret Package
2021-03-02 09:01:25 506KB r语言
1
cesium源代码中的3D模型文件,包含3D飞机、3D人物、3D木塔、3D汽车、3D象棋、3D热气球、3D军车等
2021-02-26 11:06:08 10.79MB cesium
1
2005.14165.pdf Language Models are Few-shot Learners
2021-02-23 15:08:41 6.45MB nlp
1
Discovering process models from event multiset
2021-02-21 09:07:47 1.27MB 研究论文
1
Efficient design of Multi-Processor System-On-Chip (MPSoC) requires early, fast and accurate performance estimation techniques. In this paper, we present new techniques based on fine-grained code analysis to estimate accurate performance during simulation of MPSoC Transaction Accurate Models. First, a GCC profiling tool is applied in the native simulation process. Based on the profiling result, an instruction analyzer of the target CPU architecture is proposed to analyze the cycle cost of C code
1
BERT在Azure机器学习服务上 此回购包含终端到终端的食谱和的 (双向编码器交涉来自变形金刚)用语言表达模型。 伯特 BERT是一种语言表示模型,其特征在于可以有效捕获语料库中深层和微妙的文本关系。 在原始论文中,作者证明了BERT模型可以很容易地改编以构建用于许多NLP任务的最新模型,包括文本分类,命名实体识别和问题解答。 在此仓库中,我们提供了笔记本,使开发人员可以从语料库中重新训练BERT模型,并微调现有的BERT模型以解决专门的任务。 此回购中提供了的简要可快速开始使用BERT。 预训练 BERT预训练中的挑战 将BERT语言表示模型预训练到所需的准确性水平是非常具有挑战性的。 结果,大多数开发人员从在标准语料库(例如Wikipedia)上经过预训练的BERT模型开始,而不是从头开始训练它。 如果在与训练前步骤中使用的语料库相似的语料库上训练最终模型,则此策略效果很好。 但是,
2021-02-20 20:08:56 232KB Python
1