Essential Net, Volume 1 - The Common Language Runtime.chm 英文
2021-11-16 16:54:26 3.22MB Essential Net Volume 1
1
英文版,88年的版本,学C的经典参考书,号称是“圣经”,不过现在“圣经”太多了~~
2021-11-15 19:14:03 862KB The C Programming Language
1
本书是由C语言的设计者Brian W. Kernighan和Dennis M. Ritchie编写的一部介绍标准C语言及其程序设计方法的权威性经典著作。全面、系统地讲述了C语言的各个特性及程序设计的基本方法,包括基本概念、类型和表达式、控制流、函数与程序结构、指针与数组、结构、输入与输出、UNIX系统接口、标准库等内容。 本书的讲述深入浅出,配合典型例证,通俗易懂,实用性强,适合作为大专院校计算机专业或非计算机专业的C语言教材,也可以作为从事计算机相关软硬件开发的技术人员的参考书。 在计算机发展的历史上,没有哪一种程序设计语言像C语言这样应用如此广泛。   本书原著 即为C语言的设计者之一Dennis M.Ritchie和著名的计算机科学家Brian W.Kernighan合著的 一本介绍C语言的权威经典著作。我们现在见到的大量论述C语言程序设计的教材和专著均以 此书为蓝本。原著第1版中介绍的C语言成为后来广泛使用的C语言版本—— 标准C的基础。人们熟知的“hell, World”程序就是由本书首次引入的,现在,这一程序已经成为所有程序设 计语言入门的第一课。 原著第2版根据1987年制定的ANSIC标准做了适当的修订.引入了最新的语言形式,并增加了新的示例,通过简洁的描述、典型的示例,作者全面、系统、准确地讲述了C语言的各 个特性以及程序设计的基本方法。对于计算机从业人员来说,本书是一本必读的程序设计语 言方面的参考书。
1
Eastern Asian Language Support
2021-11-15 09:35:01 35.45MB Eastern Asian Language Support
1
本文档是Event-B形式化方法的参考书,书中包含Event-B结构与语法介绍;数学证明;符合表示
2021-11-14 21:53:21 994KB 形式化 Event-B
1
CYK解析器 这是用Python 3编写的简单的无上下文语法分析器。它包含一个转换器,可将无上下文语法转换为chomsky普通形式。 但是,该转换器无法处理epsilon生产。 对于实际解析,使用Cocke-Younger-Kasamai算法。 该代码无论如何都不是完美的,也不应该做到。 随意在自己的项目中使用任何代码。 用法 作为独立程序 要运行解析器,需要安装Python 3.6 。 文件“ GrammarConverter.py”需要位于同一目录中,或者位于Python寻找要包含的模块的目录中。 该程序可以在同一目录中作为模块( python3 -m Parser )运行,也可以作为常
2021-11-13 21:40:26 6KB nlp parser natural-language-processing parsing
1
DeepSpeech剧本 使用DeepSpeech训练语音识别模型的速成班。 快速链接 从这里开始。 本部分将设定您对DeepSpeech手册可以实现的目标的期望,以及开始训练自己的语音识别模型所需的先决条件。 了解了DeepSpeech Playbook可以实现的功能后,本节将概述DeepSpeech本身,其组成部分以及它与您过去使用过的其他语音识别引擎的不同之处。 之前,你可以训练一个模型,你需要收集和格式化数据的语料库。 本节概述了DeepSpeech所需的数据格式,并逐步介绍了从Common Voice准备数据集的示例。 如果您正在训练使用与英语不同的字母(例如带有变音符号的语言)的模型,那么您将需要修改alphabet.txt文件。 了解得分手的工作,以及如何建立自己的得分手。 了解DeepSpeech的声学模型和语言模型之间的差异,以及它们如何组合以提供端到端语音识别。 本节
1
Build linear model with R
2021-11-13 00:11:23 5.11MB R language
1
自然语言预处理(NLPre) 主要版本更新! NLPre 2.0.0 后端NLP引擎pattern.en已被spaCy v 2.1.0取代。 这是针对pattern.en某些问题(包括不良lemmatization)的主要解决方案。 (例如,细胞因子->细胞牛) 对python 2的支持已被删除 在replace_from_dictionary支持自定义词典 在replace_from_dictionary使用后缀而不是前缀的选项 URL替换现在可以删除电子邮件 token_replacement可以删除符号 NLPre是一个文本(预处理)库,可帮助消除实际数据中发现的某些不一致之处。 纠
1
伯特 ***** 2020年3月11日新产品:更小的BERT模型***** 此版本发行了24个较小的BERT模型(仅限英语,无大小写,使用WordPiece掩码进行了培训),在读物精通的 。 我们已经证明,除了BERT-Base和BERT-Large之外,标准BERT配方(包括模型体系结构和训练目标)对多种模型尺寸均有效。 较小的BERT模型适用于计算资源有限的环境。 可以按照与原始BERT模型相同的方式对它们进行微调。 但是,它们在知识提炼的情况下最有效,在这种情况下,微调标签是由更大,更准确的老师制作的。 我们的目标是允许在计算资源较少的机构中进行研究,并鼓励社区寻找替代增加模型容量的创新方向。 您可以从 下载全部24个,也可以从下表单独下载: 高= 128 高= 256 高= 512 高= 768 L = 2 L = 4 L = 6 L = 8 L = 10 L = 12 请注意,此版本中包含的BERT-Base模型仅出于完整性考虑; 在与原始模型相同的条件下进行了重新训练。 这是测试集上相应的GLUE分数: 模型 得分 可乐 SST-2 MR
2021-11-08 15:02:52 106KB nlp natural-language-processing google tensorflow
1