本人亲自把网络上的PDF改成word版本,再把word版用工具转成CHM格式,同时增加复杂的报表例子以方便大家学习利用。
2022-04-03 08:56:56 3.21MB Report Machine 报表 技术
1
TensorFlow_ Large-Scale Machine Learning on Heterogeneous Distributed Systems.pdf )
2022-04-02 12:36:26 4.32MB TensorFlow
1
A Comprehensive Guide to Machine Learning
2022-04-02 01:44:45 19.95MB A Comprehens
1
新闻分类 根据新闻标题将新闻分类。 尝试了各种分类器-决策树,支持向量分类器,多项朴素贝叶斯分类器,多层感知器,随机森林。 多项式朴素贝叶斯分类器效果最好。 即使我们人类根据关键字进行分类,多项式朴素贝叶斯算法也能发挥最佳效果,这是合乎逻辑的。 我们很可能会预测“政治”,因为我们会看到诸如奥巴马,大选,共和国之类的关键词;如果我们看到诸如毒品,监狱之类的关键词,我们可能会预测“犯罪”。 朴素贝叶斯扫描整个数据集,并找到标题中每个单词与某个类别相关联的概率,然后找到整个标题的概率,因此效果很好。 安装 pip install numpy pip install scikit-learn pip
1
machine vision_Ramesh Jain Rangachar Kasturi Brian G.Schunck
2022-03-31 20:15:38 188.86MB machine vision Ramesh Jain
1
社区犯罪 使用python和scikit学习回归分析-社区和犯罪数据集(UCI)。
2022-03-31 12:52:02 1.09MB python machine-learning scikit-learn regression
1
pyHSICLasso pyHSICLasso是希尔伯特·施密特(Hilbert Schmidt)独立标准套索(HSIC Lasso)的软件包,这是一种考虑了非线性输入和输出关系的黑匣子(非线性)特征选择方法。 HSIC Lasso可以看作是广泛使用的最小冗余最大相关性(mRMR)特征选择算法的凸变体。 HSIC套索的优势 可以有效地找到与非线性相关的特征。 可以找到非冗余功能。 可以获得全局最优的解决方案。 可以通过内核处理回归和分类问题。 功能选择 监督性特征选择的目标是找到负责预测输出值的输入特征子集。 通过使用它,您可以补充非线性输入和输出的依赖性,并且可以有效地计算高维问题的最优解。 通过针对数以千计的特征进行分类和回归的特征选择实验证明了其有效性。 在许多实际应用中,例如从微阵列数据中选择基因,文档分类和假体控制,在高维监督学习中寻找功能的子集是一个重要的问题。 安装
1
神经控制微分方程用于不规则时间序列[ , ] 基于对受控微分方程的深入理解的数学理论,我们演示了如何构建以下模型: 直接作用于不规则采样的部分观测的多元时间序列。 可能会进行记忆有效的伴随反向传播训练-即使是跨观测也是如此。 展示最先进的性能。 使用现有工具(尤其是PyTorch和库)可以轻松实现和评估它们。 图书馆 参见 。 例子 我们鼓励您看一下 ,它演示了如何使用该库来训练Neural CDE模型来预测螺旋的手征性。 有关如何处理可变长度输入,不规则采样或丢失数据的演示,另请参见 ,所有这些都可以在不更改模型的情况下轻松处理。 一个自包含的简短示例: import torch import torchcde # Create some data batch , length , input_channels = 1 , 10 , 2 hidden_channels = 3 t
1
梅林简介 Merlin是用于运行基于机器学习的工作流的工具。 Merlin的目标是使其易于构建,运行和处理认知仿真所需的各种大规模HPC工作流。 本质上,Merlin是一个分布式任务排队系统,旨在允许复杂的HPC工作流扩展到大量的模拟(我们已经在Sierra超级计算机上完成了1亿个)。 您为什么要运行那么多模拟? 成为自己的大数据生成器。 这种大小的数据集可能足够大,可以训练可以模仿您的HPC应用程序的深度神经网络,用于诸如设计优化,不确定性量化和统计实验推断之类的事情。 梅林(Merlin)曾被用于研究惯性约束聚变,极紫外光的产生,结构力学和原子物理学等。 它是如何工作的? 本质上,Merlin通过持久的外部队列服务器协调复杂的工作流,该服务器位于HPC系统外部,但可以与群集上的节点通信。 随着工作在整个生态系统中旋转,这些分配上的工作人员从中央服务器提取工作,该服务器协调您工
2022-03-28 16:14:17 1.94MB workflow machine-learning big-data simulation
1
神经机器翻译 这是使用Encoder-Decoder机制以及Attention机制(( )于2016年引入的神经机器翻译的一种实现。Encoder-decoder体系结构通常使用一种编码器,该编码器对将源句子转换成固定长度的向量,解码器根据该向量生成翻译。 本文推测使用固定长度向量是提高此基本编码器-解码器体系结构性能的瓶颈,并建议通过允许模型自动(软)搜索源语句的一部分来扩展此范围。与预测目标词相关,而不必明确地将这些部分形成为一个困难的部分。 编码器: seq2seq网络的编码器是RNN,它为输入句子中的每个单词输出一些值。 对于每个输入字,编码器输出一个向量和一个隐藏状态,并将隐藏状态用于下一个输入字。 解码器: 在最简单的seq2seq解码器中,我们仅使用编码器的最后一个输出。 最后的输出有时称为上下文向量,因为它对整个序列中的上下文进行编码。 该上下文向量用作解码器的初始隐
2022-03-28 11:05:27 5.82MB encoder decoder attention mt
1