布局 标题 上一次更改 维基 Jupyter笔记本 2020/11/15 12:41:21 深度学习 Scikit,学习上的IRIS数据集的感知器,神经网络,Keras。 TensorFlow Implementaion在MNIST数据集。 Softmax,交叉熵损失 使用PyTorch进行梯度计算。 层调试。 验证合并,连接方法。 在文本嵌入上验证Conv1D。 验证Image数据集上的Conv2D。 验证LSTM计算。 器具Seq2Seq学习的执行加法。 器具Seq2Seq有注意力用于添加任务。 注意机制 注意 自然语言处理 论文“神经概率语言模型(Bengio等,2003)”的实现 UCI新闻数据集上具有CNN的多类别分类。 基本字符级Seq2Seq模型 带有ELMo嵌入的情感分析。 AllenNLP教程 使用CNN / TensorBoard进行文本分类 BERT文章的示例代码。 常规机器学习 IRIS数据集的决策树可视化。 从头开始决策树从头开始 决策树,随机森林,UCI新闻数据集上的朴素贝叶斯。 在UCI新闻数据集上训练朴素贝叶斯分
2021-11-05 21:00:34 19.07MB nlp data-science machine-learning statistics
1
DeepDB:从数据中学习,而不是从查询中学习! DeepDB是数据驱动的学习型数据库组件,可实现基数估计和近似查询处理(AQP)的最新性能。 这是在中描述的实现 Benjamin Hilprecht,Andreas Schmidt,Moritz Kulessa,Alejandro Molina,Kristian Kersting,Carsten Binnig:“ DeepDB:从数据中学习,而不是从Queries中学习!”,VLDB'2020。 设置 经过python3.7和python3.8测试 git clone https://github.com/DataManagementLab/deepdb-public.git cd deepdb-public sudo apt install -y libpq-dev gcc python3-dev python3 -m venv ve
1
KelpNet:纯C#机器学习框架 /* SampleCode */ FunctionStack nn = new FunctionStack ( new Convolution2D ( 1 , 32 , 5 , pad : 2 , name : " l1 Conv2D " ), new ReLU ( name : " l1 ReLU " ), new MaxPooling ( 2 , 2 , name : " l1 MaxPooling " ), new Convol
1
跨域故障检测 包含实验代码和我的学士学位示例的存储库:通过最佳传输进行跨域故障检测。 更多细节即将推出! 动态系统 实施基准 两缸系统 连续搅拌React釜(CSTR)[1] 型号识别 一阶加延时 二阶加延时 PID调整 直接合成[2] 实施算法 基于实例的传输 内核均值匹配(KMM)[3] Kullback-Leibler重要度估计数(KLIEP)[4] 最小二乘重要性拟合(LSIF)[5] 基于特征的转移 传输成分分析(TCA)[6] 测地线内核(GFK)[7] 主成分分析(PCA)[7] 领域对抗神经网络(DANN)[8] 基于最佳运输的转移 Sinkhorn Transport [9]-已在库中实现 Monge Transport [10]-已在库中实现 联合分配最优运输(JDOT)[11]-改编自 结果 比较研究 React顺序 1.0 0.
1
machine learning_clusters_k-prototypes_聚类算法源码_python实现
2021-11-04 15:01:45 8KB 聚类 python 非数值
Pattern Recognition and Machine Learning 课后习题完整答案! 与其他的不完全答案是有区别的哈! 大家可以仔细的看下,这个是1.5M! 0. + p(arp(r)+plabip(b)+plalgiplg 0.2+-×0.2+×0.6=0.34 p(glo lgpl) po 0)= polyp(r)+plolb)p(b)+p(olg)plg) 0.2+×0.2+×0.6=0.36 30.61 p(90)=10×0 f"(t)=0 y f(⑨)=f(9(0)g'(0)=0 g(y)≠0 f(g()=0 p2(x) x=9(y) P2(9 g(y)=89()8∈{-1,+1} P2/(y)=p2(9(y)9g(y) p()=8p(0(){9()}2+p(9(y)g() g(y P:r(a Py(y) 6 N=50.000 g(y)=ln(y)-1(1-y)+5 +exp(a+5 (y 1(x) par p2(9(y) 50,000 E(()-EIf()=Elf()-2f()Ef(+Elf(el Ef(a)-2EIf (E[f(c)+Elf(a) o{x,y-Exy-Ex」Elyl p(a,)=p(a)p(y y =∑∑m(,yzy ∑()∑0y ElEY cov, y=0 y rcos e y r sin 0:c0x os6-rsin e sing r cos e 2丌 Bo2 rdr de 0 l 0 丌exp 2 )(-2)1 0 w(alp y=/=(2 (2丌σ 2 =/(am) 1) d
2021-11-04 14:42:33 1.42MB 模式识别与机 pattern reco recognize
1
使用机器学习预测足球比赛结果:在Jupyter Notebook中使用机器学习算法进行足球比赛预测
1
The authoritative textbook for reinforcement learning by Richard Sutton and Andrew Barto. Contents Preface Series Forward Summary of Notation I. The Problem 1. Introduction 1.1 Reinforcement Learning 1.2 Examples 1.3 Elements of Reinforcement Learning 1.4 An Extended Example: Tic-Tac-Toe 1.5 Summary 1.6 History of Reinforcement Learning 1.7 Bibliographical Remarks 2. Evaluative Feedback 2.1 An -Armed Bandit Problem 2.2 Action-Value Methods 2.3 Softmax Action Selection 2.4 Evaluation Versus Instruction 2.5 Incremental Implementation 2.6 Tracking a Nonstationary Problem 2.7 Optimistic Initial Values 2.8 Reinforcement Comparison 2.9 Pursuit Methods 2.10 Associative Search 2.11 Conclusions 2.12 Bibliographical and Historical Remarks 3. The Reinforcement Learning Problem 3.1 The Agent-Environment Interface 3.2 Goals and Rewards 3.3 Returns 3.4 Unified Notation for Episodic and Continuing Tasks 3.5 The Markov Property 3.6 Markov Decision Processes 3.7 Value Functions 3.8 Optimal Value Functions 3.9 Optimality and Approximation 3.10 Summary 3.11 Bibliographical and Historical Remarks II. Elementary Solution Methods 4. Dynamic Programming 4.1 Policy Evaluation 4.2 Policy Improvement 4.3 Policy Iteration 4.4 Value Iteration 4.5 Asynchronous Dynamic Programming 4.6 Generalized Policy Iteration 4.7 Efficiency of Dynamic Programming 4.8 Summary 4.9 Bibliographical and Historical Remarks 5. Monte Carlo Methods 5.1 Monte Carlo Policy Evaluation 5.2 Monte Carlo Estimation of Action Values 5.3 Monte Carlo Control 5.4 On-Policy Monte Carlo Control 5.5 Evaluating One Policy While Following Another 5.6 Off-Policy Monte Carlo Control 5.7 Incremental Implementation 5.8 Summary 5.9 Bibliographical and Historical Remarks 6. Temporal-Difference Learning 6.1 TD Prediction 6.2 Advantages of TD Prediction Methods 6.3 Optimality of TD(0) 6.4 Sarsa: On-Policy TD Control 6.5 Q-Learning: Off-Policy TD Control 6.6 Actor-Critic Methods 6.7 R-Learning for Undiscounted Continuing Tasks 6.8 Gam
2021-11-04 14:29:24 6.45MB machine learning
1
Matlab集成的c代码高斯过程回归和分类工具箱 版本4.2。 对于GNU Octave 3.2.x和Matlab 7.x 版权所有(C)2015-2018-Carl Edward Rasmussen 版权所有(C)2015-2018-Hannes Nickisch 如何阅读 如果您想立即开始使用,请阅读下面的第1)节,并直接跳至doc / index.html中的示例。 关于这些计划 matlab程序的此集合实现并演示了在其中描述的一些算法 a)Rasmussen和Williams的书:“高斯机器学习过程”,麻省理工学院出版社,2006年 b)Nickisch和Rasmussen的文章:“二元高斯过程分类的近似”,JMLR 2008 c)Candela和Rasmussen的文章:“稀疏近似高斯过程回归的统一观点”,JMLR,2005年 d)Murray,Adams和Mackay撰写的论文:“椭圆切片采样”,AISTATS 2010 e)Neal的报告:“重要重要性抽样”,多伦多,1998年 f)Naish-Guzman和Holden的论文:“广义FITC近似”,NIPS,2007年
2021-11-04 10:48:47 8.37MB 系统开源
1
入院时预测住院时间 媒体故事: : 项目概况 预测分析是医疗保健领域越来越重要的工具,因为现代机器学习 (ML) 方法可以使用大量可用数据来预测患者的个人结果。 例如,机器学习预测可以帮助医疗保健提供者确定疾病的可能性、帮助诊断、推荐治疗和预测未来的健康状况。 对于这个项目,我选择关注医疗保健的后勤指标,即住院时间 (LOS)。 LOS 定义为入院和出院之间的时间,以天为单位。 该项目的目标是创建一个模型来预测每位患者入院时的住院时间。 该项目利用了数据库:“MIMIC 是由麻省理工学院计算生理学实验室开发的一个公开可用的数据集,包括与约 40,000 名重症监护患者相关的去识别化健康数据。它包括人口统计、生命体征、实验室测试、药物治疗, 和更多。” 结果总结 我使用默认设置拟合了五种不同的回归模型(来自 scikit-learn 库)并比较了 r 平方 (R2) 分数。 Gradi
2021-11-03 16:52:51 737KB HTML
1