CS7646-机器学习交易 Tucker Balch博士于2017年秋季在乔治亚理工学院将CS 7646作为CS 7646的一部分进行分配 课程连结 课程页面: : 塔克·巴尔奇(Tucker Balch)的Udacity课程: : 课程结构 本课程由三门迷你课程组成: 迷你课程1:使用Python操纵财务数据 迷你课程2:计算投资 迷你课程3:机器学习交易算法 专案 共完成8个项目: 项目1: 职称:评估投资组合 目标:通过根据可用的历史数据计算某些指标来评估和比较不同的投资组合,并绘制比较图 链接: : 专案2: 标题:优化投资组合 目标:通过将“最小波动率”作为优化器指标,来确定应将投资组合的资金分配给每只股票,从而优化其绩效 链接: : 专案3: 标题:市场模拟器 目标:创建一个可以接受交易订单并随时间推移跟踪投资组合价值的市场模拟器,然后评估该投资组合的
2021-11-06 16:24:01 1.98MB Python
1
voxelmorph:基于学习的图像注册 voxelmorph是一个通用库,用于基于学习的工具进行对齐/配准,更常见的是使用变形建模。 讲解 访问以了解VoxelMorph和基于学习的注册 使用说明 要使用VoxelMorph库,请克隆此存储库并安装setup.py列出的要求,或者直接使用pip安装。 pip install voxelmorph 训练 如果您想训练自己的模型,则可能需要针对自己的数据集和数据格式在voxelmorph/generators.py自定义一些数据加载代码。 但是,假设您有一个包含npz(numpy)格式的训练数据文件的目录,则可以开箱即用地运行许多示例脚本。 假
1
布局 标题 上一次更改 维基 Jupyter笔记本 2020/11/15 12:41:21 深度学习 Scikit,学习上的IRIS数据集的感知器,神经网络,Keras。 TensorFlow Implementaion在MNIST数据集。 Softmax,交叉熵损失 使用PyTorch进行梯度计算。 层调试。 验证合并,连接方法。 在文本嵌入上验证Conv1D。 验证Image数据集上的Conv2D。 验证LSTM计算。 器具Seq2Seq学习的执行加法。 器具Seq2Seq有注意力用于添加任务。 注意机制 注意 自然语言处理 论文“神经概率语言模型(Bengio等,2003)”的实现 UCI新闻数据集上具有CNN的多类别分类。 基本字符级Seq2Seq模型 带有ELMo嵌入的情感分析。 AllenNLP教程 使用CNN / TensorBoard进行文本分类 BERT文章的示例代码。 常规机器学习 IRIS数据集的决策树可视化。 从头开始决策树从头开始 决策树,随机森林,UCI新闻数据集上的朴素贝叶斯。 在UCI新闻数据集上训练朴素贝叶斯分
2021-11-05 21:00:34 19.07MB nlp data-science machine-learning statistics
1
DeepDB:从数据中学习,而不是从查询中学习! DeepDB是数据驱动的学习型数据库组件,可实现基数估计和近似查询处理(AQP)的最新性能。 这是在中描述的实现 Benjamin Hilprecht,Andreas Schmidt,Moritz Kulessa,Alejandro Molina,Kristian Kersting,Carsten Binnig:“ DeepDB:从数据中学习,而不是从Queries中学习!”,VLDB'2020。 设置 经过python3.7和python3.8测试 git clone https://github.com/DataManagementLab/deepdb-public.git cd deepdb-public sudo apt install -y libpq-dev gcc python3-dev python3 -m venv ve
1
KelpNet:纯C#机器学习框架 /* SampleCode */ FunctionStack nn = new FunctionStack ( new Convolution2D ( 1 , 32 , 5 , pad : 2 , name : " l1 Conv2D " ), new ReLU ( name : " l1 ReLU " ), new MaxPooling ( 2 , 2 , name : " l1 MaxPooling " ), new Convol
1
跨域故障检测 包含实验代码和我的学士学位示例的存储库:通过最佳传输进行跨域故障检测。 更多细节即将推出! 动态系统 实施基准 两缸系统 连续搅拌React釜(CSTR)[1] 型号识别 一阶加延时 二阶加延时 PID调整 直接合成[2] 实施算法 基于实例的传输 内核均值匹配(KMM)[3] Kullback-Leibler重要度估计数(KLIEP)[4] 最小二乘重要性拟合(LSIF)[5] 基于特征的转移 传输成分分析(TCA)[6] 测地线内核(GFK)[7] 主成分分析(PCA)[7] 领域对抗神经网络(DANN)[8] 基于最佳运输的转移 Sinkhorn Transport [9]-已在库中实现 Monge Transport [10]-已在库中实现 联合分配最优运输(JDOT)[11]-改编自 结果 比较研究 React顺序 1.0 0.
1
machine learning_clusters_k-prototypes_聚类算法源码_python实现
2021-11-04 15:01:45 8KB 聚类 python 非数值
Pattern Recognition and Machine Learning 课后习题完整答案! 与其他的不完全答案是有区别的哈! 大家可以仔细的看下,这个是1.5M! 0. + p(arp(r)+plabip(b)+plalgiplg 0.2+-×0.2+×0.6=0.34 p(glo lgpl) po 0)= polyp(r)+plolb)p(b)+p(olg)plg) 0.2+×0.2+×0.6=0.36 30.61 p(90)=10×0 f"(t)=0 y f(⑨)=f(9(0)g'(0)=0 g(y)≠0 f(g()=0 p2(x) x=9(y) P2(9 g(y)=89()8∈{-1,+1} P2/(y)=p2(9(y)9g(y) p()=8p(0(){9()}2+p(9(y)g() g(y P:r(a Py(y) 6 N=50.000 g(y)=ln(y)-1(1-y)+5 +exp(a+5 (y 1(x) par p2(9(y) 50,000 E(()-EIf()=Elf()-2f()Ef(+Elf(el Ef(a)-2EIf (E[f(c)+Elf(a) o{x,y-Exy-Ex」Elyl p(a,)=p(a)p(y y =∑∑m(,yzy ∑()∑0y ElEY cov, y=0 y rcos e y r sin 0:c0x os6-rsin e sing r cos e 2丌 Bo2 rdr de 0 l 0 丌exp 2 )(-2)1 0 w(alp y=/=(2 (2丌σ 2 =/(am) 1) d
2021-11-04 14:42:33 1.42MB 模式识别与机 pattern reco recognize
1
使用机器学习预测足球比赛结果:在Jupyter Notebook中使用机器学习算法进行足球比赛预测
1
The authoritative textbook for reinforcement learning by Richard Sutton and Andrew Barto. Contents Preface Series Forward Summary of Notation I. The Problem 1. Introduction 1.1 Reinforcement Learning 1.2 Examples 1.3 Elements of Reinforcement Learning 1.4 An Extended Example: Tic-Tac-Toe 1.5 Summary 1.6 History of Reinforcement Learning 1.7 Bibliographical Remarks 2. Evaluative Feedback 2.1 An -Armed Bandit Problem 2.2 Action-Value Methods 2.3 Softmax Action Selection 2.4 Evaluation Versus Instruction 2.5 Incremental Implementation 2.6 Tracking a Nonstationary Problem 2.7 Optimistic Initial Values 2.8 Reinforcement Comparison 2.9 Pursuit Methods 2.10 Associative Search 2.11 Conclusions 2.12 Bibliographical and Historical Remarks 3. The Reinforcement Learning Problem 3.1 The Agent-Environment Interface 3.2 Goals and Rewards 3.3 Returns 3.4 Unified Notation for Episodic and Continuing Tasks 3.5 The Markov Property 3.6 Markov Decision Processes 3.7 Value Functions 3.8 Optimal Value Functions 3.9 Optimality and Approximation 3.10 Summary 3.11 Bibliographical and Historical Remarks II. Elementary Solution Methods 4. Dynamic Programming 4.1 Policy Evaluation 4.2 Policy Improvement 4.3 Policy Iteration 4.4 Value Iteration 4.5 Asynchronous Dynamic Programming 4.6 Generalized Policy Iteration 4.7 Efficiency of Dynamic Programming 4.8 Summary 4.9 Bibliographical and Historical Remarks 5. Monte Carlo Methods 5.1 Monte Carlo Policy Evaluation 5.2 Monte Carlo Estimation of Action Values 5.3 Monte Carlo Control 5.4 On-Policy Monte Carlo Control 5.5 Evaluating One Policy While Following Another 5.6 Off-Policy Monte Carlo Control 5.7 Incremental Implementation 5.8 Summary 5.9 Bibliographical and Historical Remarks 6. Temporal-Difference Learning 6.1 TD Prediction 6.2 Advantages of TD Prediction Methods 6.3 Optimality of TD(0) 6.4 Sarsa: On-Policy TD Control 6.5 Q-Learning: Off-Policy TD Control 6.6 Actor-Critic Methods 6.7 R-Learning for Undiscounted Continuing Tasks 6.8 Gam
2021-11-04 14:29:24 6.45MB machine learning
1