1、内容概要:本资源将初步探究 LSTM 在股票市场的应用。通过使用LSTM对股票收益的预测,可以了解到:(1)如何将原始数据集转换为可用于时间序列预测的数据。(2)如何准备数据并使LSTM适合多变量时间序列预测问题。(3)如何进行预测并将结果重新调整回原始数据。 2、本资源适用于对量化交易感兴趣的学生学习实验参考使用。 3、资源内容主要包括:股票数据(20支).rar,LSTM实现对股票数据进行预测(Keras实现)源代码lstm_model.py(源码以600000.SH股票数据为基准进行分析,以2016年3月1日至2017年12月31日为回测期,进行收益率的预测模拟),2016年3月至2017年12月的股票回测模型损失和RMSE计算数据excel。
2022-04-09 12:06:33 3.87MB lstm 人工智能 深度学习 量化交易
1、内容概要:资源主要包括:中文商品评论情感判别源代码和数据集。中文情感分析 商品(书籍、酒店、计算机、牛奶、手机、热水器)评论数据包括pos积极评论数据和neg消极评论数据。源代码svm_w2v_model.py 是基于Word2vec生成词向量,求平均获得句向量,构建SVM模型完成文本评论情感预测。 2、本资源适用于初学者学习文本分类使用,主要包括数据预处理、机器学习、文件的读取和写入等。
2022-04-09 12:06:25 1.94MB 文本分类 机器学习
本文介绍的是利用Python语言,做成绩分析并生成成绩分析动态图表。Python语言可以利用Pandas、Pyecharts等各种类库,进行数据分析。 本文介绍的成绩分析大体分为三步: 一、拼合单科成绩,合成学年成绩,计算总分,按总分成绩排名次,然后由学年成绩筛选出各个班级的成绩,将学年成绩,各班级成绩存入一个Excel文件中,工作表分别命名为学年成绩,高三(1)班……等 二、利用生成的第一步生成的Excel文件,做成绩分析,保存成绩分析表格。 三、利用成绩分析表格,做成绩分析动态图。 下面是部分源代码: 1、成绩整理与合并 import glob import os import pandas as pd from functools import reduce inputPath="./原始成绩/" writer_lk = pd.ExcelWriter('./整理后的成绩/2020一模理科总成绩及各班级成绩.xlsx') writer_wk = pd.ExcelWriter('./整理后的成绩/2020一模文科总成绩及各班级成绩.xlsx') inputWorkbook=glob.glob(os.path.join(inputPath,"*.xls")) #====================读取全部学生的所有科目成绩=================================== yw_score = pd.read_excel(inputWorkbook[2]) sxlk_score = pd.read_excel(inputWorkbook[1]) sxwk_score = pd.read_excel(inputWorkbook[0]) yy_score = pd.read_excel(inputWorkbook[5]) yy_score['英语'] = (yy_score['英语'] * 1.25).round(0)#英语成绩不计算听力成绩*1.25 lkzh_score = pd.read_excel(inputWorkbook[4]) wkzh_score = pd.read_excel(inputWorkbook[3]) #======================================================================= #====================整理出理科成绩及分班成绩、计算总分、总分排名、班级排名============================= lk_class = ['高三(1)班','高三(2)班','高三(3)班','高三(4)班'] wk_class = ['高三(5)班','高三(6)班'] lk_yw = yw_score.loc[(yw_score.班级.isin(lk_class)), ['班级','姓名','语文']] lk_sx = sxlk_score[['姓名','数学']] lk_yy = yy_score.loc[(yy_score.班级.isin(lk_class)), ['姓名','英语']] lk_k3 = lkzh_score[['姓名','物理','化学','生物','理综']] lk_list = [lk_yw, lk_sx, lk_yy, lk_k3] score_lk = (reduce(lambda left, right: pd.merge(left, right, on='姓名'), lk_list)) score_lk['总分'] = (score_lk['语文'] + score_lk['数学'] + score_lk['英语'] + score_lk['理综']).round(0) def sort_grade(score): score_sort = score.sort_values(by=['总分'], ascending=False) score_sort['年级排名'] = score_sort['总分'].rank(ascending=0,method='min') return score_sort def sort_class_lk(score_garde,name): class_sort = score_garde.loc[score_garde.班级 == name, :] class_sort = class_sort.sort_values(by=['总分'], ascending=False) class_sort['班级排名'] = class_sort['总分'].rank(ascending=0,method='min') class_sort.to_excel(writer_lk, index=None, sheet_name=name) lk_grade_sort = sort_grade(score_lk) lk_grade_sort.to_excel(writer_lk, index=None, sheet_name='学年成绩') for lk in lk_class: class_sort = sort_class_lk(score_lk, lk) writer_lk.save() writer_lk.close() # #============整理出文科成绩及分班成绩、计算总分、总分排名、班级排名================== wk_yw = yw_score.loc[(yw_score.班级.isin(wk_class)), ['班级','姓名','语文']] wk_sx = sxwk_score[['姓名','数学']] wk_yy = yy_score.loc[(yy_score.班级.isin(wk_class)), ['姓名','英语']] wk_k3 = wkzh_score[['姓名','政治','历史','地理','文综']] wk_list = [wk_yw, wk_sx, wk_yy, wk_k3] score_wk = (reduce(lambda left, right: pd.merge(left, right, on='姓名'), wk_list)) score_wk['总分'] = (score_wk['语文'] + score_wk['数学'] + score_wk['英语'] + score_wk['文综']).round(0) def sort_class_wk(score_garde,name): class_sort = score_garde.loc[score_garde.班级 == name, :] class_sort = class_sort.sort_values(by=['总分'], ascending=False) class_sort['班级排名'] = class_sort['总分'].rank(ascending=0,method='min') class_sort.to_excel(writer_wk, index=None, sheet_name=name) wk_grade_sort = sort_grade(score_wk) wk_grade_sort.to_excel(writer_wk, index=None, sheet_name='学年成绩') for wk in wk_class: class_sort = sort_class_wk(wk_grade_sort, wk) writer_wk.save() writer_wk.close() 2、成绩区间分割与统计 #coding:utf-8 import numpy as np import pandas as pd from functools import reduce fpath_lk="./整理后的成绩/2020一模理科总成绩及各班级成绩.xlsx" fpath_wk="./整理后的成绩/2020一模文科总成绩及各班级成绩.xlsx" writer_lk = pd.ExcelWriter('./整理后的成绩/2020一模理科成绩区间分布统计.xlsx') writer_wk = pd.ExcelWriter('./整理后的成绩/2020一模文科成绩区间分布统计.xlsx') lk = pd.read_excel(fpath_lk, None) #获取表格中的所有工作表的内容 wk = pd.read_excel(fpath_wk, None) #===================1.定义区间分割函数===================================== def cut_750(score_750,len): bins_750= [0,370,380,390,400,410,420,430,440,450,460,470,480,490,500,510,520,530,540,550,560,570,580,590,600,620,640,660,750] labels_750 = ['0-370','370-379','380-389','390-399','400-409','410-419','420-429','430-439','440-449','450-459','460-469','470-479','480-489','490-499','500-509','510-519','520-529','530-539','540-549','550-559','560-569','570-579','580-589','590-599','600-619','620-639','640-659','660-750'] cut_750 = pd.cut(score_750, bins_750, labels=labels_750, right=False) qj = pd.DataFrame({'区间':pd.value_counts(cut_750).index,'人数':pd.value_counts(cut_750),'百分比':((pd.value_counts(cut_750))/len).round(3).apply(lambda x: format(x, '.2%'))}).sort_values(by='区间', ascending=False) qj = qj.reset_index(drop=True) return qj def cut_150(score_150,len): bins_150 = [0,30,60,90,120,150] labels_150 = ['0-30', '30-60', '60-90', '90-120', '120-150'] cut_150 = pd.cut(score_150, bins_150, labels=labels_150, right=False) qj = pd.DataFrame({'区间':pd.value_counts(cut_150).index,'人数':pd.value_counts(cut_150),'百分比':((pd.value_counts(cut_150))/len).round(3).apply(lambda x: format(x, '.2%'))}).sort_values(by='区间') 其他源代码及始数据已上传,欢迎各位借鉴,第一次编程,希望网友们能指点不足之处,联系qq:912182988
2022-03-02 14:39:11 296KB 源代码及数据
1
matlab声音信号相位代码一种识别火焰模型的多保真高斯过程方法 1. 亮点 提出了一种新的基于机器学习的策略,以有效降低火焰模型识别中的不确定性,从而确保可靠的燃烧器设计和分析。 该策略依赖于多保真高斯过程模型,该模型有效地聚合了低/高保真识别结果并平衡了计算工作量和准确性之间的权衡。 我们在从测试台获取的数据上成功测试了多保真策略。 我们的结果表明,给定相同的计算预算,所提出的策略在全局范围内产生更准确、更稳健的火焰模型识别。 这项工作最初在会议上发表,后来被期刊接受: Guo S.、Silva CF、Polifke W.,通过多保真高斯过程方法对火焰频率响应进行鲁棒识别。 声音与振动杂志,2021 年。 2. 动机 火焰模型构成了燃烧不稳定预测中不确定性的主要来源。 这种不确定性通常源于噪声时间序列数据的模型识别不完善。 最先进的识别方法要么准确但速度非常慢,要么速度快但包含很大的不确定性。 3. 方法论 我们旨在通过提出一种多保真机器学习方法来识别火焰模型,从而充分利用各自的优势,同时避免最先进方法的弱点。 这种方法吸收了低保真结果提供的全局趋势和高保真结果提供的局部估计,从而
2022-01-25 09:21:07 17.05MB 系统开源
1
lumify, 开放源代码大数据集成分析和可视化 Lumify Lumify是一个开源大数据分析和可视化平台。 有关更多详细信息和视频,请参见 http://lumify.io 。正在启动要快速开始,你可以以尝试一个托管的安装 Lumify,或者者构建一个安装了Lumify的虚
2022-01-10 21:04:32 51.76MB 开源
1
dpc matlab源代码
2021-12-27 20:28:40 32.52MB 系统开源
1
C#蓝梦音乐网源代码(源码+数据库)
2021-12-18 18:03:32 2.72MB C#蓝梦音乐网源代码(源码+数据
1
AnimeGAN_tensorflow 源代码和数据集合
2021-12-16 19:04:35 892.67MB AnimeGAN_tensorf
1
人工神经网络 纸质数据和代码 这是AAAI 2019论文: 的代码。 我们已经在Tensorflow和Pytorch中实现了我们的方法。 这是我们在论文中使用的两个数据集。 下载数据集后,您可以将它们放在文件夹datasets/ : 友情链接: ://2015.recsyschallenge.com/challenge.html DIGINETICA: ://cikm2016.cs.iupui.edu/cikm-cup或 文件夹datasets/包含一个小的数据集sample ,可用于测试代码的正确性。 我们还写了解释该论文。 用法 您需要先运行文件datasets/preprocess.py来预处理数据。 例如: cd datasets; python preprocess.py --dataset=sample cd datasets; python preproces
1
Python for Data Analysis, 2nd Edition英文完整版 及 中文翻译笔记(包含源代码示例数据) 仅供自己学习使用!
2021-11-24 18:46:27 91.63MB Python Data Analysis 2nd
1