Neural Network and Deep Learning 中文翻译版本
2021-09-26 09:36:41 3.92MB Neural Network Deep Learning
1
神经机器翻译模型,用于将阿塞拜疆语翻译成英语。 在这个项目中,我发现了如何开发一种神经机器翻译系统来将阿塞拜疆语翻译成英语。 我使用阿塞拜疆语到英语术语的数据集作为语言学习卡片的基础。 该数据集可从ManyThings.org网站获得,其示例摘自Tatoeba项目。 清除文本数据后,就可以进行建模和定义了。 我已经在这个问题上使用了编解码器LSTM模型。 在这种架构中,输入序列由称为编码器的前端模型编码,然后由称为解码器的后端模型逐字解码。 使用有效的Adam方法对模型进行训练,以实现随机梯度下降,并最大程度地减少了分类损失函数,因为我们将预测问题构造为多类分类。 还创建了模型图,为模型配置提供了另一个视角。 接下来,对模型进行训练。 在现代CPU硬件上,每个时期大约需要30秒。 无需GPU。 然后,我们可以对数据集中的每个源短语重复此操作,并将预测结果与英语中的预期目标短语进行比
2021-09-25 21:42:45 1.55MB tensorflow neural-machine-translation Python
1
人工智能(AI) 基于项目的人工智能(AI)游乐场。 专案 贡献 欢迎大多数贡献。 联络人 如有任何疑问,请随时与我联系( )。
1
Kalman Filtering and Neural Networks This self-contained book, consisting of seven chapters, is devoted to Kalman filter theory applied to the training and use of neural networks,and some applications of learning algorithms derived in this way.
2021-09-24 14:57:33 5.87MB Kalman Filtering and Neural
1
神经网络的时间序列分析 重点比较ANN,RNN,LSTM和LSTM在时序分析中的表现 在这个项目中,我建立并比较了四种类型的ANN模型:具有Attention的完全连接的ANN,RNN,LSTM,LSTM。 有两个包含时间序列的数据集。 目的是建立深度神经网络,该网络可以学习数据中的时间模式并预测未来观察的价值。 对于那些模型,我比较了预测的准确性和训练过程的速度。 请参考Report.pdf了解详细说明和参考。 为了构建神经网络,我使用python keras库。 为了实现注意力机制,我使用了Christos Baziotis的。
2021-09-22 21:03:14 2.53MB time-series neural-network keras lstm
1
破产机器学习 破产数据研究的目的是为给定数据确定预测破产的最佳分类方法。 破产数据是从COMPUSTAT收集的1980年至2000年的数据,其中有5436个观察值和13个变量。 9个基于会计的变量和1个市场变量是:R1:WC / TA,营运资金/总资产R2:RE / TA,未分配利润/总资产R3:EBIT / TA,息税前利润/总资产R4:ME / TL,权益/总负债的市场价值R5:S / TA,销售/总资产R6:TL / TA,总负债/总资产R7:CA / CL,流动资产/流动负债R8:NI / TA,净收入/总资产R9:破产成本,对数(销售)R10:市值,对数(绝对(价格)*流通股数/ 1000) 对于本研究,由于没有明显的破产趋势,因此可以假定可以将多年来的数据汇总在一起并进行研究。 在这13个变量中,其中一个是“ DLRSN”-一种表示默认值的分类变量,即预测的因变量。 总体而
1
Neural Networks and Deep Learning的手写数字识别例程的python3版本,亲自在python shell下修改仿真后,测试无bug
2021-09-22 14:21:13 18.07MB 手写数字识别 深度学习
1
深度学习 该文件夹包含我的各种AI和机器学习项目的深度学习模型。 长短期记忆(LSTM)卷积神经网络(CNN)ResNet50
1
Keras TCN 与所有主要/最新的Tensorflow版本(从1.14到2.4.0+)兼容。 pip install keras-tcn Keras时间卷积网络。 [] 为什么选择时间卷积网络? 与具有相同容量的循环体系结构相比,TCN具有更长的内存。 在各种任务(序列MNIST,添加问题,复制内存,字级PTB ...)上,其性能始终优于LSTM / GRU体系结构。 平行度,灵活的接收场大小,稳定的梯度,训练所需的低内存,可变长度的输入... 放大的因果卷积层堆栈的可视化(Wavenet,2016) API 通常的方法是导入TCN层,并在Keras模型中使用它。 下面提供了一个回归任务的示例(对于其他示例,请参阅tasks/ ): from tensorflow . keras . layers import Dense from tensorflow . keras import Input , Model from tcn import TCN , tcn_full_summary batch_size , timesteps , input_dim = No
1
使用PyTorch对预训练的卷积神经网络进行微调。 产品特点 可以访问ImageNet上经过预训练的最受欢迎的CNN架构。 自动替换网络顶部的分类器,使您可以使用具有不同类数的数据集训练网络。 使您可以使用任何分辨率的图像(不仅限于在ImageNet上用于训练原始模型的分辨率)。 允许添加一个Dropout层或一个自定义池层。 支持的架构和模型 从包中: ResNet( resnet18 , resnet34 , resnet50 , resnet101 , resnet152 ) ResNeXt( resnext50_32x4d , resnext101_32x8d ) Dens
1