自我监督预测的好奇心驱动探索 在ICML 2017中 , , ,加州大学伯克利分校 这是我们基于ICLS 基于张量流的实现,该。 当来自环境的外部奖励稀疏时,想法是用内在的基于好奇心的动机(ICM)来培训代理商。 令人惊讶的是,即使环境中没有可用的奖励,您也可以使用ICM,在这种情况下,代理仅出于好奇而学会探索:“没有奖励的RL”。 如果您发现这项工作对您的研究有用,请引用: @inproceedings{pathakICMl17curiosity, Author = {Pathak, Deepak and Agrawal, Pulkit and Ef
2022-05-30 14:48:41 2.04MB mario deep-neural-networks deep-learning tensorflow
1
Convolutional Neural Networks的Matlab代码,可经过代码文件test_example_CNN.m,对手写字体进行训练测试
2022-05-29 21:38:27 8KB CNN Matlab 卷积神经网络
1
Juniper Networks Network Connect 7.2.0 x64 ,比较好用,欢迎下载
2022-05-28 11:34:12 2.28MB Juniper Networks Network Connect
1
基于全卷积Fully-Convolutional-Siamese-Networks的目标跟踪仿真+word版说明文档 版本组合:Win7+Matlab R2015b+CUDA7.5+vs2013 文档中提供了上述运行环境的配置方法 注意事项(仿真图预览可参考博主博客里面"同名文章内容"。)
2022-05-26 12:05:57 99.8MB 目标跟踪 人工智能 计算机视觉 全卷积
用于分布和不确定性估计的混合密度网络:使用Keras(TensorFlow)进行分布和不确定性估计的通用混合密度网络(MDN)实现
1
在过去的几年中,无线自组织网络(WANET)的连接受到了相当大的关注。在WANET中,实现安全连接更具挑战性,因为所有通信都应在安全链接上进行。在本文中,我们研究了Poisson随机几何图的临界密度lambda_c的表征,这是安全连通性的核心问题。通过将连续渗流理论与聚类系数方法相结合,我们得出了lambda_c的更严格的下界,这为对WANET的安全连接性提供了基本的了解。
2022-05-23 22:33:13 322KB Wireless Ad hoc Networks;
1
Countless learning tasks require dealing with sequential data. Image captioning, speech synthesis, and music generation all require that a model produce outputs that are sequences. In other domains, such as time series prediction, video analysis, and musical information retrieval, a model must learn from inputs that are sequences. Interactive tasks, such as translat- ing natural language, engaging in dialogue, and controlling a robot, often demand both capabilities. Recurrent neural networks (RNNs) are connec- tionist models that capture the dynamics of sequences via cycles in the network of nodes.
2022-05-23 21:11:23 1.03MB RNN
1
胶囊网络的Tensorflow实现 要求 tensorflow> = 1.4(也许1.3也应该工作,尽管我没有测试它) 麻木 枕头 科学的 胶囊网络 我试图实现这个想法 文件描述 config.py包含所有需要的超级参数。 utils.py包含有关加载和保存的功能。 model.py具有capsNet和整个模型实现的所有构建块。 train.py用于培训。 eval.py用于评估。 用法 训练 $ python train.py 评估 $ python eval.py 训练 结果 分类 时代 10 测试权限 99.278 重建
2022-05-22 21:08:57 11.19MB Python
1
神经网络(GNNs)是一种针对学习图表示的神经网络结构,已经成为一种流行的学习模型,用于预测节点、图和点的构型的任务,并在实践中获得了广泛的成功。本文选取了广泛应用的消息传递神经网络和高阶神经网络的逼近和学习特性的新兴理论成果,重点从表示、概括和外推三个方面进行了综述。本文总结了数学上的联系。
1
时空图卷积网络用于基于骨架的动作识别,Spatial Temporal Graph Convolutional Networks for Skeleton Based Action Recognition,2018年AAAI论文
2022-05-19 12:31:53 1.5MB 时空卷积
1