根据已经训练好的word2vec词向量,对于文本相似度进行相关分析
2021-08-29 21:43:43 6KB lstm cnn keras
1
变压器 该项目实施“注意就是您所需要的”论文。 我们提供了详细的指南,以了解变压器的概念和所需的Keras功能/技巧(请参阅Guide.md和Walkthrough.md)。 我们希望该软件和文档将使社区能够以更健壮和更快的方式创建和自动化自定义Keras图层/模型/解决方案。 我们还分享了可以通过DSL设置的机器翻译演示。 我们将不胜感激:) 如果可以训练任何大型模型并共享结果,那就太好了。 由于计算资源有限,目前无法测试。 尽管我们在开发过程中进行了正式和非正式的测试; 我们将不胜感激。 还有任何建议和要求。 如果您还有其他Keras技巧或替代方法,也请为文档做出贡献。 关键贡献 可以通过DSL定义模型训练和解码。 因此执行是自动化的。 从定制培训师那里抽象培训基础知识(检查点,工件管理等)。 为生成模型的生成器(所谓的inner-generator )保留明确的接口
2021-08-29 11:12:48 80KB Python
1
包括32*32尺寸的手写字数据集文件,含测试集和训练集 Keras深度学习通用框架 实现了基本的DNN和CNN 包括最优模型自动存储,学习率自动调节,模型测试,模型结果绘图
2021-08-25 18:48:34 1.02MB Keras 深度学习 代码框架 python
1
keras-unet-collection 所述tensorflow.keras实施U型网,V-净,U-净++,R2U网,注意力U形网,ResUnet-A,U ^ 2-Net和UNET 3+具有可选ImageNet训练有素骨架。 keras_unet_collection.models包含使用超参数选项配置keras模型的函数。 U-net,U-net ++,Attention U-net和UNET 3+支持预训练的ImageNet主干。 U-net ++,UNET 3+和U ^ 2-Net支持深度监督。 有关其他选项和用例,请参见《 》。 keras_unet_collection.models 名称 参考 unet_2d 网络 vnet_2d V-net(为2-d输入修改) unet_plus_2d U网++ r2_unet_2d R2U网 att
2021-08-24 15:24:11 257KB tensorflow pypi backbone imagenet
1
GANs的各种实现GANs的各种实现GANs的各种实现GANs的各种实现GANs的各种实现
2021-08-23 22:47:36 1.36MB GANs
1
Deep Learning with Keras代码 Deep Learning with Keras代码 Deep Learning with Keras代码 Deep Learning with Keras代码 Deep Learning with Keras代码 Deep Learning with Keras代码
2021-08-23 20:38:09 78KB Deep Learning with Keras代码
1
keras实现简单CNN人脸关键点检测-附件资源
2021-08-21 13:20:21 106B
1
windows+TensorFlow/keras+vgg16训练自己的数据集-附件资源
2021-08-21 00:19:28 23B
1
颜色分类leetcode 模拟CLR SimCLRv1 的 Tensorflow-Keras 实现,它允许通过视觉表示对比学习的简单框架 (SimCLR) 来提高 base_model 的特征表示质量。 提供的代码应该允许将框架应用到任何 Keras 模型,只需稍作改动。 图 1 - SimCLR 图解 给定的实现允许使用 5% 的数据在训练的线性分类器上将 top-1 精度提高 17%。 此外,在使用 SimCLR 框架进行训练后,t-SNE 图显示了根据类别对特征进行清晰的聚类。 图 2.1 - SimCLR 之前 VGG16 特征的 t-SNE 图 2.2 - SimCLR 后 VGG16 特征的 t-SNE 可以通过以下笔记本重现此结果: 参考: , , 如何使用? SimCLR = SimCLR(base_model, input_shape, batch_size, feat_dim, feat_dims_ph, num_of_unfrozen_layers, save_path) SimCLR.train 方法可用于通过传递类型的训练和验证数据来训练 SimCLR_mod
2021-08-20 22:09:31 47.04MB 系统开源
1
Attention:注意力机制在Keras当中的实现 目录 所需环境 tensorflow-gpu==1.13.1 keras==2.1.5 LSTM中的注意力机制 在本库中,我将注意力机制施加在LSTM的Step上,目的是注意输入进来的样本,每一个Step的重要程度。我们使用的样本数据如下: X = [[-21.03816538 1.4249185 ] [ 3.76040424 -12.83660875] [ 1. 1. ] [-10.17242648 5.37333323] [ 2.97058584 -9.31965078] [ 3.69295417 8.47650258] [ -6.91492102 11.00583167] [ -0.03511656 -
2021-08-20 16:05:05 5KB Python
1