TF_Convolutional_Autoencoder 用于在TensorFlow中以高压缩率对RGB图像进行编码/解码的卷积自动编码器 这是从Arash Saber Tehrani的Deep-Convolutional-AutoEncoder教程教程改编而成的示例模板,用于对3通道图像进行编码/解码。 该模板已被完全注释。 我已经在来自香港中文大学的CelebA数据集的重新缩放后的样本上测试了此实现,以在短时间的训练中产生相当不错的结果。 此实现的压缩比为108。即,对于形状为[-1、48、48、3]的输入张量,瓶颈层已减小为形状为[-1、64]的张量。 附加功能: 将3通道图像而不是MNIST用作输入 培训现在执行检查点保存和还原 可以在TensorBoard中查看编码器的输入和解码器的输出 输入自动重定标 用ReakyReLU代替ReLU激活来解决垂死的ReLU 注意事项:
2022-01-12 19:17:54 524KB tensorflow autoencoder rgb-image face-recognition
1
想用stm32的SPI程序打开TF卡,可以用这个程序,本程序只是可以读出TF卡。
2022-01-06 15:17:25 5.34MB tf sd stm32
1
在用tensorflow做一维的卷积神经网络的时候会遇到tf.nn.conv1d和layers.conv1d这两个函数,但是这两个函数有什么区别呢,通过计算得到一些规律。 1.关于tf.nn.conv1d的解释,以下是Tensor Flow中关于tf.nn.conv1d的API注解: Computes a 1-D convolution given 3-D input and filter tensors. Given an input tensor of shape [batch, in_width, in_channels] if data_format is “NHWC”, or [b
2022-01-02 21:24:25 64KB c conv ens
1
TF-IDF结合余弦相似度做相似度分析 TF-IDF 优点:简单快速,结果比较符合实际情况。 缺点:以“词频”“权重”衡量一个词的重要性,仍不够全面 可能一话的词的先后顺序也会影响词语句的表达,TF-IDF无法体现 词的位置信息,出现位置靠前的词与出现位置靠后的词,都被视为 重要性相同,这是不正确的 NLP-自然语言处理 *
2021-12-30 16:26:18 2.48MB python 数据分析 自然语言处理
1
Meanshift的matlab代码使用 Tensorflow 进行均值漂移聚类 由 Phong Le () 编写和维护 描述 使用高斯核进行聚类。 要求 Python 3.5 跑步 要设置参数,打开src/meanshift.py n_samples = 300 # sample size n_centroids = n_samples # number of centroids n_updates = -1 # number of updates, -1 means run until converge (diff < 1e-5) window_radius = .1 # window radius for the Gaussian kernels n_gaussians = 3 # 'true' number of clusters 执行 python3 src/meanshift.py
2021-12-25 20:36:51 62KB 系统开源
1
打包几款珍藏版绝对有用的TF卡修复软件,简单易懂!TF卡SD修复工具,死卡,呆卡,无法格式化卡
1
L9110S电机驱动芯片+TF-500TB,视频教程: 《单片机实践项目》之基于51单片机的L9110S电机驱动芯片实验及RF-500TB直流有刷电机的讲解:https://www.bilibili.com/video/BV14K411N7Ge/
1
mnist-tf-master完整的,可以直接运行,而且有完整的数据哦
2021-12-23 21:21:11 11.07MB tensorfoow
1
TF-IDF:NLP中的TF_IDF的公式,并与Sklearn中的结果进行比较
2021-12-23 13:54:51 3KB python sklearn jupyter-notebook tf-idf
1
tf_geometric 适用于TensorFlow 1.x和2.x的高效友好的图形神经网络库。 受rusty1s / pytorch_geometric的启发,我们为TensorFlow构建了一个GNN库。 主页和文档 主页: : 文档: : () 论文: 高效友好 我们使用消息传递机制来实现图神经网络,它比基于密集矩阵的实现高效,并且比基于稀疏矩阵的实现更友好。 另外,我们为复杂的GNN操作提供了简单而优雅的API。 下面的示例构造一个图,并在其上应用多头图注意力网络(GAT): # coding=utf-8 import numpy as np import tf_geometric as tfg import tensorflow as tf graph = tfg . Graph ( x = np . random . randn ( 5 , 20 ),
2021-12-21 14:52:20 186KB Python
1