神经网络实现mppt控制
2023-02-15 17:14:06 44KB nn 神经网络 mppt pv
1
深度学习的matlab工具箱,包括DBN,堆叠去噪自编码器SDAE和NN,文档中有解释每个函数的pdf文件。清晰易懂非常好用,分享在这里
2023-02-09 15:04:27 14.12MB matlab DBN SDAE
1
非度量空间库(NMSLIB) 重要笔记 NMSLIB是通用的,但速度很快,请参阅的结果。 我们最快的方法HNSW的独立实现。 所有文档(包括使用Python绑定和查询服务器,方法和空格的描述,构建库等)都可以上找到。 对于一般性问题,请使用:GitHub问题页面用于Bug和功能请求。 目标 非度量空间库(NMSLIB)是高效的跨平台相似性搜索库,也是评估相似性搜索方法的工具包。 核心库没有任何第三方依赖。 最近它已经越来越流行。 特别是,它已成为的一部分。 该项目的目标是创建一个有效且全面的工具包,用于在通用和非度量空间中进行搜索。 即使该库包含多种度量空间访问方法,我们的主要重点还是通用和近似搜索方法,尤其是非度量空间的方法。 NMSLIB可能是第一个在原则上支持非度量空间搜索的库。 NMSLIB是一个可扩展的库,这意味着可以添加新的搜索方法和距离函数。 NMSLIB可以直接在
1
边缘神经网络 Edge NN加速器性能基准 使NCS2和珊瑚的SpeedTest代码相同 各种输出层的性能基准
2023-01-04 17:23:16 1KB
1
CNNvsNN_Digit_recognizer 进行该项目的目的是在通用数据集上比较卷积神经网络(CNN)和常规神经网络(NN)的性能差异。
2022-12-31 22:01:59 102KB JupyterNotebook
1
统计学期末课程作业_python自定义实现CNN_KNN_NN_SVM网络模型源码+说明文件.zip 【CNN实现】 cnn1.py: LeNet+ReLU; cnn2.py: 在cnn1的基础上加宽全连接层; cnn3.py: 在cnn2的基础上修改卷积核; cnn4.py: 在cnn3的基础上修改卷积核; cnn5.py: 在cnn4的基础上加宽全连接层; cnn6.py: 在cnn3的基础上加宽全连接层; cnn7.py: 在cnn6的基础上加宽全连接层; cnn8.py: 在cnn6的基础上加入Dropout层; 等等 【KNN实现】 knn.py: 标准KNN,k=1,3,5,7,9; 【NN实现】 nn1.py: 784-800-15 (修改激活函数); nn2.py: 784-2500-2000-1500-1000-500-15 (修改激活函数); nn3.py: 在nn2的基础上修改数据预处理方式; 【SVM】 svm.py: 核函数(linear,rbf,poly,sigmoid); 另包含【运行指南】和【最终选择模型】
2022-12-14 16:26:40 509.6MB CNN KNN NN SVM
内容包含详细注释 代码中有数据集的下载程序: 人工构造简单二分类数据集,两个数据集大小为100,样本特征维度为2,且分别服从均值互为相反数且方差相同的正态分布。两个数据集的样本标签分别为0和1。 Fashion-MNIST数据集,该数据集为一个多类图像分类数据集,包含60000个训练图像样本,10000个测试图像样本。每个样本的数据格式为28*28*1。共10类:dress(连⾐裙)、coat(外套)、 代码内容包括: PyTorch基本操作实验; Torch.nn实现Logistic回归实验、softmax回归实验、实现前馈神经网络(多分类、二分类、回归); 手动实现Logistic回归实验、softmax回归实验、实现前馈神经网络(多分类、二分类、回归); 多分类实验torch.nn实现Dropout和多分类实验torch.optim实现L2范数正则化; 对多分类任务中的模型评估隐藏层层数和隐藏单元个数对实验结果的影响;
1
主要介绍了pytorch 中的重要模块化接口nn.Module的使用,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
2022-11-12 10:27:03 57KB pytorch nn.Module
1
在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None) 除去name参数用以指定该操作的name,与方法有关的一共两个参数: 第一个参数logits:就是神经网络最后一层的输出,如果有batch的话,它的大小就是[batchsize,num_classes],单样本的话,大小就是num_classes 第二个参数lab
2022-11-06 00:04:07 56KB .so c cros
K-NN(K近邻算法)实现手写字符的识别(C语言)实现,通过VS2010平台验证通过,代码详细易懂,是该算法上手的好资料.
2022-09-27 08:30:55 1.04MB KNN k近邻算法 机器学习 数据挖掘
1