1. C++实现Softmax回归算法 2. 使用Softmax回归算法对MNIST手写数字进行识别 3. 代码干净, 整洁, 有注释, 可直接迁移使用 4. 工程中以包含MNIST手写数字数据文件 5. 关于MNIST可浏览网址: http://yann.lecun.com/exdb/mnist/
2021-10-05 11:03:30 10.18MB Softmax回归 MNIST 机器学习
1
基于卷积神经网络和Softmax的蛋白质二级结构预测.pdf
2021-10-01 18:06:18 1014KB 神经网络 深度学习 机器学习 数据建模
Pycharm+tensorflow+Softmax实现Mnist手写体数字识别-附件资源
2021-09-20 19:51:44 23B
1
代码清晰的说明使用pytorch实现多重分类, 有十个分类标签,用到的思路就是贝叶斯朴素分类器的思想,多分类问题参照BCELoss的函数表达式可变成loss(yhat, y) = -y*log(yhat),Torch.nn.EntropyLoss()交叉熵损失:包含softmax,log处理loss计算和非线性激活
2021-09-11 10:46:12 6KB pytorch softmax 多重分类器
1
===================================================本文主要是基于二次代价函数在BP神经网络中出现的缓慢学习问题,提出利用softmax柔性最大值函数与对数似然代价函数解决缓慢学习问题。 本文适用于Neural network and machine learning 的学习。 ==================================================
2021-09-03 16:35:28 134KB softmax
1
使用Bert的中文NER BERT代表中文NER。 数据集列表 cner:数据集/ cner 主持人: : 型号清单 BERT + Softmax BERT + CRF BERT +跨度 需求 1.1.0 = <PyTorch <1.5.0 cuda = 9.0 python3.6 + 输入格式 输入格式(首选BIOS标记方案),每个字符的标签为一行。 句子用空行分隔。 美 B-LOC 国 I-LOC 的 O 华 B-PER 莱 I-PER 士 I-PER 我 O 跟 O 他 O 运行代码 在run_ner_xxx.py或run_ner_xxx.sh修改配置信息。 sh scripts/run_ner_xxx.sh 注意:模型的文件结构 ├── prev_trained_model | └── bert_base | | └── pytorch_model.bin | | └── config.json | | └── vocab.txt | | └── ...... CLUENER结果 BERT在dev上的整体性能: 准确性(实体) 召回(实
2021-08-17 16:54:16 484KB nlp crf pytorch chinese
1
初学机器学习,使用python写的softmax示例,实现mnist数字识别。未使用第三方库。
2021-07-24 15:38:03 5KB softmax 机器学习 python
1
c++实现多层神经网络模型,工程用vs2008生成。 参考了网上多篇c++神经网络代码,修改多处bug,最终生成无bug版本的代码 测试例子为自己构造:将3位二进制转为10进制
2021-07-16 13:37:15 383KB c++ 神经网络 softmax 实现
1
实现三类螺旋分布的三类点的区分,分布采用线性分类的方法和softmax分类器分类器的使用,简单神经网络的流程。python3.6
2021-07-15 22:54:37 7KB NN softmax
1
https://blog.csdn.net/ljw_study_in_CSDN/article/details/117775766 博客配套代码+数据集文件
2021-06-10 14:11:02 35KB 机器学习 python 逻辑回归 softmax回归
1