pytorch中的训练模型示例 PyTorch中的深度学习算法的一些实现。 排名-学习排名 排名网 前馈NN,最小化文档对交叉熵损失函数 训练模型 python ranking/RankNet.py --lr 0.001 --debug --standardize --debug打印参数规范和参数grad规范。 这可以评估是否存在梯度消失和梯度爆炸问题- --standardize可确保将输入缩放为平均值为0且标准差为1.0 NN结构:136-> 64-> 16-> 1,ReLU6作为激活函数 优化器 r 时代 损失(火车) 损失(评估) ndcg @ 10 ndcg @ 30 秒/纪元 因式分解 对/秒 亚当 0.001 25 0.63002 0.635508 0.41785 0.49337 312 损失函数 203739 亚当 0.001 50 0.6
2023-05-22 21:19:36 154KB learning-to-rank ndcg ranknet lambdarank
1
Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
2023-05-05 18:18:55 180MB 自然语言处理 预训练模型
1
[SSD-300 VGG-based] | VOC07+12+COCO trainval | VOC07 test | 0.817 | - |原文中指定模型
2023-04-30 11:09:48 93.96MB SSD预训练模型 300*300
1
inception_v3_weights_tf_dim_ordering_tf_kernels_notop Linux下是放在“~/.keras/models/”中 Win下则放在Python的“settings/.keras/models/”中 Windows-weights路径:C:\Users\你的用户名\.keras\models anaconda下依然好用
2023-04-29 13:57:27 77.09MB Keras 预训练 模型 权值文件
1
word2vec预训练模型,gensim做的
2023-04-19 20:41:41 267.66MB word2vec 预训练模型 维基百科
1
具有递归神经网络的文本生成 使用基于特征的RNN进行文本生成。 我们使用安德烈·卡帕蒂(Andrej Karpathy)的莎士比亚作品集。 给定来自此数据的字符序列(“莎士比亚”),训练模型以预测序列中的下一个字符。 通过重复调用模型,可以生成更长的文本序列。 模型的输出 以下是本教程中的模型训练了30个纪元并以字符串“ Q”开头时的示例输出: 奎妮:我以为你有罗马人。 Oracle这样,使所有人都反对这个词,因为他的照顾太弱了。 您的孩子们在您的圣洁的爱中,通过流血的宝座沉淀。 伊丽莎白·比什普(Bishop of Ely):我的主,嫁给并愿意哭泣,这是最漂亮的。 然而,现在我被世界可悲的一天收为继承人,要和他父亲一起面对面观看新路吗? 埃斯卡洛斯:为什么我们都下了更多儿子的原因。 卷:不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,这是没
2023-04-17 22:59:21 70KB Python
1
Prompt tuning 目前的相关论文合集,总计70篇左右
2023-04-11 16:58:05 81.9MB Prompt 深度学习 tuning 预训练模型
1
Esp32-Cam学习训练模型的的Python包用于从视频流中获取图片然后建立目标模型,训练后生成Arduino代码,烧录生成的Arduino代码便可让板件具备图像识别功能。
2023-04-10 15:44:32 1.75MB python
1
幽默是一种特殊的语言表达方式,在日常生活中扮演着化解尴尬、活跃气氛、促进交流的重要角色。而幽默计算是近年来自然语言处理领域的新兴热点之一,其主要研究如何基于计算机技术对幽默进行识别、分类与生成,具有重要的理论和应用价值。 本资源是基于基于bert的幽默识别模型,请结合我的博客使用!
2023-04-07 17:51:13 362.39MB nlp bert 预训练模型 python
1
VGG16cfg和预训练权重
2023-04-02 17:14:20 489.89MB VGG16预训练模型
1