非官方的PyTorch实现 Kevin Clark的。 Minh-Thang Luong。 Quoc V. Le。 克里斯托弗·曼宁 复制结果 我从头开始对ELECTRA-small进行了预培训,并已在GLUE上成功复制了论文的结果。 模型 可乐 SST MRPC STS QQP MNLI 秦皇岛 RTE 平均的平均值 电子小OWT 56.8 88.3 87.4 86.8 88.3 78.9 87.9 68.5 80.36 ELECTRA-Small-OWT(我) 58.72 88.03 86.04 86.16 88.63 80.4 87.45
2022-10-18 21:47:16 52KB nlp glue pytorch deeplearning
1
我们将在PyTorch中构建一个简单的卷积神经网络,并使用MNIST数据集训练它识别手写数字。在MNIST数据集上训练分类器可以看作是图像识别的“hello world”。
使用pytorch搭建的简单的LSTM多变量多输出时间序列预测的使用例。 生成了多个以sinx、cosx、tanx构成的序列,使用[i:i+50]的数据预测[i+51]的数据。x是步长为0.1的等差数列
2022-10-18 12:05:13 1KB LSTM pytorch deep 时间序列预测
CodeSnippetSearch CodeSnippetSearch是一个Web应用程序和一个Web扩展,允许您使用自然语言查询和代码本身搜索GitHub存储库。 它基于使用PyTorch和项目中的数据的单词代码搜索实现的神经袋。 模型培训代码受到CodeSearchNet存储库中基线(Tensorflow)实现的极大启发。 当前,支持Python,Java,Go,Php,Javascript和Ruby编程语言。 有用的论文: 型号说明 模型结构 项目结构 code_search :一个带有脚本的Python包,用于准备数据,训练语言模型并保存嵌入 code_search_web :CodeSnippetSearch网站Django项目 serialized_data :在训练期间存储中间对象(文档,词汇表,模型,嵌入等) codesearchnet_data :来自CodeSe
1
对Pytroch版本的代码做了整理,直接点击train.py即可完成训练。
2022-10-17 22:05:41 817.73MB 图像质量
Deep-Learning-with-Pytorch
2022-10-17 13:05:31 1.22MB 深度学习
1
多GPU启动指令说明: 1.如果要使用train_multi_gpu_using_launch.py脚本,使用以下指令启动 python -m torch.distributed.launch --nproc_per_node=8 --use_env train_multi_gpu_using_launch.py其中nproc_per_node为并行GPU的数量
2022-10-16 16:05:16 316.85MB 多GPU并行 训练 pytorch 图像分类
BERT手把手实现分类任务-Pytorch
2022-10-15 23:46:52 1.25MB pytorch bert 分类 人工智能
1
基于resnet 18实现的mnist数字多分类(pytorch 框架)识别准确率96%
2022-10-15 11:05:27 70.63MB 人工智能 resnet pytorch
1
新的培训策略 我发布了一种新的训练策略,该方法可以减少色偏,从而有助于应对随机面罩训练,而这大约需要30%的训练时间。 当我们执行脸部插入时,这是非常有用的。 设置--which_model_netG='face_unet_shift_triple'和--model='face_shiftnet'和--batchSize=1来执行该策略。 参见下面的一些示例,当在面部数据集上使用随机蒙版进行训练时,许多方法都会遭受这种color shifting困扰。 输入 纳维·Shift 翻转移位 真相 注意:当您使用face_flip training strategy ,它有一些小缺点: 与原始移位相比,它不是完全平行的。 它只能在'cpu'或单个gpu上进行训练,批大小必须为1,否则会发生错误。 如果您想克服这些缺点,可以参考原始班次进行优化。 这并不困难,但是我没有时间去做。 建
2022-10-14 22:40:46 5.66MB Python
1