EmbedKGQA数据集,从谷歌云盘下载,分享给大家,在国内下载速度更快。 原文链接: https://drive.google.com/drive/folders/1RlqGBMo45lTmWz9MUPTq-0KcjSd3ujxc 因CSDN要求每个资源不能超过1000MB,故对数据集进行了分卷压缩,本链接中为该压缩分卷第9卷,共10卷,必须下载齐所有分卷才能够解压出完整数据集。 解压后的压缩包内应包含: data.zip pretrained_models.zip qa_test_webqsp_fixed.txt 共三个文件。
2024-05-22 14:36:39 999MB NLP 深度学习
1
EmbedKGQA数据集,从谷歌云盘下载,分享给大家,在国内下载速度更快。 原文链接: https://drive.google.com/drive/folders/1RlqGBMo45lTmWz9MUPTq-0KcjSd3ujxc 因CSDN要求每个资源不能超过1000MB,故对数据集进行了分卷压缩,本链接中为该压缩分卷第8卷,共10卷,必须下载齐所有分卷才能够解压出完整数据集。 解压后的压缩包内应包含: data.zip pretrained_models.zip qa_test_webqsp_fixed.txt 共三个文件。
2024-05-22 14:36:23 999MB NLP 深度学习
1
EmbedKGQA数据集,从谷歌云盘下载,分享给大家,在国内下载速度更快。 原文链接: https://drive.google.com/drive/folders/1RlqGBMo45lTmWz9MUPTq-0KcjSd3ujxc 因CSDN要求每个资源不能超过1000MB,故对数据集进行了分卷压缩,本链接中为该压缩分卷第7卷,共10卷,必须下载齐所有分卷才能够解压出完整数据集。 解压后的压缩包内应包含: data.zip pretrained_models.zip qa_test_webqsp_fixed.txt 共三个文件。
2024-05-21 22:23:01 999MB NLP 深度学习
1
EmbedKGQA数据集,从谷歌云盘下载,分享给大家,在国内下载速度更快。 原文链接: https://drive.google.com/drive/folders/1RlqGBMo45lTmWz9MUPTq-0KcjSd3ujxc 因CSDN要求每个资源不能超过1000MB,故对数据集进行了分卷压缩,本链接中为该压缩分卷第6卷,共10卷,必须下载齐所有分卷才能够解压出完整数据集。 解压后的压缩包内应包含: data.zip pretrained_models.zip qa_test_webqsp_fixed.txt 共三个文件。
2024-05-21 22:22:34 999MB NLP 深度学习
1
EmbedKGQA数据集,从谷歌云盘下载,分享给大家,在国内下载速度更快。 原文链接: https://drive.google.com/drive/folders/1RlqGBMo45lTmWz9MUPTq-0KcjSd3ujxc 因CSDN要求每个资源不能超过1000MB,故对数据集进行了分卷压缩,本链接中为该压缩分卷第5卷,共10卷,必须下载齐所有分卷才能够解压出完整数据集。 解压后的压缩包内应包含: data.zip pretrained_models.zip qa_test_webqsp_fixed.txt 共三个文件。
2024-05-21 22:22:14 999MB NLP 深度学习
1
EmbedKGQA数据集,从谷歌云盘下载,分享给大家,在国内下载速度更快。 原文链接: https://drive.google.com/drive/folders/1RlqGBMo45lTmWz9MUPTq-0KcjSd3ujxc 因CSDN要求每个资源不能超过1000MB,故对数据集进行了分卷压缩,本链接中为该压缩分卷第4卷,共10卷,必须下载齐所有分卷才能够解压出完整数据集。 解压后的压缩包内应包含: data.zip pretrained_models.zip qa_test_webqsp_fixed.txt 共三个文件。
2024-05-21 22:21:58 999MB NLP 深度学习
1
EmbedKGQA数据集,从谷歌云盘下载,分享给大家,在国内下载速度更快。 原文链接: https://drive.google.com/drive/folders/1RlqGBMo45lTmWz9MUPTq-0KcjSd3ujxc 因CSDN要求每个资源不能超过1000MB,故对数据集进行了分卷压缩,本链接中为该压缩分卷第3卷,共10卷,必须下载齐所有分卷才能够解压出完整数据集。 解压后的压缩包内应包含: data.zip pretrained_models.zip qa_test_webqsp_fixed.txt 共三个文件。
2024-05-21 22:11:44 999MB NLP 深度学习
1
EmbedKGQA数据集,从谷歌云盘下载,分享给大家,在国内下载速度更快。 原文链接: https://drive.google.com/drive/folders/1RlqGBMo45lTmWz9MUPTq-0KcjSd3ujxc 因CSDN要求每个资源不能超过1000MB,故对数据集进行了分卷压缩,本链接中为该压缩分卷第2卷,共10卷,必须下载齐所有分卷才能够解压出完整数据集。 解压后的压缩包内应包含: data.zip pretrained_models.zip qa_test_webqsp_fixed.txt 共三个文件。
2024-05-21 22:11:18 999MB NLP 深度学习
1
EmbedKGQA数据集,从谷歌云盘下载,分享给大家,在国内下载速度更快。 原文链接: https://drive.google.com/drive/folders/1RlqGBMo45lTmWz9MUPTq-0KcjSd3ujxc 因CSDN要求每个资源不能超过1000MB,故对数据集进行了分卷压缩,本链接中为该压缩分卷第1卷,共10卷,必须下载齐所有分卷才能够解压出完整数据集。 解压后的压缩包内应包含: data.zip pretrained_models.zip qa_test_webqsp_fixed.txt 共三个文件。
2024-05-21 18:14:09 999MB NLP 深度学习
1
使用说明 分对话系统和机器翻译两部分 data为数据集 model为训练的模型 translation文件夹下又分了Seq2Seq和transformer两个模型,大家按需查看使用 以transformer文件夹为例,attention.py主要实现了注意力机制,transformer.py实现了transformer的主体架构,data.py为数据的预处理以及生成了词典、dataset、dataloader,readdata.py运行可以查看数据形状,train.py为训练模型,predict.py为预测,config.py为一些参数的定义。 transformer机器翻译的模型是用cuda:1训练的,如果要使用可能需要修改代码 如:gpu->cpu,即在CPU上使用 torch.load('trans_encoder.mdl', map_location= lambda storage, loc: storage) torch.load('trans_decoder.mdl', map_location= lambda storage, loc: storage)
1