BDD100K是用于异构多​​任务学习的多样化驾驶数据集。 | | 我们构建BDD100K,这是最大的具有10万个视频和10个任务的开放式驾驶视频数据集,以评估自动驾驶图像识别算法的令人兴奋的进展。 每个视频都有40秒和高分辨率。 该数据集代表了超过1000个小时的驾驶经验以及超过1亿个帧。 这些视频随附GPU / IMU数据以获取轨迹信息。 该数据集具有地理,环境和天气多样性,对于训练不太可能因新条件而感到惊讶的模型很有用。 充满活力的户外场景和复杂的自我车辆运动使感知任务更具挑战性。 该数据集上的任务包括图像标记,车道检测,可驾驶区域分割,道路对象检测,语义分割,实例分割,多对象检测跟踪,多对象分割跟踪,领域适应和模仿学习。 此存储库包含使用的工具包和资源。 要引用论文中的数据集, @InProceedings{bdd100k, author = {Yu, Fisher
2022-02-23 15:32:31 4.5MB Python
1
人工智能互金领域赛事:第四届拍拍贷魔镜杯季军方案分享(内含完整方案说明+数据集+源码)非常适合学习练手人工智能机器学习项目,要求有一点Python和预测学习算法基础
UCI-Human-Activity-Recognition-Tidy-Data 获取和清理 UCI 人类活动识别数据集:脚本和操作方法 日期:“2015 年 6 月 18 日” 在此存储库中:在此自述文件的下方,您将找到原始数据及其托管网站的链接。 run_analysis.R 文件是 R 脚本,它将带您从原始形式的解压缩 UCI HAR 数据到作业中描述的整洁数据集。 UCI_HAR_tidy_data_CodeBook.Rmd 将解释在最终 tidy 数据集中找到的变量及其代码。 我还将我生成的 UCI_HAR_tidy_dataset 作为 .txt 文件包含在此 repo 中作为成品的示例。 来自 UCI 机器学习库的数据、收集和方法的完整描述: : 压缩数据链接: : 原始 UCI HAR README.txt 可以在从上述网址下载和解压的文件夹中找到。 解压
2022-02-13 21:03:37 83KB R
1
M5变压器预测 使用变压器架构预测M5比赛数据集
2022-01-29 10:44:21 47.75MB Python
1
GTS 。 吴震,应成灿,赵飞,范志芳,戴新宇,夏瑞。 在《 EMNLP的发现》中,2020年。 数据 [] [ (来自拥抱面)] 数据格式描述在。 注:我们认为三重数据集是从我们以前的工作的比对数据集和原始SemEval , , 的数据集。 要求 有关详细信息,请参见require.txt或Pipfile pytorch == 1.7.1 变形金刚== 3.4.0 Python= 3.6 用法 训练 例如,您可以使用以下命令对OPE任务上的Bert进行微调(预先训练的Bert模型保存在文件夹“ pretrained /”中): python main.py --task pair --mode train --dataset res14 最佳模型将保存在文件夹“ savemodel /”中。 测验 例如,您可以使用以下命令在OPE任务上测试Bert: python ma
2022-01-21 19:28:58 19.09MB Python
1
ucsc跟踪大鼠投影数据集 大鼠投影数据集
2022-01-10 09:20:06 10.67MB
1
会话数据集 用于对话响应选择的大型数据集的集合。 该存储库提供了用于创建可重现的数据集的工具,用于训练和评估会话响应模型。 这包括: -37亿条基于话题对话的评论 电影和电视字幕超过4亿行(提供英语和其他语言) -亚马逊产品中超过360万个问题-答案对 机器学习方法最适合诸如此类的大型数据集。 在PolyAI,我们在庞大的对话数据集上训练对话响应模型,然后将这些模型适应对话AI中特定领域的任务。 在庞大的数据集上对大型模型进行预训练的一般方法在图像社区中早已流行,现在在NLP社区中正在兴起。 除了提供原始处理的数据外,我们还提供脚本和说明来自行生成数据。 这使您可以查看并可能操纵预处
1
预处理的DUC 2001关键字提取基准数据集 该数据集已引入: 使用邻域知识的单文档关键词提取。 万晓军和肖建国。 在AAAI 2008年会议记录中。第855-860页。 数据集分为三个目录: references :用于评估的参考关键词 test :测试集 src :从中构建数据集的脚本和存档 每个输入文件都是使用Stanford CoreNLP套件v3.6.0处理的。 我们使用默认参数并执行标记化,句子拆分和词性(POS)标记。 文件为XML格式。 参考关键字短语为json格式,并根据以下规则进行命名: test.reader.[stem]?.json 读者提供的(无论是否阻塞)参考关键字短语以进行测试。 使用nltk Porter算法(英语)执行词干(如果已应用)。 以下是参考文件的玩具示例: { "doc-1": [ [
2022-01-05 15:30:42 5.34MB
1
这是百度点石大数据比赛充电桩故障检测的数据集和源码(acc=1)
2021-12-30 10:03:23 2.53MB 充电桩 分类算法 数据集
1
DDAD-自动驾驶的密集深度 DDAD是TRI(丰田研究所)提供的新的自动驾驶基准,可在挑战性和多样化的城市条件下进行远距离(最大250m)和密集深度估计。 它包含单眼视频和准确的地面深度(在整个360度视野内),这些深度是由安装在跨洲环境中的自动驾驶汽车车队上的高密度LiDAR生成的。 DDAD包含来自美国(旧金山,湾区,剑桥,底特律,安阿伯)和日本(东京,台场)的城市环境的场景。 如何使用 可以在此处下载数据: (257 GB,md5校验和: c0da97967f76da80f86d6f97d0d98904 )和 ( c0da97967f76da80f86d6f97d0d98904 GB,md5校验和: cb244da1865c28898df3de7e904a1200 )。 要加载数据集,请使用。 以下代码段将实例化数据集: from dgp . datasets import S
2021-12-29 19:41:40 8.85MB JupyterNotebook
1