β-VAE 下面两篇论文的Pytorch复制: 依赖关系 python 3.6.4 pytorch 0.3.1.post2 visdom 数据集 用法 初始化visdom python -m visdom.server 您可以通过以下方式重现结果 sh run_celeba_H_beta10_z10.sh sh run_celeba_H_beta10_z32.sh sh run_3dchairs_H_beta4_z10.sh sh run_3dchairs_H_beta4_z16.sh sh run_dsprites_B_gamma100_z10.sh 或者您可以通过手动设置参数来运行您自己的实验。 对于客观和模型参数,您有两个选项 H 和 B 表示 Higgins 等人提出的方法。 和 Burgess 等人,分别。 参数--C_max和--C_stop_iter应该在--obj
2021-11-10 16:10:26 3.87MB chairs-dataset vae unsupervised-learning beta-vae
1
斯坦福地震数据集(STEAD):用于AI的全球地震信号数据集 您可以从这里获取wavefoms: 以下每个文件包含一个hdf5(数据)文件和一个CSV(元数据)文件,用于约200k 3C波形。 您可以下载所需的块,然后使用存储库中提供的代码将它们合并到一个文件中。 GB)噪音 GB)本地地震 GB)本地地震 GB)本地地震 GB)本地地震 GB)本地地震 如果您拥有快速的互联网连接,则可以使用以下链接将整个数据集下载到一个文件中: https://rebrand.ly/整个(合并〜85 GB)本地地震+噪音 注意1:某些Windows和Linux操作系统的解压缩程序有大小限制。 如果解压缩文件时遇到问题,请尝试使用“ 7Zip”软件。 注意2:hdf5文件中还提供了所有元数据(作为与每个波形关联的属性)。 注3:对于某些噪声数据,3个分量的波形相同。 这些与单通道电台
2021-11-09 20:40:33 3.21MB deep-learning dataset stanford earthquake
1
INTERACTION数据集的Python脚本 这些脚本可帮助您处理和可视化交互数据集 有关数据集的详细信息和访问,请访问 所需的Python软件包 参见 用$ pip install -r requirements.txt安装它们 用法 将INTERACTION数据集复制/下载到正确的位置 将曲目文件复制/下载到“ recorded_tracks文件夹中,每种情况都保留一个文件夹,如下载时一样 将地图复制/下载到文件夹maps 您的文件夹结构应类似于 可视化数据从文件夹python运行./main_visualize_data.py 以可视化场景 如果您只想加载和使用轨道文件从文件夹python运行./main_load_track_file.py 加载曲
2021-11-09 20:37:44 18KB Python
1
OIDv4到VOC XML格式 如果您有使用Pascal VOC格式的经验,但是不能使用具有类的 。 比起如何下载每个类的图像并将注释转换为XML文件的步骤要多得多。 该规范已记录在案,易于理解。 请查看用法步骤。 打开图像数据集v4 可以在找到与该庞大数据集有关的所有信息。在这几行中,仅简要概述了一些统计信息和重要提示。 培养 验证方式 测试 #班 图片 1,743,042 41,620 125,436 -- 盒子 14,610,229 204,621 625,282 600 入门 安装 需要Python3。 克隆此存储库。 git clone https://g
1
DeeperForensics-1.0:用于真实世界人脸伪造检测的大规模数据集 该存储库提供以下论文的数据集和代码: DeeperForensics-1.0:用于真实世界人脸伪造检测的大规模数据集,,,在CVPR 2020中。 | | 摘要:我们介绍了我们正在努力建立用于人脸伪造检测的大型基准。 该基准测试的第一个版本DeeperForensics-1.0代表了迄今为止最大的人脸伪造检测数据集,共有60,000个视频,共1760万帧,是现有同类数据集的10倍。 应用了广泛的现实世界扰动以获得更大规模和更高多样性的更具挑战性的基准。 我们会仔细收集DeeperForensics-1.0中的所有源视频,并通过新提议的端到端人脸交换框架来生成假视频。 经用户研究验证,生成的视频质量优于现有数据集中的视频。 该基准测试具有一个隐藏的测试集,其中包含在人类评估中获得较高欺骗性分数的操纵视频。
2021-11-09 15:15:06 40.27MB benchmark dataset videos method
1
The dataset is a collection of CT san of patients' lungs and a baseline chest CT scan. lungCTscans_datasets.txt
2021-11-09 14:43:12 346B 数据集
1
用于分类的数据集
2021-11-09 14:08:28 231KB 机器学习
1
space object dataset for data mining( can be opened by weka), classification: satellite, debris,rocket. Download from http://satellitedebris.net/Database in 2014-08-31. There are attributes of Space object like norad id, radar cross section, area to mass ratio, orbital parameters, size, etc.
2021-11-08 22:06:41 102KB space object dataset
1
Synthetic_Chinese_String_Dataset 中文识别数据集 3 for https://gitee.com/chenyang918/Lets_OCR
2021-11-08 18:38:35 145.62MB data
1
这是我们的SAR-Ship-Dataset的更新! 我们更正了一些错误,例如边界框错误和重复剪辑。 现在,标签文件的格式为“ .txt”,其中每行代表一艘船。 标签文件的每一行包含五个数字: 船只的类别,芯片中的船只中心的规格化列值,船只中心的规格化行值,规格化的船只宽度和规格化的船只长度。 在现阶段,我们将所有船只标记为一类。 您还可以在此站点中找到我们数据集的旧版本。 此外,我们的数据集太大,您无法直接下载它,我们为此启动了LFS服务,您需要为计算机安装lfs并下载数据集 通过“ git lfs clone ”之类的命令进行操作。 也许有时候,我们lfs的带宽在当月用完了,您无法下载, 那么它将在下个月重置。 这个由SAR专家标记的数据集是使用102幅中国高分3幅图像和108幅Sentinel-1图像创建的。 它由39,729舰船筹码(去除一些重复片段)组成,在距离和方
2021-11-08 16:06:14 2KB
1