此回购包含AAAI 2021论文的代码和结果: , | | | (Google CoLab) 拟议的两阶段框架概述。 首先,我们提出了一个用于水印检测,删除和恢复的多任务网络SplitNet。 然后,我们提出了RefineNet,以使用预测的蒙版和从上一阶段恢复的背景对学习区域进行平滑处理。 因此,我们的网络可以在没有任何人工干预的情况下以端到端的方式进行培训。 注意,为清楚起见,我们没有显示所有编码器和解码器之间的任何跳过连接。 整个项目将于2021年1月(几乎)发布。 数据集 我们合成了四个不同的数据集进行训练和测试,您可以通过下载该数据集。 预训练模型 其他经过预先训练的模型仍在重组和上传中,它将很快发布。 演示版 可以在google colab中建立一个易于使用的在线演示。 本地演示将很快发布。 前提条件 pip install -r requirements.
2023-05-17 23:56:22 51KB pytorch watermark-removal aaai2021 Python
1
学习将结构知识整合到图像修复中 AAAI 2020论文“学习结合用于图像修补的结构知识”的简介和源代码。 您可以在或获取论文。 引文 @inproceedings{jie2020inpainting, title={Learning to Incorporate Structure Knowledge for Image Inpainting}, author={Jie Yang, Zhiquan Qi, Yong Shi}, booktitle={Proceedings of the AAAI Conference on Artificial Intelligence}, volume={34}, number={7}, pages={12605-12612}, year={2020} } 介绍 该项目开发了一个多任务学习框架,该框架试图结合图像结构知识来辅助
2023-03-17 13:37:06 2.82MB 系统开源
1
AAAI2023 会议论文集合(Oral),包括了论文分类和论文名字,作者列表。共42页
2023-03-14 08:34:21 962KB AAAI 人工智能 会议论文 计算机
1
官方模板,解压即可
2022-09-20 20:03:18 8.04MB AAAI 顶会 AAAI23
1
网络 介绍 我们提供用于再现实验结果的。 强调: SCNet解决了现有的级联方法用于实例分割的训练推断样本分布不匹配的局限性。 SCNet加强了子任务之间的关系:分类,检测和分段。 最先进的技术:SCNet在没有响声的情况下,在ResNext-101上实现了44.7盒式AP和42.3面罩AP。 可以使用众所周知的插件和技巧(例如Group Norm,DCN,多尺度培训/测试)来进一步改善此功能。 快速的培训和测试:与和相比,SCNet可以实现更好的性能,同时可以更快地进行培训/推理,并且需要更少的内存。 请参阅下面的比较。 数据集 SCNet需要COCO和COCO-stuff数据集进行培训。 您需要下载并解压缩到COCO数据集路径中。 目录应该是这样的。 mmdetection ├── mmdet ├── tools ├── configs ├── data │ ├── c
2022-07-20 16:58:01 7.25MB pytorch detection-framework Python
1
AAAI2023作者工具包(word/latex模板)
2022-06-17 16:06:33 8.5MB AAAI latex模板 latex AAAI学术会议
1
对抗性纠缠的视听表示形式的会说话人脸生成 在这项工作中,我们提出了Disentangled Audio-Visual System (DAVS)来解决任意主题的说话人脸的生成问题,该目的是合成与给定语音语义相对应的一系列人脸图像,并以不受约束的语音音频或视频为条件。 要求 (我们使用版本0.2.0) 生成测试结果 下载预训练的模型 Create the default folder " checkpoints " and put the checkpoint in it or get the CHECKPOINT_PATH 可在名为文件夹中找到测试样本。 这是来自数据集的预处理样本。 运行测试脚本以从视频生成视频: python test_all.py --test_root ./0572_0019_0003/video --test_type video --test_au
2022-05-19 10:06:31 5.88MB Python
1
AIES '18: Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society
2022-05-17 19:10:01 1.6MB 人工智能 以太坊 综合资源 数字货币
pytorch-vsumm-reforce 此存储库包含AAAI'18论文的Pytorch实施-。 原始的Theano实现可以在找到。 主要要求是 ( v0.4.0 )和python 2.7 。 和可能未安装在您的计算机中。 请安装其他缺少的依赖项。 开始吧 下载预处理的数据集 git clone https://github.com/KaiyangZhou/pytorch-vsumm-reinforce cd pytorch-vsumm-reinforce # download datasets.tar.gz (173.5MB) wget http://www.eecs.qmul.ac.uk/~kz303/vsumm-reinforce/datasets.tar.gz tar -xvzf datasets.tar.gz 分割 python create_split.py -d da
1
告密者:用于长序列时间序列预测的超越高效变压器(AAAI'21最佳论文) 这是以下文章中Informer的原始Pytorch实现: 。 特别感谢 Jieqi Peng @ 建立此存储库。 :triangular_flag: 新闻(2021年2月22日):我们提供了供友好使用。 :triangular_flag: 新闻(2021年2月8日):我们的线人论文被授予! 我们将继续进行这方面的研究,并对此仓库进行更新。 如果您发现我们的工作对您有帮助,请加注该回购并引用我们的论文。 图1. Informer的体系结构。 稀疏注意 自我注意分数形成一个长尾分布,其中“活动”查询位于“头”分数中,而“懒惰”查询位于“尾”区域中。 我们设计了ProbSparse Attention以选择“活动”查询而不是“惰性”查询。 带有Top-u查询的ProbSparse Attention通过概率分布形成了一个稀疏的Transformer。 Why not us
2022-01-19 22:30:20 847KB deep-learning time-series pytorch forecasting
1