YOLO 尝试使用YOLO网络摄像头。 步骤1:下载并将其保存到model_data/ 。 第2步:运行video.py 。 步骤3:尽情享受!
2021-10-25 16:20:03 110KB deep-learning yolo yolov2 Python
1
【深度学习】 适合于深度学习课程教案 @标特科技 版权所有,禁止商务用途。 #发展历史 神经网络>>深度学习(2006,Hinton等) # 深度学习理论 > 自下而上的非监督学习 > 自顶向下的 _监督学习 > 激励函数 > 特征表达 # 典型模型 用于大数据分析: > 稀疏自动编码器(SAE) > 限制波尔兹曼机(RBM) > 深信度网络(DBN) 用于图像分析[重点]: > 卷积神经网络(CNN) # 典型SDK > Caffe > TensorFlow > MXNet ...
2021-10-25 16:09:19 9.42MB 深度学习 deep learning AI
该存储库包含用于训练最新技术的心脏分割网络的代码,如本文所述:。 修改后的U-Net架构在MICCAI 2017 赛中获得第三名。 作者: 克里斯蒂安·鲍姆加特纳() 丽莎·科赫() 如果您发现此代码对您的研究有所帮助,请引用以下文章: @article{baumgartner2017exploration, title={An Exploration of {2D} and {3D} Deep Learning Techniques for Cardiac {MR} Image Segmentation}, author={Baumgartner, Christian F and Koch, Lisa M and Pollefeys, Marc and Konukoglu, Ender}, journal={arXiv preprint arXiv:1709.044
1
附件是VISIO版本的CNN的通俗解释。包含了卷积的运算过程的图片化过程展示。卷积神经网络的的运行步骤。
2021-10-25 11:46:54 134KB AI CNN Deep Learning
1
真棒图神经网络:图神经网络的论文清单
1
语义KITTI的API 此存储库包含帮助程序脚本,用于打开、可视化、处理和评估来自 SemanticKITTI 数据集的点云和标签的结果。 链接到原始数据集 链接到。 链接到 SemanticKITTI 基准。 链接到 SemanticKITTI MOS 基准(在 SemanticKITTI 网站添加 MOS 后可能会删除)。 序列 13 中的 3D 点云示例: 序列 13 中的 2D 球面投影示例: 用于语义场景完成的体素化点云示例: 数据组织 数据按以下格式组织: /kitti/dataset/ └── sequences/ ├── 00/ │   ├── poses.txt │ ├── image_2/ │
2021-10-24 16:24:15 66KB machine-learning deep-learning evaluation labels
1
数据融合matlab代码很棒的遥感深度学习 在这个项目中,我们将开源一些用于遥感分析任务的基线代码,例如语义分割,场景分类,对象检测和图像字幕。我们还将收集一些可用于遥感图像研究和开发的公共数据集。分析。 公共遥感数据集 基线代码(语义分割/场景分类/对象检测/图像字幕) OpenSoure代码 关于遥感的补充 公共遥感数据集 1,语义分割 6种城市土地覆盖物类别,光栅蒙版标签,4波段RGB-IR航拍图像(0.05m分辨率)和DSM,38个图像斑块 类别 指数 标签 颜色 1个 防渗表面 255、255、255 2个 建造 0、0、255 3 低植被 0、255、255 4 树 0、255、0 5 车 255、255、0 6 杂波/背景 255,0,0 下载 10种土地覆盖类别,从农作物到小型车辆,57张1x1km图像,3/16波段Worldview 3图像(0.3m-750m分辨率),Kaggle内核 10个土地覆盖类别,2017年高云Sentinel-2图像的时间堆栈(R,G,B,NIR,SWIR1,SWIR2; 10 m分辨率),带云罩,斯洛文尼亚官方土地使用土地覆盖层作为地面实
2021-10-23 21:13:20 286KB 系统开源
1
梯度集中TensorFlow 这个Python套件在TensorFlow中实现了梯度集中,这是Yong等人建议的一种简单有效的针对深度神经网络的优化技术。 。 它既可以加速训练过程,又可以提高DNN的最终泛化性能。 安装 运行以下命令进行安装: pip install gradient-centralization-tf 用法 为指定的优化器创建集中式渐变函数。 参数: optimizer :一个tf.keras.optimizers.Optimizer object 。 您正在使用的优化程序。 例子: >> > opt = tf . keras . optimizers . Adam ( learning_rate = 0.1 ) >> > optimizer . get_gradients = gctf . centralized_gradients_for_optimize
1
草图简化的示例结果。 图片由Eisaku ( )拥有版权,并且仅允许用于非商业研究用途。 总览 该代码提供了研究论文中使用的预训练模型: "Learning to Simplify: Fully Convolutional Networks for Rough Sketch Cleanup" Edgar Simo-Serra*, Satoshi Iizuka*, Kazuma Sasaki, Hiroshi Ishikawa (* equal contribution) ACM Transactions on Graphics (SIGGRAPH), 2016 和
2021-10-23 16:37:21 2.22MB deep-learning sketch torch pytorch
1
Keras图注意力网络 已淘汰 GAT的此实现不再得到积极维护,可能无法与Tensorflow和Keras的现代版本一起使用。 查看及其,以了解的Tensorflow / Keras实现。 这是Veličković等人的图注意力网络(GAT)模型的Keras实现。 (2017, )。 致谢 我与本文的作者没有任何隶属关系,出于非商业原因,我正在实施此代码。 作者发布了他们的,因此请检查一下以确保可以按预期工作。 它们的实现与我的实现略有不同,因此可能需要牢记。 如果您使用以下任何代码进行研究,则应引用该论文: @article{ velickovic2018graph, title="{Graph Attention Networks}", author={Veli{\v{c}}kovi{\'{c}}, Petar and Cucurull, Guillem and Ca
2021-10-23 16:32:08 5.07MB python deep-learning graph keras
1