裂缝的 Unet 语义分割 使用 PyTorch、OpenCV、ONNX 运行时的实时裂缝分割 依存关系: 火炬 OpenCV ONNX 运行时 CUDA >= 9.0 指示: 1.使用您的数据集训练模型并在supervisely.ly上使用unet_train.py保存模型权重(.pt文件) 2.使用pytorch_to_onnx.py将模型权重转换为ONNX格式 3.使用crack_det_new.py获取实时推理 裂纹分割模型文件可点击此下载 结果: 图表:
1
论文阅读笔记 Xie_Deep Learning Enabled Semantic Communication System 共计9页,详细手写
2022-07-28 18:22:00 2.14MB 手写笔记 论文阅读
1
无论是设计算法,准备和标注数据,还是生成代码并部署到嵌入式系统,只需短短几行 MATLAB? 代码,就可以在工作中应用深度学习方法。
深度对冲演示 使用机器学习对衍生产品定价 1) Jupyter version: Run ./colab/deep_hedging_colab.ipynb on Colab. 2) Gui version: Run python ./pyqt5/main.py Check ./requirements.txt for main dependencies. Black-Scholes(BS)模型-于1973年开发,并基于获得诺贝尔奖的作品-在近半个世纪以来一直是定价选择和其他金融衍生品的事实上的标准。 在理想的金融市场的假设下,可以使用该模型来计算期权价格和相关的风险敏感性。 然后,交易者可以从理论上使用这些风险敏感性来创建完善的对冲策略,以消除期权组合中的所有风险。 但是,在现实世界中很难满足完美金融市场的必要条件,例如零交易成本和连续交易的可能性。 因此,在实践中,银行必须依靠其交
1
ISIC 2018:黑色素瘤检测的皮肤病变分析 概括 更新:2018年7月15日,包括k倍验证以及验证/测试预测和提交。 该存储库为基于Keras / Tensorflow的ISIC-2018挑战的任务1和任务3提供了一个起始解决方案。 当前达到的性能是: 任务1 任务3 平均Jaccard的81.5% 准确度达83% 阈值Jaccard的77.2% 平均召回率68.5% 我们支持Keras支持的大多数骨干网(Inception,Densenet,VGG等)。 对于分段问题,我们还支持在U-Net类型结构中使用Keras预训练主干。 该代码是高度可配置的,允许您更改和尝试算法的许多方面。 下面,我们描述如何运行基准解决方案。 安装/设置 该代码使用:Python 3.5,Keras 2.1.6和TensorFlow 1.8.0。 请参阅需求文件以获取所需的软件包。 请
1
炸弹人 这是Bomberman使用强化学习技术“ Q-Learning”的模拟。 请参阅以获取文档。 致谢: 这个想法基于文章“用于迷宫解决的深度强化学习”
2022-07-25 17:22:39 8.33MB python qlearning deep-learning bomberman
1
因果关系的深度学习 建模功能的关系 学习图上的分布 表征是学习特征的丰富组成 潜在的因果变量 深度学习的因果关系 为什么DL有因果关系 DL中因果学习的基准 DL中因果学习的目标和架构 利用因果关系的概念来帮助DL
2022-07-21 21:05:35 7.67MB 深度学习
1
pytorch-pwc 这是使用PyTorch对PWC-Net [1]的个人重新实现。 如果您要利用这项工作,请相应地引用本文。 另外,请确保遵守作者的。 如果您要使用此特定实现,请适当确认它[2]。 有关这项工作的原始版本,请参见: : 我的另一个光流实现: : 我的另一个光流实现: : 我的另一种光流实现: : 背景 幸运的是,PWC-Net的作者已经在PyTorch中提供了参考实现。 但是,其初始版本未达到原始Caffe版本的性能。 这就是为什么我创建此存储库的原因,在其中我通过利用其权重来复制Caffe官方版本的性能。 从那时起,正式的PyTorch实施就采用了我使用Caffe权重的方法,这就是为什么它们现在都表现出色的原因。 但是,许多人在尝试运行正式的PyTorch版本时都报告了CUDA的问题,而我的重新实现似乎不受此类问题的影响。 设置 相关层是使用Cu
2022-07-21 21:01:56 1.65MB python deep-learning cuda pytorch
1
深度学习经典图书《Deep Learning》中文翻译版,这本书是由学界领军人物 Ian Goodfellow、Yoshua Bengio 和 Aaron Courville 合力打造,十分值得研读!!!
2022-07-21 14:56:28 11.59MB 深度学习 Deep Learning
1
变压器-TTS Pytorch实现 与众所周知的saco2seq模型(如tacotron)相比,该模型的训练速度快约3至4倍,并且合成语音的质量几乎相同。 通过实验确认,每步花费约0.5秒。 我没有使用波网声码器,而是使用tacotron的CBHG模型学习了后网络,并使用griffin-lim算法将频谱图转换为原始波。 要求 安装python 3 安装pytorch == 0.4.0 安装要求: pip install -r requirements.txt 数据 我使用了LJSpeech数据集,该数据集由成对的文本脚本和wav文件组成。 完整的数据集(13,100对)可在下载。 我将和用作预处理代码。 预训练模型 您可以 下载预训练的模型(AR模型为160K,Postnet为100K) 在检查点/目录中找到预训练的模型。 注意图 约15k步后出现对角线对齐。 以下注意图以16
2022-07-14 15:19:35 1.51MB text-to-speech deep-learning pytorch tts
1