监控视频中的真实世界异常检测:Pytorch RE实施 该存储库是使用pytorch重新实现的“监视视频中的真实世界异常检测”。 重新实施的结果是,与相比,我们获得了更高的AUC。 数据集 下载以下数据并解压缩到您的$ DATA_ROOT_DIR下。 / workspace / DATA / UCF-Crime / all_rgbs 目录树 DATA/ UCF-Crime/ ../all_rgbs ../~.npy ../all_flows ../~.npy train_anomaly.txt train_normal.txt test_anomaly.txt test_normal.txt 训
2021-11-16 22:05:29 13KB Python
1
目标检测论文解读1:(RCNN解读)Rich feature hierarchies for accurate object detection...-附件资源
2021-11-16 16:38:40 106B
1
雷达波形设计matlab代码雷达目标的产生与检测 Udacity的传感器融合工程师纳米学位计划项目 项目目标 这是基于MATLAB的雷达目标生成和检测实现,可用于: 使用提供的雷达设计规范进行FMCW波形设计 运动目标生成 信号传播 接收信号处理 距离多普勒FFT实现 CFAR检测 实施注意事项 该实现非常简单,以下是一些详细信息/说明: 1.雷达规格 规格已预先提供,并在下面列出: %% Radar Specifications %%%%%%%%%%%%%%%%%%%%%%%%%%% % Frequency of operation = 77GHz % Max Range = 200m % Range Resolution = 1 m % Max Velocity = 100 m/s 2.目标指标 对于目标参数,我使用以下值: %% User Defined Range and Velocity of target initial-position = 100 m initial-velocity = 25 m/s 3. FMCW波形生成 为此,标准的带宽和线性调频公式被用于。 下图
2021-11-16 13:11:41 236KB 系统开源
1
VisDrone(无人机航拍图像目标检测)的对象检测 我的环境 1,Windows10(可使用Linux) 2,tensorflow> = 1.12.0 3,python3.6(anaconda) 4,cv2 5,合奏盒(pip安装合奏盒) 数据集(训练集的XML格式) (1)。数据集可从(2)。请在(提取码:ia3f)或上下载xml批注,然后在./core/config/cfgs.py中进行配置(3)。您还可以使用./data/visdrone2xml.py生成您的visdrone xml文件,修改路径信息。 training-set format: ├── VisDrone2019-DET-train │ ├── Annotation(xml format) │ ├── JPEGImages 预训练模型(ResNet50vd,101vd) 请在(krce)或上下载
2021-11-16 10:51:13 557KB tensorflow object-detection fpn cascade-rcnn
1
颜色分类leetcode 深度宫颈癌:使用深度学习进行宫颈癌分类 概述 SIPakMed 数据集上宫颈癌分类的深度学习框架,可提高 PAP 涂片​​检查评估和癌症预后的准确性 简要总结 作为 ETH 项目的一部分,基于来自 PAP 测试涂片的细胞显微图像开发了用于宫颈癌检测和分类的深度学习框架。 该项目的目的是为医生提供一个有用的工具,以快速检测患者是否已经发展或有发展为宫颈癌的危险。简单地说,它构成了女性患者宫颈癌检测和预后的快速工具。 数据集 该模型将在 Pap 涂片图像中的正常和病理宫颈细胞的基于特征和图像的分类的新数据集上进行训练。 数据集可下载 该数据集由996张巴氏涂片(全片图像)的簇细胞图像组成,有5个宫颈细胞分类类别; a) 角化不良 b) Koilocytotic c) 化生性 d) 副基底层 e) 浅中级。 总体而言,该项目侧重于基于整个幻灯片显微细胞图像(不仅仅是裁剪的细胞图像,而是整个幻灯片)的 5 类分类分类 程序 下载 SIPakMed 数据集 SIPakMed 数据集结构需要类似于下图所示的结构。 使用“implementation_DatasetDivi
2021-11-16 10:03:42 20.21MB 系统开源
1
我使用 Harris 算法找出棋盘上的角点。
2021-11-15 23:44:40 2KB matlab
1
advance活体检测Android sdk包
2021-11-15 20:00:08 16.71MB advance android
1
advance liveness detection
2021-11-15 20:00:07 16.56MB AndroidX advance
1
每个预测的关键点由像素索引空间中的(x,y)实值对指定。有15个关键点,它们代表面部的以下元素:left_eye_center,right_eye_center,left_eye_inner_corner,left_eye_outer_corner,right_eye_inner_corner,right_eye_outer_corner,left_eyebrow_inner_end,left_eyebrow_outer_end,right_eyebrow_inner_end,right_eyebrow_corner_top_head_head_left_eye_lip_top_center,这里的左右是指主体的观点。在某些示例中,某些目标关键点位置丢失了(编码为csv中的丢失条目,即两个逗号之间没有任何内容)。输入图像在数据文件的最后一个字段中给出,并由像素列表(按行排序)组成,以(0,255)中的整数表示。图像为96x96像素。资料档案training.csv:训练7049张图像的列表。每行包含15个关键点的(x,y)坐标,以及图像数据作为按行排序的像素列表。test.csv:1783个测试图像列表。每行包含ImageId和图像数据作为按行排序的像素列表SubmittingFileFormat.csv:预测的27124个关键点列表。每行包含一个RowId,ImageId,FeatureName,Location。FeatureName是“ left_eye_center_x”,“ right_eyebrow_outer_end_y”等。位置是您需要预测的。
2021-11-15 19:58:35 76.29MB tensorflow facial_keypoint
1
YOLACT实时实例细分 介绍 这是ICCV2019接受的论文的Tensorflow 2实现。 本文在扩展现有对象检测体系结构及其自身并行原型生成思想的基础上,提出了一种用于实际实例分割的全卷积模型。 在此回购中,我的目标是提供一种使用此模型的通用方法,让用户根据原始论文的想法,为自己的特定需求提供更多灵活的选项(自定义数据集,不同的主干选择,锚点规模和学习率进度表)。 [更新] 2021/03/23请认真处理此工作! 模型 这是原始纸上的YOLACT的插图。 A.数据集和预处理 1.准备COCO 2017 TFRecord数据集 / / 从注释中将/train2017 , /val2017和/annotations/instances_train2017.json和/annotations/instances_val2017.json提取到./data文件夹中,然后运行: pyth
1