本书涵盖了用于数字图像增强和多尺度图像表示的非线性偏微分方程(PDE)方法背后的主要思想。
2022-03-29 22:54:15 105B 计算机科学
1
MapReduce处理图片,程序也是参考了很多网上资料。(工程不一定能直接运行,但是代码应该是可以参考的。)
2022-03-29 21:28:32 2.95MB Hadoop Image Analyze
1
%%打开DICOM数据并将其保存为图像文件%变量%filename = 'filename' 括起来,要转换的 dicom 文件的名称%imagetype = 用“imagetype”括起来,输出图像类型的名称(png、bmp、jpg、png、tiff、gif 等。) 函数 dicom2image(文件名,图像类型) % Dicom 到图像转换器% 作者:兰斯·蒂诺% 版本:0.2 %% 输入错误检查%%%%%%%%%%%%%%%%%%%%%%%输入姓名%%%%%%%%%%%%%%%%%%%%%%%%% %%%%%%%%%%%%%% 如果 ~exist('filename','var') % 不存在error('你需要一个输入名称!'); 结尾%%%%%%%%%%%%%%%%%%%%%%% 图像类型 %%%%%%%%%%%%%%%%%%%%%%%%% %%%%%%%%%%%%%%% 如果
2022-03-29 19:01:29 2KB matlab
1
今天小编就为大家分享一篇Python 实现将数组/矩阵转换成Image类,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
2022-03-29 15:43:36 206KB Python 数组 矩阵 Image类
1
NIMA:神经影像评估 实现 Keras + Tensorflow中的,并在AVA数据集上训练MobileNet模型的权重。 NIMA为图像分配了“均值+标准偏差”得分,可以用作自动检查图像质量的工具,也可以用作损失函数来进一步改善生成的图像的质量。 包含在AVA数据集上针对以下模型训练的权重: NASNet Mobile(由于 !而在valset上的EMD为0.067 EMD,仅需预训练即可0.0848 EMD) Inception ResNet v2(在valset上约为0.07 EMD,感谢 !) MobileNet(valset上为0.0804 EMD) 用法 评价 有eva
2022-03-29 14:25:05 14.01MB tensorflow keras ava-dataset neural-image-assessment
1
调用手机相册,并把选定照片,装载到image中。非直接调用TActionList的标准动作,也是考虑到android系统的一些权限设置。
2022-03-29 11:16:02 34KB XE10.3.3 安卓 FMX
1
Image Processing with ImageJ, 2nd Edition
2022-03-29 09:22:37 4.05MB 图像处理
1
A Survey of Image Registration Techniques (1992)
2022-03-28 22:53:09 384KB A Survey of Image
1
安装eve-ng后,必须上传三大组件才能运行路由交换设备。三大组件分别是Dynamips,IOL,QEMU。Dynamips是一个基于虚拟化技术的模拟器,用于运行CISCO路由器真实的操作系统;IOL是运行在 Linux 系统上的 Cisco IOS,理论上可运行在 基于 x86 的任意 Linux 发行版系统上。QEMU(Quick Emulator)是虚拟化领域中非常著名的开源产品,最早出现在 2006 年 6 月 23 日,名字为 QEMU accelerator,版本为 version 1.3.0 pre9。
2022-03-28 22:44:17 122.54MB eve-ng Dynamips
1
GIQA:生成的图像质量评估 这是ECCV2020“ GIQA:生成的图像质量评估”的正式pytorch实现( )。 该存储库的主要贡献者包括Microsoft Research Asia的Gu Shuyang,Bao Jianmin Bao,Dong Chen和Fang Wen。 相关论文采用GMM-GIQA来改善GAN的性能:PriorGAN( )。 介绍 GIQA旨在解决单个生成图像的质量评估问题。 在此源代码中,我们发布了易于使用的GMM-GIQA和KNN-GIQA代码。 引文 如果您发现我们的代码对您的研究有所帮助,请考虑引用: @article{gu2020giqa, title={GIQA: Generated Image Quality Assessment}, author={Gu, Shuyang and Bao, Jianmin and Chen, D
1