资源包含文件:设计报告word+源码及数据 Image Caption即我们常说的看图说话:给定一张图片,生成该图片对应的自然语言描述。 该任务涉及到了图像与自然语言两个模态,然而图像空间与自然语言空间本就十分庞大,并且两者之间存在巨大的语义鸿沟。 如何将两个庞大的语义空间进行对齐,这是该任务的重点。本项目对ClipCap: CLIP Prefix for Image Captioning 论文进行介绍,并且对论文在Flickr30k中文数据集上进行实验复现和效果展示。 详细介绍参考:https://biyezuopin.blog.csdn.net/article/details/125617468
2024-05-27 21:05:53 5.62MB Python 源码 课程设计
python3版本,包含spice评价指标。各种环境已经编好,直接修改路径就可以使用。 参考网上各种资料,直接修改路径就可以使用。但是要装JDK.
2022-02-28 23:29:24 70.14MB image caption
1
图像字幕生成器 使用CNN和RNN生成图像描述。
2021-10-11 14:46:33 43.61MB JupyterNotebook
1
Image caption 数据集链接-附件资源
2021-09-17 18:04:19 106B
1
图像字幕生成 InceptionV3-多层GRU(Keras和TensorFlow) 要求: Python 3.6 TensorFlow 1.13.1(安装tensorflow-1.13.1-cp36-cp36m-win_amd64.whl) 凯拉斯2.2.4 Joblib 1.0.1 Matplotlib 3.3.4 Open CV 4.5.1 熊猫1.1.5 Nltk 3.5 下载Flickr30k或MSCOCO数据集图像和标题。 训练模型的步骤: 克隆存储库以保留目录结构。 对于Flickr30k放在flickr30k图像文件夹或MSCOCO results_20130124.token和Flickr30k图像放captions_val2014.json和MSCOCO图像COCO-images文件夹中。 通过运行以下python keras2tensorflo
2021-09-04 17:16:28 63.06MB JupyterNotebook
1
图像字幕生成器 使用CNN和RNN生成图像标题
2021-05-31 15:59:50 25.52MB JupyterNotebook
1
keras首次加载vgg16模型的时候,会先下载该模型模型已经预训练好的模型权重文件。使用keras下载速度着实令人着急,有需要用的朋友自取。
2021-05-28 22:27:51 489.97MB image-caption vgg16预训练模型权重.h5文
1
Tensorflow实现:图像描述---Show and Tell: A Neural Image Caption Generator-附件资源
2021-05-12 22:20:45 106B
1
数据集下载链接:https://www.imageclef.org/photodata 请把数据集放在:程序neural_image_captioning\datasets\中 完整工程:图像描述---Show and Tell: A Neural Image Caption Generator,使用keras实现图像描述,运行环境(keras==2.0.3,tensorflow==1.1.0,pandas==0.19.1,numpy==1.12.1,h5py==2.7.0,matplotlib==2.1.0,pillow==4.3.0)
2021-04-10 19:39:35 171.88MB imagecaption
1
本代码为image caption基于python的代码,经测试,可以正常使用。
2021-03-19 17:25:07 232KB DL Python CV NLP
1