bagofwords_classification是opencv_contrib中用bags of words对图像进行分类的一个范例,其测试数据是PASCAL VOC。PASCAL VOC为图像识别和分类提供了一套标准化的优秀数据集,该数据集是验证各种精妙算法性能的标准评估系统。在配置好opencv和opencv_contrib,准备好VOC测试数据的前提下,该工程可以直接编译,访问livezingy.com可以获取更多详细信息。
2021-09-04 19:06:48 12.96MB BOW classify VOC2010
1
File descriptions • /stage1_train/* - training set images (images and annotated masks) • /stage1_test/* - stage 1 test set images (images only, you are predicting the masks) • /stage2_test/* (released later) - stage 2 test set images (images only, you are predicting the masks) • stage1_sample_submission.csv - a submission file containing the ImageIds for which you must predict during stage 1 • stage2_sample_submission.csv (released later) - a submission file containing the ImageIds for which you must predict during stage 2 • stage1_train_labels.csv - a file showing the run-length encoded representation of the training images. This is provided as a convenience and is redundant with the mask image files.
2021-07-17 13:48:59 358.35MB kaggle data-science-bow
1
详细的词袋模型代码,用于图像检索等。用到了k近邻搜索,kmeans 算法等,注释清晰,利于学习交流。
2021-07-05 15:36:30 25.31MB kmeans bow KNN
1
压缩包包括两个文档,一个是斯坦福的LiFeiFei2011年上课时的课件,详细讲解BOV的来龙去脉。另一个是2011年出的opencv2.2的bag of visual words-classification例程,很适合理解BoV的构建与应用过程。
2021-06-29 01:26:13 13.74MB BOW BOV SIFT KMEAN
1
bag-of-words- 基于opencv-python的sift、kmeans、bow图像检索 需要配置opencv、sklearn、scipy、numpy 创建两个文件夹就行 默认图像训练文件名为dataset 我用的是101_ObjectCategories图片集 所以在读入图片时做了更改 默认查找图像文件名为query 用命令行执行python findFeatures.py -t dataset/ 开始生成模型 用命令行执行python search.py -i query/target.jpg 查找目标图片
2021-06-21 10:37:26 3KB Python
1
图像的特征用到了Dense Sift,通过Bag of Words词袋模型进行描述,当然一般来说是用训练集的来构建词典,因为我们还没有测试集呢。虽然测试集是你拿来测试的,但是实际应用中谁知道测试的图片是啥,所以构建BoW词典我这里也只用训练集。 其实BoW的思想很简单,虽然很多人也问过我,但是只要理解了如何构建词典以及如何将图像映射到词典维上去就行了,面试中也经常问到我这个问题,不知道你们都怎么用生动形象的语言来描述这个问题? 用BoW描述完图像之后,指的是将训练集以及测试集的图像都用BoW模型描述了,就可以用SVM训练分类模型进行分类了。 在这里除了用SVM的RBF核,还自己定义了一种核: histogram intersection kernel,直方图正交核。因为很多论文说这个核好,并且实验结果很显然。能从理论上证明一下么?通过自定义核也可以了解怎么使用自定义核来用SVM进行分类。
2021-04-24 16:15:49 3.42MB BOW,图像分类
1
C++实现BOW模型,用于图像分类,内有详细注释,和用于实验的图片
2021-03-04 16:36:01 8.13MB BoW 图像分类
1
本demo实现的是基于bow原理对图片进行分类,并实现对选取得测试集进行查找 BoW(Bag of Words)词袋模型最初被用在文本分类中,将文档表示成特征矢量。它的基本思想是假定对于一个文本,忽略其词序和语法、句法,仅仅将其看做是一些词汇的集合,而文本中的每个词汇都是独立的。简单说就是讲每篇文档都看成一个袋子(因为里面装的都是词汇,所以称为词袋,Bag of words即因此而来),然后看这个袋子里装的都是些什么词汇,将其分类。如果文档中猪、马、牛、羊、山谷、土地、拖拉机这样的词汇多些,而银行、大厦、汽车、公园这样的词汇少些,我们就倾向于判断它是一篇描绘乡村的文档,而不是描述城镇的。 serachFeatures.py中,前面主要是一些通过parse使得可以在敲命令行的时候可以向里面传递参数,后面就是提取SIFT特征,然后聚类,计算TF和IDF,得到单词直方图后再做一下L2归一化。一般在一幅图像中提取的到SIFT特征点是非常多的,而如果图像库很大的话,SIFT特征点会非常非常的多,直接聚类是非常困难的(内存不够,计算速度非常慢),所以,为了解决这个问题,可以以牺牲检索精度为代价,在聚类的时候先对SIFT做降采样处理。最后对一些在在线查询时会用到的变量保存下来。对于某个图像库,我们可以在命令行里通过下面命令生成BoF。 query.py只能每次查找一张图片,并返回与之匹配度(递减)最接近的6张图片
2020-01-03 11:39:45 117.35MB bow python
1
利用bow训练器进行k-means聚类,训练svm分类器进行车辆检测
2020-01-03 11:33:12 3KB 车辆检测
1
图像的特征Dense Sift提取,通过Bag of Words词袋模型进行描述,用BoW描述完图像之后,指的是将训练集以及测试集的图像都用BoW模型描述了,就可以用SVM训练分类模型进行分类了。在这里除了用SVM的RBF核,还自己定义了一种核: histogram intersection kernel,直方图正交核。很多论文说这个核好,并且实验结果很显然。能从理论上证明一下么?通过自定义核也可以了解怎么使用自定义核来用SVM进行分类
2020-01-03 11:24:00 3.42MB SIFT+BOW+SVM
1