使用张量投票进行3D模型检索
2021-12-20 20:25:13 454KB 研究论文
1
贝叶斯泊松因子 贝叶斯泊松张量因子分解这是可扩展的贝叶斯张量因子分解模型的matlab实现,其中包含在线推理和在线与并行推理。 该代码与我们的以下两个出版物有关: (1)胡楚,赖佩瑞,陈晨,哈丁,卡林大规模计数数据的可伸缩贝叶斯非负张量分解,ECML-PKDD 2015,葡萄牙波尔图。 (2)C.胡,P。赖,L。卡林。 大规模二元张量的零截断泊松张量分解,UAI 2015,阿姆斯特丹,荷兰。 运行demo_parallel.m来运行代码,我们在这里使用的数据是GDELT政治科学数据。 您需要以两个变量的形式准备数据:id和xi; 并将其存储在xi_id.mat;中 id:应该是1X4像元,第k个像元是一个向量,在张量中存储非零的第k个模式索引xi:是一个向量,存储张量的所有非零 如果设置paralellFlag = 0,则可以运行在线推断。 如果速度太慢,则可以通过设置paralel
2021-12-17 11:27:32 2.2MB MATLAB
1
变分贝叶斯推断matlab代码稳健流张量因式分解 此存储库包含与将出现在 IEEE ICDM 2018 上的论文“Variational Bayesian Inference for Robust Streaming Tensor Factorization and Completion”相关的代码。论文作者是 和 。 有关此代码的问题,请联系 Cole Hawkins。 我们的贡献包含在文件“streaming_bayesian_completion.m”中。 我们的代码需要 Matlab Tensor Toolbox: 要运行 OLSTEC 文件夹中的所有文件,您将需要 Poblano 工具箱:
2021-12-16 16:06:32 74.57MB 系统开源
1
最近的基于低秩的矩阵/张量恢复方法已经在多光谱图像(MSI)去噪中得到了广泛的探索。 但是,这些方法忽略了固有结构相关性沿空间稀疏性,光谱相关性和非局部自相似性模式的差异。 在本文中,我们通过对矩阵和张量情况下的秩属性进行详细分析,进一步找出非局部自相似性是关键因素,而其他人的低秩假设可能不成立。 这促使我们设计一个简单而有效的单向低秩张量恢复模型,该模型能够如实地捕获固有的结构相关性,并减少计算负担。 然而,由于重叠的补丁/立方体的聚集,低等级模型遭受了振铃伪影。 虽然以前的方法诉诸于空间信息,但我们通过利用MSI中的专有频谱信息来解决此问题,从而提供了一个新的视角。 引入基于分析的超拉普拉斯先验模型对全局频谱结构进行建模,以间接减轻空间域中的振铃伪影。 与现有方法相比,该方法的优点是多方面的:更合理的结构相关可表示性,更少的处理时间以及重叠区域中更少的伪影。 所提出的方法在多个基准上得到了广泛评估,并且明显优于最新的MSI去噪方法。
2021-12-11 20:21:51 1.87MB 研究论文
1
matlab精度检验代码神经张量网络 Socher,Richard和Chen,Danqi和Manning,Christopher D和Ng,Andrew编写的基于神经张量网络推理的Matlab原始实现,用于完成知识库 这是论文中的数据集和代码: 使用神经张量网络进行知识库完善的推理Richard Socher,Danqi Chen,Christopher Manning,Andrew Ng神经信息处理系统的进步(NIPS 2013) 如果您在研究中使用数据集/代码,请引用以上论文。 @incollection {SocherEtAl2013:DeepKB,标题= {与神经张量网络进行知识库完善的原因},作者= {Richard Socher和Danqi Chen以及Christopher Manning和Ng Andrew},书名= {NIPS},年份= {2013}} =====数据===== 文件夹data /中包含两个数据集:WordNnet /,Freebase /。 每个数据集包含六个文件: train.txt:培训文件,格式(e1,rel,e2)。 dev.txt:dev文
2021-12-04 21:42:08 125.74MB 系统开源
1
复位响应 PID_Compact V.1.1 或更高版本 Reset 出现上升沿时会触发切换到“未激活”模式;复位错误和警告并删除积分作用。 Reset 出现下降沿时会触发切换到最近激活的操作模式。如果之前自动模式已激活,则会 以无扰动切换的方式对积分作用进行预分配。 ① 激活 ② 错误 ③ 复位
2021-11-30 15:58:03 5MB 西门子 PID PLC
1
数字视频广播网 :game_die: 用于“多视图深度子空间群集网络”的Tensorflow回购 (提交给TIP 2019 ) 概述 在这项工作中,我们通过以端到端的方式学习多视图自表示矩阵,提出了一种新颖的多视图深子空间聚类网络(MvDSCN)。 MvDSCN由两个子网组成,即分集网络(Dnet)和通用网络(Unet)。 在深度卷积自动编码器上建立潜在空间,并使用完全连接的层在潜在空间中学习自表示矩阵。 Dnet学习特定于视图的自表示矩阵,而Unet学习所有视图的公共自表示矩阵。 为了利用多视图表示的互补性,引入希尔伯特·施密特独立标准(HSIC)作为分集正则化,可以捕获非线性和高阶视图间关系。 由于不同的视图共享相同的标签空间,因此每个视图的自表示矩阵通过通用性正则化与公共视图对齐。 要求 张量流 科学的 麻木 斯克莱恩 蒙克雷斯 用法 通过发布结果进行测试: python main.py --t
2021-11-30 10:35:48 26MB Python
1
matlab中svm中核函数代码Matlab:copyright:/ Octave:copyright:的内核化支持张量火车机(KSTTM)[1] 该软件包包含Matlab / Octave代码,用于Kernelized Support Tensor Train Machines中提到的方法,即K-STTM-Prod和K-STTM-Sum。 要求 Matlab或Octave。 CVX工具箱[3]。 职能 fmri_demo 演示了KSTTM算法的用法。 [K] = kernel_mat(X,N,d,sigma,weight,flag) 给定训练TT格式数据,训练样本数,张量数据的阶数,高斯核参数sigma,张量数据的第一和第二模式的权重,用于K-STTM-Prod和K-STTM-Prod的内核矩阵构造,以及标志。 [Ypred] =预测(XX,alpha,b,X,Y,sigma,d,权重,标志) 针对K-STTM-Prod和K-STTM-Prod的标签预测功能,给出了用于预测的TT格式数据,学习的Lagrange乘数,SVM求解器中的学习偏差,训练TT格式数据,训练数据的标签,高斯核参数sigma,张量数据的顺序,张量数据的
2021-11-29 12:14:23 4.49MB 系统开源
1
欧拉公式求长期率的matlab代码火炬 复杂张量和复杂函数的Pytorch扩展。 受启发。 根据论文: 深度复杂网络() ary进化递归神经网络() 关于复值卷积神经网络() 表中的内容: 职能 exp(z) 对数(z) 罪(z) cos(z) tan(z) tanh(z) sigmod(z) softmax(z) ReLU函数版本,用于复数 以下文档中的更多信息 CReLU(z) zReLU(z) modReLU(z,偏差) 复合张量操作 加法(z +其他和其他+ z) 减法(z-其他​​和其他-z) 乘法(z *其他和其他* z) 矩阵乘法(z @ other和other @z) 除法(z /其他和其他/ z) ComplexTensor的功能和属性 z.real(z的实部) z.imag(z的虚部) z.PDF(dim)(概率密度函数,更多信息请参见下面的文档) z.wave(dim)(返回可以用作波动函数的归一化ComplexTensor(下面有更多信息)) z.size()(张量大小) len(z)(张量长度) z.euler()(返回2个张量:R和以Euler表示) abs
2021-11-29 10:30:08 6KB 系统开源
1
采摘 Matlab编码矩张量相位拾取和反演。
2021-11-29 09:51:29 30.57MB MATLAB
1