实体对齐旨在在不同的知识图(KG)中找到引用同一真实世界对象的实体。 KG嵌入的最新进展推动了基于嵌入的实体对齐的出现,该对齐方式在连续的嵌入空间中对实体进行编码,并根据学习到的嵌入来度量实体的相似性。 在本文中,我们对这一新兴领域进行了全面的实验研究。 这项研究调查了23种最新的基于嵌入的实体对齐方法,并根据它们的技术和特征对其进行了分类。 我们进一步观察到,当前的方法在评估中使用不同的数据集,并且这些数据集中的实体的程度分布与真实的KGs不一致。 因此,我们提出了一种新的KG采样算法,通过该算法我们可以生成一组具有各种异质性和分布的专用基准数据集,以便进行实际评估。 这项研究还产生了一个开源库,其中包括12种代表性的基于嵌入的实体对齐方法。 我们在生成的数据集上对这些方法进行了广泛的评估,以了解它们的优势和局限性。 此外,对于当前方法中尚未探索的几个方向,我们进行探索性实验并报告我们的
1
matlab人脸识别代码具有两个阶段的人脸对齐重新初始化 CVPR 2017论文“具有两阶段重新初始化的深度回归架构,用于高性能面部地标检测”的测试代码。 要求 Linux OS上Caffe平台的一般环境:。 Matlab 2013a或更高版本 CUDA(如果使用Nvidia GPU) 介绍 由于不同的面部检测器通常会返回具有不同比例和中心偏移的各种面部边界框,因此如果面部界标检测算法可以产生鲁棒的结果而不过多依赖面部检测结果,这将非常有用。 为了显式处理基于回归的界标检测方法中的初始化问题,我们提供了一种具有从头到尾学习的“两阶段重新初始化”的深度回归体系结构。 我们提出的深度架构经过了端到端的培训,并使用各种不稳定的初始化方法获得了可喜的结果。 与许多竞争算法相比,它还具有出色的性能。 我们的方法与其他基准方法在300W和AFLW数据集上的比较如下所示,更多细节可以在初始论文中找到。 运行测试代码 这些模型保存在百度SkyDrive中: 300W型号:链接:密码​​:qzmi aflw的型号:链接:密码​​:1j8e 在此项目中成功构建CAFFE并下载模型后,只需在demo文件夹中
2021-11-21 16:10:27 59.26MB 系统开源
1
这是一个用于轴标签对齐的简单 MATLAB 函数。 当投影模式为 Perspective 或 DataAspectRatio 不是 [1 1 1] 时,它仍然有效。 ## 职能- `align_axislabel`:将$x$、$y$和$z$标签旋转到其对应轴的方向,并将标签移动到与轴适当的距离; - `align_axislabel_log`:支持 $z$ 轴的对数刻度; - `axislabel_rotation`:它只执行旋转; - `axislabel_rotation_angle`:计算$x$、$y$ 和$z$ 标签的正确旋转角度(不执行实际旋转); - `axislabel_translation`:将轴标签移动到与轴适当的距离; - `axislabel_translation_slider`:用于设置参数`AXISALIGN_TRANS_A` 和`AXISALIGN_TRA
2021-11-20 12:00:13 19KB matlab
1
关于DeepFam DeepFam是一种基于深度学习的无比对蛋白质功能预测方法。 DeepFam首先通过卷积层从原始序列中提取保守区域的特征,然后根据这些特征进行预测。 特征 免比对:不需要多重或成对序列比对来训练族模型。 取而代之的是,通过卷积单元和1-max池训练家庭中局部保留的区域。 卷积单元的工作方式与PSSM类似。 利用可变大小的卷积单元(多尺度卷积单元)来训练通常长度各异的特定于家庭的保守区域。 安装 DeepFam是在库中实现的。 CPU和GPU机器均受支持。 有关安装Tensorflow的详细说明,请参阅的。 要求 的Python:2.7 Tensorflow:超过1.0 用法 首先,克隆存储库或下载压缩的源代码文件。 $ git clone https://github.com/bhi-kimlab/DeepFam.git $ cd DeepFam 您可以通过帮
1
SelfSAGCN Self-Supervised Semantic Alignment for Graph Convolution Network
2021-11-18 10:01:19 1.8MB
通过3D密集人脸重建实现稳定的头部姿势估计和地标回归 通过Tensorflow Lite框架,人脸网格,头部姿势,界标等,重新实现。 CPU实时人脸检测,对齐和重建管线。 轻量级渲染库,比工具快5倍(3对 。 通过单个网络的相机矩阵和密集/稀疏地标预测。 生成面部参数以实现可靠的头部姿势和表情估计。 设置 基本要求 Python 3.6+ pip3 install -r requirements.txt 渲染致密脸 GCC 6.0+ bash build_render.sh (谨慎)对于Windows用户,请参考以获取更多详细信息。 3D人脸地标 在这个项目中,我们通过3DMM参数回归进行密集人脸重建。 回归目标简化为相机矩阵( C ,形状为3x4),外观参数( S ,形状为1x40)和表达变量( E ,形状为1x10),共有62个维度。 可以通过将这些参数应用于预定义的
1
G. Tzimiropoulos, and M. Pantic, "Optimization problems for fast AAM fitting in-the-wild," ICCV 2013 1. Download the Zhu and Ramanan detector from http://www.ics.uci.edu/~xzhu/face/ 2. Get it to work 3. Re-order the points returned by the detector according to the provided AAM configuration (i.e. the points in Zhu and Ramanan and the points in the provided AAM code are ordered differently) 4. Use the procrustes Matlab built-in function between the detected points (from Zhu and Ramanan) and the mean shape (from AAM).
2021-11-11 14:29:36 11.36MB face alignment AAM
1
功能:用于惯性导航的位置速度姿态时间更新 输入: t1 %时刻(s),GPST r1 %位置,纬度(rad)、经度L(rad)、高程(m) v1 %当地北东地坐标系n 中的速度(m/s) q1 %n 系至 b 系的旋转单位四元数,无量纲 f1 %b系中的视加速度(m/s^2) w1 %b系相对于i 系的旋转角速度矢量在b系中的值(rad/s) dt %时间间隔(s) 输出: r2 %位置,纬度(rad)、经度L(rad)、高程(m) v2 %当地北东地坐标系n 中的速度(m/s) q2 %n 系至 b 系的旋转单位四元数,无量纲
2021-10-31 20:23:35 2KB matlab
1
焦点深度 离焦/散焦深度是从场景的两个或多个图像的集合中估计场景的 3D 表面的问题。 图像是通过改变相机参数(通常是焦点设置或图像平面轴向位置)获得的,并从相同的角度拍摄。 要求 要运行此代码,您需要安装一个包 。 它必须按照各自项目页面上的说明单独安装。 管道 1. 图像对齐:基于特征的对齐 [1, 2, 3] 将 RGB 图像 A 和 B 转换为灰度图像 A' 和 B' 检测SIFT特征 A' 和 B' 匹配 A' 和 B' 之间的特征 计算 A' 和 B' 之间的单应性 使用单应性将 A 与 B 对齐 对所有图像序列(焦点堆栈)重复 1)~5)。 2. 焦点测量的初始深度 [4, 5, 6, 7] Focus Measure 算子计算图像中的最佳聚焦点,即Focus Measure 被定义为用于局部评估像素锐度的量。 当以小景深拍摄图像时,远离相机的物体会失焦并被认为是模糊
1
EAkit 实体对齐工具包(EAkit),是许多实体对齐算法的轻量级,易于使用且高度可扩展的PyTorch实现。 算法列表来自 。 目录 设计 我们对现有的实体对齐算法进行排序并对其组成进行模块化,然后将抽象结构定义为1 Encoder-N Decoder(s) ,其中将不同的模块视为不同编码器和解码器的特定实现,以恢复算法的结构。 组织 ./EAkit ├── README.md # Doc of EAkit ├── _runs # Tensorboard log dir ├── data # Datasets. (unzip data.zip) │   └── DBP15K ├── examples
1