走向端到端基于视频的眼动追踪 ECCV 2020出版物和数据集EVE随附的代码。 作者: , , 和 项目页面: : 设置 最好为此存储库设置Docker映像或虚拟环境(建议使用 )。 请注意,我们已经在以下环境中测试了此代码库: Ubuntu 18.04 /基于Linux的集群系统(CentOS 7.8) Python 3.6 / Python 3.7 PyTorch 1.5.1 使用以下命令在某个地方克隆该存储库: git clone git@github.com:swook/EVE cd EVE/ 然后从该存储库的基本目录中,使用以下命令安装所有依赖项: pip install -r requirements.txt 请注意, 设立的torch和torchvision您的特定系统上的软件包。 您还需要设置ffmpeg进行视频解码。 在Linux上,我们建
2022-03-26 10:27:09 1.18MB Python
1
用卷积滤波器matlab代码TCN的眼动分类 用于三级眼动分类问题的时间卷积网络(3EMCP) 该存储库提供对代码库,模型和评估结果的访问,该论文在论文《带有时间卷积网络的眼动分类》中进行了描述(将很快提供链接)。 请注意,此处共享的大多数代码最初是由实施的。 我们仅添加了对TCN的支持,将其升级到Python 3,实现了一些新工具,并在Python中提供了一个新的功能提取器(原始功能提取器在MATLAB中)。 配置 为了训练新的基于TCN的模型或评估先前训练的模型,您需要首先下载一些包含所有必要数据的大型压缩文件,然后根据以下说明进行提取: 下载,其中包含GazeCom预先计算的功能(具有额外的比例和功能),并将其提取到data/inputs/ 下载具有所有受过训练的模型的压缩文件,并将其解压缩到存储库根文件夹中 下载,将文件包含经过训练的模型的生成的输出进行评估,然后将其提取到存储库根文件夹中 已知依赖 Python 3.6+ TensorFlow 2.0+ 脾气暴躁的 训练 要训​​练新的TCN模型,应运行train_tcn.py脚本,但首先需要设置训练参数。 这是在代码中完成的
2022-03-22 06:07:27 33.85MB 系统开源
1
matlab噪声点的判断代码自动校正眼动数据垂直漂移的算法 该存储库包含在Behavior Research Methods 上发表的关于垂直漂移校正算法的论文的代码和数据。 您可以下载开放获取论文,也可以观看我们的 15 分钟心理经济学演讲。 如果您只是想更正一些眼动数据,您可能首先需要查看 Python 包或 R 包。 这些软件包提供了更通用、更高级的工具,用于管理、清理和分析眼动追踪数据,特别强调阅读行为。 这包括使用论文中报告的许多算法来纠正垂直漂移问题的能力。 或者,如果您想做一些更复杂的事情(例如,您想将一个或多个算法集成到您自己的分析代码中),那么请查看algorithms/目录。 在那里,您将找到可用作起点的 Matlab、Python 和 R 函数。 您可能需要做一些工作来将这些功能重组为对您的特定项目有意义的内容。 如果您想复制论文中报告的分析或以我们的工作为基础,请继续阅读... 此存储库的结构 algorithms/ :漂移校正算法的 Matlab/Octave、Python 和 R 实现。 code/ :用于分析算法的 Python 代码(使用模拟和自然数据集
2022-03-17 11:04:29 10.92MB 系统开源
1
PyEyetracker Tobii眼动仪的python界面 用法 将.dll和.pyd文件下载到您的项目python文件夹中 from EyeTracker import init, getBuffer 看一下example.py 要求 Windows 10 Python3.7 32位 Visual Studio 2019 Tobii本机流引擎 开发更多 我只使用了一小部分Tobii提供的SDK。 如果要开发更多功能,此部分可能会有所帮助。 我按照[1]和[2]的代码开发此API。 我的经验是:在Visual Studio中使用Nuget下载Tobii Native Stream Engine。 然后按照[1]的设置进行操作。 参考
2022-02-26 20:14:36 584KB eye-tracking tobii-eye-tracker C++
1
非常难得的一本电子书 对人机交互中的眼动跟踪技术尽情详细深入的探讨 机会难得 不要犹豫了!
2022-02-20 23:11:39 3.19MB 眼动跟踪 人机交互
1
为提高基于EOG的眼动信号分类算法精度,改进基于EOG的人—机交互系统性能,提出了一种基于曲线拟合(curve fitting)与支持向量机(SVM)的眼动信号分类算法(CF-SVM),并设计了新的实验范式,增加了“扫视保持”环节。该算法采用曲线拟合方法进行特征提取,在此基础上,使用SVM分类器对眼动信号进行分类。实验室环境下,对9名眼部活动正常的受试者进行了眼动数据采集与识别,CF-SVM算法的平均分类准确率达到98.3%,与其他几种眼动识别方法相比较,其平均正确率分别提升了9.4%、5.9%、1.0%。实验结果表明,CF-SVM算法在眼动信号识别中表现了良好的性能,具有高的分类精度和鲁棒性。
1
注视数据捕获 在论文“ MPIIGaze:真实世界的数据集和基于深度外观的注视估计”中实现数据捕获
2021-12-21 11:07:50 78.09MB Python
1
使用Python+OpenCV实现实时眼动追踪,不需要高端硬件简单摄像头即可实现,效果图如下所示。   项目演示参见:https://www.bilibili.com/video/av75181965/ 项目主程序如下: import sys import cv2 import numpy as np import process from PyQt5.QtCore import QTimer from PyQt5.QtWidgets import QApplication, QMainWindow from PyQt5.uic import loadUi from PyQt5.QtGui
2021-12-17 16:12:29 124KB gray 示例
1
眼动追踪 用户体验设计利器。以用户体验研究为背景,介绍了眼动追踪技术的基本原理、在人机交互发展过程中评估用户体验的重要性和实践,并对眼动追踪技术在商务网站、移动设备、社交媒体、视频游戏等多个领域中的应用进行阐述,旨在提升用户体验。对产品进行更好的优化,也使设计人员更深入地了解用户浏览和使用技术的方式。
2021-12-08 14:44:44 63.87MB 眼动 用户体验
1
关于使用线性模型,逻辑回归和增长曲线分析来分析眼动数据的R Workshop 这个由4部分组成的系列最终以使用增长曲线分析为眼动数据建模。 R简介 什么是数据帧和向量? R函数如何工作? R中的统计检验如何工作? 如何导入和导出数据? 通用线性模型 如何在R中拟合线性模型? 什么时候应该使用aov()和什么时候应该使用lm()? 如何解释参数估计值(无需SPSS ...)? 广义线性模型 如何使用广义线性模型(例如,逻辑回归)进行基于时间的眼动追踪分析? 如何在同一端使用经验logit回归? 和反正弦根转换吗? 混合效果模型的随机效果(截距和斜率)如何在lmer()中工作? 增长曲线分析 我如何看待随时间变化的非线性变化? 自然多项式和正交多项式有什么区别? 如何解释增长曲线模型与经验对数模型的估计? 如何可视化我的原始数据和模型拟合? 致谢 Dan Mirman适用于GCA技术 Dal
2021-11-29 17:10:36 7.25MB HTML
1