wiz-editor多人实时编辑器使用说明 wiz-editor是一个支持多人实时协同编辑的网页富文本编辑。 官网: : 在线演示: : 视频演示 编辑器主要特性 支持多人实时协同编辑,单一文档可以支持多个1000人同时编辑器。 支持扩展各种业务模块。可以自定义行内/行间模块。 可以接入业务用户系统及权限,文档权限完全由业务控制。 纯h5原生开发,可以直接嵌入各种web应用中 允许脱离服务端直接使用(此时无多人实时协作能力,可作为传统网页编辑器使用) 支持word文件导入,office文件预览 支持markdown语法 完整的二次开发支持。所有接口包含typescript定义。 适用场景 开发企业在线文档/ wiki等应用。 wiz-editor提供了强大的扩展能力,可以将企业的业务集成到文档里面。例如,常规的提醒,任务,日历等整合,可以和企业内部的IM,任务系统进行整合。同时利用
2021-12-23 16:55:02 605KB editor realtime collaboration TypeScript
1
消息! 2020年8月: 发布了! 更强大的追踪! 包括全身(脸,手,脚)要点! 现在可用。 2019年12月:AlphaPose 发布了! 较小的型号,更高的精度! 2019年4月:发布的AlphaPose! 在COCO验证集上,它以23 fps的速度运行。 2019年2月: 集成到现在AlphaPose! 2018年12月:了PoseFlow的! 3倍更快,支持姿态跟踪结果可视化! 2018年9月: 发布了! 它在COCO验证集上以20 fps的速度运行(平均每张图像4.6人),并达到71 mAP! AlphaPose 是一种精确的多人姿势估计器,它是第一个开源系统,在COCO数据集上达到70+ mAP(75 mAP),在MPII数据集上达到80+ mAP(82.1 mAP)。 为了在帧中匹配与同一个人相对应的姿势,我们还提供了一种称为Pose Flow的高效在线姿势跟踪
2021-12-17 11:30:40 40.06MB tracking skeleton gpu realtime
1
ReactJS Velodyne激光雷达点云查看器 激光雷达数据 激光雷达数据是从下载的,下载了经过同步和校正的数据并解压缩。 使用情况 将未drive_data数据文件夹放在drive_data文件夹中,文件夹结构类似于此图像 通过npm或yarn安装依赖项 npm install # or yarn 打开终端到项目文件夹启动服务器 node serverSrc.js 打开另一个终端并运行React npm start
2021-12-07 13:41:15 5.55MB react threejs socket-io realtime
1
RTX是一个windows实时应用扩展包,这个现在是该产品的白皮书
2021-12-01 18:01:52 469KB Realtime windows
1
cacti plugins realtime
2021-11-26 15:32:10 39KB cacti realtime
1
Big Data Principles and best practices of scalable realtime data systems.pdf
2021-11-26 15:03:44 6.58MB 大数据
1
研华 PCI-1723 的 Simulink 实时驱动程序。 视窗 64 位。
2021-11-23 15:33:09 26KB matlab
1
real-time rendering4th 高清免解压优质资源百度网盘下载绝对高清版本
2021-11-19 21:30:24 134B rtr4 realtime rendering render
1
MNE实时 这是用于使用MNE实时分析MEG / EEG数据的存储库。 该文档可以在这里找到: 依存关系 安装 我们建议使用Anaconda Python发行版。 我们要求您使用Python3。您可以选择通过pip实时安装mne。 除了numpy和scipy (标准的Anaconda安装中包括)之外,您还需要使用pip工具安装最新版本的MNE : $ pip install -U mne 然后安装mne-realtime : $ pip install https://api.github.com/repos/mne-tools/mne-realtime/zipball/master 如果要更新的mne-realtime版本可用,这些pip命令也可以使用。 如果您在计算机上没有管理员特权,请对pip使用--user标志。 快速开始 info = mne . io . read_i
2021-11-10 02:55:10 7.05MB realtime lsl mne-python fieldtrip-buffer
1
StereoNet:在pytorch中对实时边缘感知深度预测模型进行指导的分层优化。 ECCV2018 ActiveStereoNet:主动立体声系统的端到端自我监督学习ECCV2018口语 如果您想就StereoNet与我交流,请随时与我联系。 我的电子邮件: 我的模型结果 现在,通过端到端训练,我的模型的速度可以在540 * 960 img上达到25 FPS,在场景流数据集上,最佳结果是1.87 EPE_all(使用16X多个模型),1.95 EPE_all(使用16X单个模型)。 以下是侧面输出和预测示例 火车例子 测试例 在titan xp gpu上超过100FPS KITTI20
2021-10-29 17:38:02 8.17MB google realtime depth stereo
1