介绍了近年来可拓神经网络的发展,对可拓神经网络的基本思想、算法思路、应用研究进行了系统分析,并提出和分析了有待进一步研究的方向和问题。
1
随着物联网、大数据和 5G 网络的快速发展和广泛应用,传统的云计算无法处理网络边缘设备所产生的海量数据,因此,边缘计算应运而生。然而,由于边缘计算的内容感知、实时计算、并行处理等开放特性,使在云计算环境下就已经存在的数据安全与隐私问题变得更加突出。阐述了边缘计算中数据安全与隐私保护的研究背景,提出以数据安全为中心的研究体系架构。围绕数据安全、访问控制、身份认证和隐私保护等关键技术,综述了近年来提出的可能适用于边缘计算数据安全与隐私保护的最新研究成果,并就方案的可扩展性和适用性进行分析讨论。此外,介绍了一些目前比较适用的边缘计算实例。最后,指出一些重要的研究方向和研究建议。
1
作者:秦瑞琳,周昌乐,晁飞 摘要:意识问题是尚未解决的重大哲学问题与科学问题.机器意识是人工智能最前沿的研究领域之一.研发意识机器人对于人工智能与机器人学的发展具有重要科学意义与应用价值.本文首先介绍了意识与感受性的相关概念和理论;然后,详细讨论了机器意识的概念与研究分类,实现方法与计算模型,重点论述了实现机器意识的量子方法;最后,总结了机器意识目前面临的困境与未来可能的发展,并给出了一套机器意识总体实现框架. 关键词:意识 机器意识 意识机器人 感受性 人工智能 年份:2021
1
推荐系统是一种通过理解用户的兴趣和偏好帮助用户过滤大量无效信息并获取感兴趣的信息或者物品的信息过滤系统.目前主流的推荐系统主要基于离线的、历史的用户数据,不断训练和优化线下模型,继而为在线的用户推荐物品,这类训练方式主要存在三个问题:基于稀疏且具有噪声的历史数据估计用户偏好的不可靠估计、对影响用户行为的在线上下文环境因素的忽略和默认用户清楚自身偏好的不可靠假设.
2021-11-27 10:05:37 1012KB 对话推荐算法
1
近年来,随着压缩感知技术在信号处理领域的巨大成功,由其衍生而来的矩阵补全技术也日益成为机器.学习领域的研究热点,诸多研究者针对矩阵补全问题展开了大量卓有成效的研究.为了更好地把握矩阵补全技术的.发展规律,促进矩阵补全理论与工程应用相结合,本文针对矩阵补全模型及其算法进行综述.首先对矩阵补全技术进.行溯源,介绍了从压缩感知到矩阵补全的自然演化历程,指出压缩感知理论的发展为矩阵补全理论的形成奠定了基.础;其次从非凸非光滑秩函数松弛的角度将现有矩阵补全模型进行分类,旨在为面向具体应用的矩阵补全问题建模.提供思路;接着综述了适用于矩阵补全模型求解的代表性优化算法,其目的在于从本质上理解各种矩阵补全模型优.化技巧,从而有利于面向应用问题的矩阵补全新模型求解;最后分析了矩阵补全模型及其算法目前存在的问题,提出.了这些问题可能的解决思路,并对未来研究方向进行了展望.
1
人脸识别是目前计算机技术研究的热门领域,广泛应用于人们的日常生活,如门禁系统、摄像监视系统、相机 以及智能手机等。传统的人脸识别技术需要经过人工特征提取、特征选择以及分类器选择等一系列复杂步骤,然 而 识别效果却并不理想。随着数据量的激增以及 GPU 高性能计算的发展,卷积神经网络在人脸识别上有了重大突破。 文章回顾了传统人脸识别方法,阐述了卷积神经网络的基本结构及其改进和优化方法,介绍了基于卷积神经网络的 人脸识别技术及典型应用,展望了人脸识别技术的发展方向。
2021-11-24 19:45:55 186KB 人脸识别
1
1 基于缓存分区的分配调度策略概述   1.1 缓存分区的背景   在CMP 系统中,一级缓存通常是私有的,而最后一级缓存(last level cache,LLC)则在各个核间共享(下文提到的缓存如无特别说明都是指LLC)。   共享缓存使得多个线程可以共享某些数据,降低通讯延迟,同时减少数据的冗余备份,提高缓存空间利用率。但是,线程间对于有限共享缓存空间的争夺,也会导致缓存失效率的上升,影响系统的吞吐量和公平性。   在单核单线程处理器中最为常用的缓存替换算法是LRU.LRU 不区分访存请求的线程来源,同等对待所有访存请求,每次发生缓存失效时替换最近最少访问的缓存块。LRU 在单线
1
基于同态加密的机器学习研究综述
2021-11-24 16:53:08 1.26MB 同态加密
1
首先针对常规多目标优化算法求解高维多目标优化时面临的选择压力衰减问题进行论述;然后针对该问题,按照选择机制的不同详细介绍基于Pareto支配、基于分解策略和基于性能评价指标的典型高维多目标优化算法,并分析各自的优缺点;接着立足于一种全新的性能评价指标-----R2指标,给出R2指标的具体定义,介绍基于R2指标的高维多目标优化算法,分析此类算法的本质,并按照R2指标的4个关键组成部分进行综述;最后,发掘其存在的潜在问题以及未来发展空间.
1
随着人工智能技术的突破性进展, 人工智能与可视化的交叉研究成为当前的研究热点之一, 为人工智能和大数据分析领域的若干核心难题提供了启发式的理论、方法和技术. 一方面, 人工智能技术的创新应用提升了可视化的分析效率, 拓展了分析功能, 为大数据可视分析提供了强有力的工具. 另一方面, 可视化技术增强了以深度学习为代表的人工智能的可解释性和交互性, 为可解释人工智能提供了可靠的技术基础.
2021-11-23 11:07:32 3.22MB 可视化 交叉研究
1