本实验代码仅供参考,如果有能力的同学,也可以前往我的 GitHub 免费下载:https://github.com/hornhuang/human-computer-interaction
2022-05-31 08:36:49 38.62MB 黑龙江大学 人机交互 实验代码
1
Java独立砖石棋的实现,图形界面,便于学习用,理解加深
2022-05-08 10:40:10 3.04MB 独立砖石棋 Java GUI
1
易语言编写 理论上适用于全部游戏 软件UI种所有图片资源均已取得原作者同意 软件免费提供 仅供学习和参考 5种屏幕准星 可自选准星相对位置 可最小化至任务栏 版本2.2.1 请勿反编译,破解,转载请联系作者
2022-05-06 14:07:41 933KB 免费软件 易语言 屏幕准星 学习参考
1
智能送餐机器人设计.pdf
2022-05-05 16:52:28 2.17MB 机器人 机器学习 深度学习 参考文献
基于Android的学习参考手册
2022-04-30 09:07:05 20.93MB android 学习 综合资源
第一章 绪 论 1 1.1 设计的背景和意义 1 1.2 国外研究现状分析 1 1.3 国内研究现状分析 1 1.4 本文主要设计内容 2 第二章 系统方案设计 3 2.1 控制系统方案设计 3 2.1.1 远程控制方案设计 3 2.1.2 蓝牙控制方案设计 4 2.1.3 人机交互方案设计 4 2.2 应用场景方案设计 5 2.2.1 系统运用方案说明 5 2.2.2 崎岖地形探测方案 5 2.2.3 震后救灾搜寻方案 6 2.2.4 科研探险勘测方案 6 2.2.5 工厂巡检预警方案 7 第三章 硬件系统设计 8 3.1机械结构的分析 8 3.2主控芯片的分析 8 3.3数字舵机的选型 10 3.4 模块接口电路设计 10 3.4.1 WIFI模块接口电路设计 10 3.4.2 蓝牙模块接口电路设计 11 3.4.3 语音播放芯片外围电路设计 12 3.4.4 语音识别芯片外围电路设计 12 3.4.5 手势识别接口电路设计 13 3.5 远程视频模块介绍 14 3.6 各种传感器的说明 14 3.6.1 红外传感器 14 3.6.2 声音传感器 14 3.6.3 光敏传感器 14
2022-04-28 18:06:07 79.26MB stm32 文档资料 arm 嵌入式硬件
在对发票原始图像进行了预处理的基础上,通过利用BP神经网络来进行机器学习以后,对发票进行自动识别读取,利用MATLAB进行仿真,并且对发票识别后的结果进行了统计分析,对文中所建立的模型成果进行了充分的论证。 描述了基于深度学习的发票图像信息识别算法的研究背景意义、深度学习、计算机视觉和文本检测识别国内外现状。然后提出了一种基于BP神经网络的发票图像信息识别算法,可以正确提取和识别自然场景中的增值税发票图像中的信息,单区域的信息识别精度达到99.10%,平均信息识别精度达到96.20%。实现信息的自动识别、输入和记忆,节约清算人员和财务人员的时间,大幅提高办公效率,解决清算困难、时间紧张等问题
2022-04-27 16:05:52 1.17MB 神经网络 matlab 机器学习 学习
1
适合初学者学习,里面有源码例程介绍,资料中介绍 Python、 Qt、 PyQt5 的特点和安装方法,介绍了PyQt5 开发 GUI 应用程序,适合新手入门学习,书籍中还介绍获取例程的源码的方法, 源码包含了Qt 项目、 UI 窗体、 Python程序等,实现窗体业务逻辑操作的 Python 程序文件可以直接运行出结果,强烈推荐
2022-04-25 16:28:19 7.45MB QT python PYQT
1
目录: SDH原理教材 HCIE-Transmission Lab视频 上机考题 MSTP Lab视频 波分 Lab视频 HCIE-Transmission笔试 HCIE-Transmission面试
2022-04-19 15:04:05 443B 音视频 HCIE Transmission
# -*- coding:utf-8 -*- import sys #print (u'系统默认编码为',sys.getdefaultencoding()) default_encoding = 'utf-8' #重新设置编码方式为uft-8 if sys.getdefaultencoding() != default_encoding: reload(sys) sys.setdefaultencoding(default_encoding) #print (u'系统默认编码为',sys.getdefaultencoding()) import requests from bs4 import BeautifulSoup import traceback import re import xlwt def getURLDATA(url): #url = 'http://www.cnnvd.org.cn/web/xxk/ldxqById.tag?CNNVD=CNNVD-201901-1014' header={ 'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.80 Safari/537.36', 'Connection': 'keep-alive',} r=requests.get(url,headers=header,timeout=30) #r.raise_for_status()抛出异常 html = BeautifulSoup(r.content.decode(),'html.parser') link=html.find(class_='detail_xq w770')#漏洞信息详情 link_introduce=html.find(class_='d_ldjj')#漏洞简介 link_others=html.find_all(class_='d_ldjj m_t_20')#其他 #print(len(link_introduce)) try: #print ("危害等级:"+link.contents[3].contents[3].find('a').text.lstrip().rstrip())#危害等级 list4.append(str(link.contents[3].contents[3].find('a').text.lstrip().rstrip())) except: #print("危害等级:is empty") list4.append("") try: #print ("CVE编号:"+link.contents[3].contents[5].find('a').text.lstrip().rstrip())#CVE编号 list5.append(str(link.contents[3].contents[5].find('a').text.lstrip().rstrip())) except: #print("CVE编号:is empty") list5.append("") try: #print ("漏洞类型:"+link.contents[3].contents[7].find('a').text.lstrip().rstrip())#漏洞类型 list6.append(str(link.contents[3].contents[7].find('a').text.lstrip().rstrip())) except : #print("漏洞类型:is empty") list6.append("") try: #print ("发布时间:"+link.contents[3].contents[9].find('a').text.lstrip().rstrip())#发布时间 list7.append(str(link.contents[3].contents[9].find('a').text.lstrip().rstrip())) except : #print("发布时间:is empty") list7.append("") try: #print ("威胁类型:"+link.contents[3].contents[11].find('a').text.lstrip().rstrip())#威胁类型 list8.append(str(link.contents[3].contents[11].find('a').text.lstrip().rstrip())) except : #print("威胁类型:is empty") list8.append("") try: #print ("更新时间:"+link.contents[3].contents[13].find('a').text.lstrip().rstrip())#更新时间 list9.append(str(link.contents[3].contents[13].find('a').text.lstrip().rstrip())) except : #print("更新时间:is empty") list9.append("") try: #print ("厂商:"+link.contents[3].contents[15].find('a').text.lstrip().rstrip())#厂商 list10.append(str(link.contents[3].contents[15].find('a').text.lstrip().rstrip())) except: #print("厂商:is empty") list10.append("") #link_introduce=html.find(class_='d_ldjj')#漏洞简介 try: link_introduce_data=BeautifulSoup(link_introduce.decode(),'html.parser').find_all(name='p') s="" for i in range(0,len(link_introduce_data)): ##print (link_introduce_data[i].text.lstrip().rstrip()) s=s+str(link_introduce_data[i].text.lstrip().rstrip()) #print(s) list11.append(s) except : list11.append("") if(len(link_others)!=0): #link_others=html.find_all(class_='d_ldjj m_t_20') #print(len(link_others)) try: #漏洞公告 link_others_data1=BeautifulSoup(link_others[0].decode(),'html.parser').find_all(name='p') s="" for i in range(0,len(link_others_data1)): ##print (link_others_data1[i].text.lstrip().rstrip()) s=s+str(link_others_data1[i].text.lstrip().rstrip()) #print(s) list12.append(s) except: list12.append("") try: #参考网址 link_others_data2=BeautifulSoup(link_others[1].decode(),'html.parser').find_all(name='p') s="" for i in range(0,len(link_others_data2)): ##print (link_others_data2[i].text.lstrip().rstrip()) s=s+str(link_others_data2[i].text.lstrip().rstrip()) #print(s) list13.append(s) except: list13.append("") try: #受影响实体 link_others_data3=BeautifulSoup(link_others[2].decode(),'html.parser').find_all('a',attrs={'class':'a_title2'}) s="" for i in range(0,len(link_others_data3)): ##print (link_others_data3[i].text.lstrip().rstrip()) s=s+str(link_others_data3[i].text.lstrip().rstrip()) #print(s) list14.append(s) except: list14.append("") try: #补丁 link_others_data3=BeautifulSoup(link_others[3].decode(),'html.parser').find_all('a',attrs={'class':'a_title2'}) s="" for i in range(0,len(link_others_data3)): ##print (link_others_data3[i].t
2022-04-11 15:18:10 9KB cnnvd python 爬虫
1