R语言的 GARCH-VaR 代码 (包含数据、代码、参考文献、结果展示)
2024-05-19 16:53:54 5.42MB r语言 毕业设计
1
[ML] Pytorch自学实战项目其4:基于学习(RNN)算法的车辆状态估计:训练模型,推理代码,数据
2024-05-19 16:38:25 8.27MB pytorch pytorch
1
django+mysql+echarts实现数据可视化到前端
2024-05-18 22:03:57 2.7MB Django
1
易语言服务端客户端互换收发数据源码,服务端客户端互换收发数据,客户发送数据,服务发送数据,获取通信数据,服务过程连接,客户过程连接,客户数据处理,服务数据处理
1
2022年智慧小镇特色小镇产业大数据建设综合解决方案.pptx
2024-05-18 13:37:43 22.32MB
1
Python数据分析与可视化大作业 + 源代码 + 数据 + 详细文档
2024-05-18 13:30:40 7.77MB python 数据分析 可视化 numpy
1
1. 样本图片准备 2. 打开 jTessBoxEditor ,选择 Tools -> Merge TIFF,打开对话框,选择训练样本所在文件夹,并选中所有要参与训练的样本图片 3 弹出保存对话框,还是选择在当前路径下保存,文件命名为ty.cp.exp6.tif 4. tesseract ty.cp.exp6.tif ty.cp.exp6 -l ty batch.nochop makebox 5. 打开 jTessBoxEditor ,点击 Box Editor -> Open ,打开步骤2中生成的ty.cp.exp6.tif ,会自动关联到 “ty.cp.exp6.box” 文件: 6. 使用echo命令创建字体特征文件 echo cp 0 0 0 0 0>font_properties. 输入内容 “cp 0 0 0 0 0” 7. 使用 tesseract 生成 ty.cp.exp6.tr 训练文件 在终端中执行以下命名: tesseract ty.cp.exp6.tif ty.cp.exp6 nobatch box.train 8. 生成字符集文件 在终端中执行以下命令: unicharset_extractor ty.cp.exp6.box 9. mftraining -F font_properties -U unicharset -O ty.unicharset ty.cp.exp6.tr 与 cntraining ty.cp.exp6.tr 生成之后手工修改 Clustering 过程生成的 4 个文件(inttemp、pffmtable、normproto、shapetable)的名称为 [lang].xxx。这里改为 ty.inttemp、ty.pffmtable、ty.normproto、ty.shapetable。 10. 合并数据文件 在终端中执行以下命令: combine_tessdata ty. tesseract b01.jpg result -l ty --psm 7
1
爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
2024-05-17 16:46:49 550KB 爬虫 python 数据收集
1
根据我给出的说明手册,可以创建一个自定义类别检测的项目。 在我的例子中使用了voc数据集进行了自定义项目,取名为voc20,该项目可以检测voc数据集中20个类别。 这个是完全不同于官方的说明手册的使用手册,属于第一手原创资源,制作不易! 本资源属于实验室自有资源,如有侵权转发的,将会严格追究版权责任!
2024-05-17 16:45:52 2.76MB
1
药丸图像识别 该存储库包含创建药丸图像数据集和药丸识别项目所需的所有代码
2024-05-17 16:45:45 139KB Python
1