增程汽车插电式串联混动模型:Matlab Simulink软件集成、动力经济仿真与精细控制策略参考,增程汽车与插电式串联混动汽车Matlab Simulink模型:动力性与经济性仿真研究,增程汽车 插电式串联混动汽车Matlab Simulink软件模型,动力性、经济性仿真计算 1.本模型基于Matlab Simulink搭建,包含:电池、电机、发动机、整车纵向动力学、控制策略、驾驶员等模块。 增程器控制策略采用跟随负载功率的控制,可以使SOC保持在设定目标附近。 2.模型搭建时参考了部分mathwork官方模型,但比官方模型更容易理解。 同时输入数据采用m脚本文件编辑,更容易管理。 3.模型所有模块完全开放,无任何封装,更方便后期升级与改制。 4.模型可用于课题研究、项目开发参考。 ,增程汽车; 插电式串联混动汽车; Matlab Simulink软件模型; 动力性仿真; 经济性仿真; 控制策略; 模块化设计; 开放架构。,基于Matlab Simulink的增程式插电混动汽车动力性与经济性仿真模型研究
2026-03-30 22:07:48 1.78MB 数据仓库
1
读取和绘制 NMR 数据:rbnmr.m 和 plotbnmr.m 这些 matlab 函数可以很容易地将 Bruker 格式的 NMR 数据读入 matlab 的工作区内存中并绘制数据。 它支持一维和二维数据。
2026-03-30 20:07:12 8KB matlab
1
复旦大学的《大规模语言模型:从理论到实践》是一本由张奇、桂韬、郑锐和黄萱菁共同撰写的书籍,详细介绍了大规模语言模型(Large Language Models, LLMs)的理论基础和实际应用。这本书不仅涵盖了从预训练到微调、强化学习等关键阶段,还深入探讨了数据处理、模型构建、分布式训练等技术细节,为读者提供了全面的指导。 可编辑PPT材料,共8章,这是大规模语言模型从理论到实践-ch3大语言模型预训练数据.pptx 大规模语言模型预训练数据的知识点: 1. 预训练数据的重要性:训练大规模语言模型需要数万亿的各类型数据,预训练数据对于模型的效果和泛化能力至关重要。高质量和多样化的数据源能够提高模型的泛化能力和适应性。 2. 数据的多样性需求:为了增强大语言模型的泛化能力,预训练数据应该包含尽可能多的领域、语言、文化和视角。 3. 常用的预训练数据来源:常见的数据来源包括网络数据、图书、论文、百科和社交媒体等。例如,GPT-3训练时使用了经过过滤的Common-Crawl数据集、WebText2、Books1、Books2和英文Wikipedia等数据集。不同来源的数据设置了不同的采样权重以保证模型使用更高质量的数据进行训练。 4. 数据来源的具体类型: - 通用数据:包括网页、图书、新闻、对话文本等,特点是规模大、多样性和易获取,如网页数据处理和对话数据的增强作用。 - 专业数据:包括多语言数据、科学数据、代码及领域特有资料等,用于提升大语言模型的任务解决能力。 5. 通用数据中的具体类别: - 网页数据:网页是通用数据中数量最多的一类,需要通过过滤和处理来提高数据质量。 - 对话数据:对话数据包含书面形式的对话、聊天记录、论坛帖子、社交媒体评论等,通过特定数据集进行收集和处理。 - 书籍数据:书籍作为人类知识的主要积累方式,提供了丰富的专业术语和主题词汇,适用于训练时扩大模型的词汇量和深度。 6. 数据集实例: - OpenAI的GPT-3使用了多种经过过滤的数据集,如Common-Crawl和WebText2等。 - Meta公司的OPT模型训练采用了包括RoBERTa、Pile和PushShift.io Reddit在内的数据集。 - 通用数据集如ClueWeb09、ClueWeb12和SogouT-16等,为网页数据的收集和处理提供了基础。 - 常见的对话数据集包括PushShift.io Reddit、Ubuntu Dialogue Corpus等。 7. 实践思考:在构建大规模语言模型时,应深入考虑如何选取和处理预训练数据,以及如何平衡通用数据和专业数据,以确保模型的性能和适用范围。 8. 开源数据集的价值:利用开源数据集如CommonCrawl、PushShift.io Reddit等,研究者可以更高效地收集和处理大规模文本数据,这些资源对学术界和工业界都非常有价值。 9. 数据处理的挑战与方法:在收集大规模数据后,需要进行清洗、过滤和归并等处理,以提高数据质量。例如,通过过滤掉低质量的文本,如垃圾邮件,保留高质量的内容,使模型训练更加有效。 10. 大规模语言模型训练数据的未来:随着技术的进步,对大规模语言模型预训练数据的需求和处理方法也会持续发展。例如,如何处理非英文数据、如何引入多语言数据等,都将成为未来研究的方向。
2026-03-30 19:08:45 3.73MB
1
车牌数据集(蓝、绿、黄、黑、白) 仅是车牌图片(未标注)9000左右
2026-03-29 23:12:35 76.15MB 数据集
1
STM32F407是意法半导体(STMicroelectronics)推出的一款高性能、低功耗的32位微控制器,广泛应用于嵌入式系统设计。本项目主要关注如何使用STM32F407的DMA(直接存储器访问)功能与串口(USART)的空闲中断来实现不定长度的数据接收,同时利用STM32CubeMX配置工具生成初始化代码。以下是对这个主题的详细解释: 1. **STM32F407核心特性**: - 基于ARM Cortex-M4内核,支持浮点运算单元(FPU)。 - 高速嵌入式存储器,包括闪存和SRAM。 - 多个定时器、ADC、DAC、串口、SPI、I2C等丰富的外设接口。 2. **DMA(直接存储器访问)**: - DMA允许在没有CPU介入的情况下,直接在内存和外设之间传输数据,提高数据处理效率。 - STM32F407有多个DMA通道,可以配置为传输主设备(如串口)到存储器或存储器到主设备的数据。 3. **USART(通用同步/异步收发传输器)**: - 用于串行通信,支持异步、同步、LIN和SMARTCARD等多种通信模式。 - 空闲中断:当USART检测到串行线路进入空闲状态(即停止位之后的无数据传输状态),会触发一个中断,此时可进行数据处理。 4. **配置步骤**: - 使用STM32CubeMX配置工具:设置STM32F407的工作时钟、串口参数(波特率、数据位、停止位、校验位)、DMA通道和中断优先级等。 - 启用DMA服务请求:在串口配置中,选择使用DMA接收数据,并指定DMA通道。 - 编写中断服务函数:在空闲中断发生时,处理已接收的数据并清除中断标志。 5. **LL库(Low-Layer库)**: - ST提供的LL库是一种轻量级库,直接操作寄存器,相比于HAL库更高效,但需要对硬件有深入理解。 - 使用LL库进行DMA和USART配置,需要了解相关寄存器的设置。 6. **代码实现**: - 在初始化阶段,配置串口、DMA和中断。 - 在中断服务函数中,读取DMA接收完成的缓冲区,并根据需求处理数据。 - DMA接收配置包括设置接收缓冲区地址、大小和半/全完成回调函数。 - 串口空闲中断服务函数中,通常会检查数据的有效性,然后更新接收状态或触发其他操作。 7. **调试与优化**: - 使用RTOS(实时操作系统)或者自由运行模式进行测试,确保数据的正确接收。 - 考虑串口接收速度、DMA传输速率和系统资源之间的平衡,避免溢出或丢失数据。 - 适当调整中断优先级,确保关键任务的响应时间。 以上就是使用STM32F407的DMA+串口空闲中断接收不定长数据的基本原理和实现方法,配合STM32CubeMX生成的初始化代码,开发者可以快速搭建起这样的通信系统。通过详细的注释和示例代码,初学者也能更好地理解和应用这些概念。
2026-03-29 19:10:16 21.47MB stm32
1
1.本项目通过Google的Bert模型,基于Attention的大规模语料预训练模型,构建LSTM命名实体识别网络,设计一套问答系统通用处理逻辑,实现智能问答任务。 2.项目运行环境:Python环境和服务器环境。 3.项目包括5个模块:构造数据集、识别网络、命名实体纠错、检索问题类别、查询结果。数据是从北京邮电大学图书馆网站爬取,主要包含教师的电话、研究方向、性别,以及课程的学分、开设学期等信息;使用Google的Bert,调用LSTM模型代码,加以修改,进行训练;对识别到的课程实体进行纠错,依据所有课程全称,采用最短编辑距离匹配法与包含法相结合;通过识别到的实体类别和检索到的关键词进行问题分类。 4.项目博客: https://blog.csdn.net/qq_31136513/article/details/132665092
2026-03-29 18:28:58 365.05MB 自然语言处理 bert lstm 知识图谱
1
汉江水系作为中国长江中游地区的重要支流,其流域范围内的shp矢量数据对于水资源管理、洪水防控、环境保护、区域规划以及水文分析等多个领域具有极其重要的应用价值。Shp矢量数据是一种地理信息系统(GIS)中常用的数据格式,其特点在于可以精确地表示空间要素的形状、位置以及属性信息。此次提供的汉江水系shp矢量数据集合包括多个文件,每一个都有其独特的功能和作用。 shp文件是矢量数据的核心文件,它存储了地理要素的几何形状和位置信息。这些几何形状可以是点、线或面,对于汉江水系来说,可能会包括水系的主河道、支流、湖泊、水库等水体要素。通过这些要素,可以清晰地在地图上描绘出汉江的流域界限,以及水流的走向。 shx文件是shp文件的索引文件,它包含了一个与shp文件中要素相对应的索引结构,使得软件能够快速定位到shp文件中特定要素的位置,从而加快数据的访问速度,对于处理大量数据尤为重要。 dbf文件则包含了shp矢量数据的属性信息。属性信息是关于矢量要素的描述性数据,例如,对于汉江水系数据来说,属性信息可能会包括河流的名称、长度、流域面积等。这些数据对于地理分析和决策支持系统至关重要,它们使得地理信息系统不仅能够展示地理要素的空间信息,还能提供相关的属性信息。 prj文件包含了空间参考信息,它定义了矢量数据的空间坐标系统和地图投影信息。这对于保证矢量数据在不同GIS软件之间可以正确显示和分析至关重要,因为不同的地理信息系统可能会使用不同的坐标系统和投影方式。 cpg文件是代码页文件,它指定了dbf文件中的字符编码,这对于正确显示和处理文本属性信息至关重要,尤其是在涉及多种语言和特殊字符时。 sbn和sbx文件则是为shp文件创建的网格索引文件,它们用于提高大数据集的检索速度,特别是当矢量数据集非常庞大时,这些索引文件可以显著加快软件对特定区域数据的访问速度。 汉江水系流经空间范围的shp矢量数据集合通过不同的文件类型共同作用,为用户提供了一套完整的地理信息,这些信息不仅能够直观展现汉江水系的空间范围,还包含了丰富的属性和分析能力,对于相关领域的研究和应用提供了坚实的数据基础。
2026-03-29 14:37:36 168KB 矢量数据
1
Lasso回归是一种线性回归模型,它通过引入一个正则化项来实现变量选择和正则化,旨在增强预测准确性和模型的可解释性。在处理高维数据集时,Lasso回归特别有用,因为它能够在预测变量中选择一个子集,使得这个子集对于预测结果的影响最为重要。这种方法在统计学和机器学习领域被广泛应用。 在数据分析和机器学习中,回归分析是一种研究变量之间关系的方法,其中线性回归是最基础的模型之一。线性回归尝试找出不同变量之间的线性关系,即变量间的权重,通过最小化误差的平方和来拟合最佳的线性模型。但是,当数据集的特征数量很多时,可能会出现过拟合的情况,即模型过于复杂,对训练数据拟合得非常好,但对未知数据的预测能力却很差。这时,Lasso回归通过引入L1正则化项,能够有效地减少这种过拟合问题。 Lasso回归的优势在于它的稀疏性,它倾向于产生一些参数正好为零的模型。这不仅减少了模型的复杂性,同时也提供了一种特征选择的机制。在一些情况下,Lasso回归甚至可以得到一个精确解,而不必依赖于传统的迭代算法。当数据集非常大时,这一点尤为重要。 在Matlab中实现Lasso回归,用户可以利用其内置的统计和机器学习工具箱中的函数。对于大范围的数据集,Matlab提供了一种高效的算法来快速计算Lasso回归的解。Matlab的2018B版本及以上,对Lasso回归的实现进行了优化,提供了更多的功能和更好的性能。这对于处理大规模数据分析尤其重要。 剪枝是一种减少回归树或决策树复杂性的技术,它通过去除一些不重要的分支来简化模型。虽然剪枝与Lasso回归不是同一类型的算法,但它们共同的目标是提高模型的泛化能力。在使用回归树的场景下,剪枝技术可以减少过拟合的风险,增强模型在未知数据上的预测准确性。 本压缩包中的文件名称列表显示了包含文档、图片和文本文件等多种格式的内容。文档文件中可能包含了关于Lasso回归的详细理论解释、使用场景、案例分析以及Matlab代码的介绍和注释。图片文件可能是相关的图表、流程图或结果展示,而文本文件则可能包含对算法的额外说明或是代码的详细注释。这些内容将有助于使用者更全面地理解Lasso回归的原理和应用,以及如何在Matlab环境下实现它。 Lasso回归作为一种有效的特征选择和回归技术,在处理大数据集时,能够有效地减少模型复杂性,提高模型的预测性能。Matlab提供的工具使得实现Lasso回归变得简单高效,配合版本的优化,使得用户在大数据分析领域有了一款强有力的工具。剪枝技术的运用可以进一步加强模型的泛化能力,帮助数据分析人员在面对复杂的数据结构时,依然能够得到可靠和有效的分析结果。
2026-03-29 14:30:05 276KB
1
Iris 鸢尾花数据集是一个经典数据集,在统计学习和机器学习领域都经常被用作示例。数据集内包含 3 类共 150 条记录,每类各 50 个数据,每条记录都有 4 项特征:花萼长度、花萼宽度、花瓣长度、花瓣宽度,可以通过这4个特征预测鸢尾花卉属于(iris-setosa, iris-versicolour, iris-virginica)中的哪一品种。
2026-03-29 14:05:22 5KB iris
1
打架检测数据集是一项用于目标检测的研究资源,其遵循了著名的Pascal VOC格式标准。该数据集包含了3146张jpg格式的图片,每张图片都对应一个xml格式的标注文件,用于标记图片中出现的目标。数据集的核心是区分两种状态:一种是“nofight”(无打架行为),另一种是“fight”(有打架行为)。在标注规则中,只有当两个人之间存在明显打架行为,且表现为肢体接触时,才将场景标注为“fight”。否则,所有其他情况都归类为“nofight”,并且对于非打架行为的数据集也必须进行标注,以减少模型在实际应用中的误检率。 该数据集的标注类别总数为2,具体标注类别名称分别为“nofight”和“fight”。对于这两个类别,标注的数量分别为“nofight count = 1288”和“fight count = 2170”。这意味着在3146张图片中,有1288张被标记为没有打架行为,而有2170张图片被标记为存在打架行为。因此,本数据集反映了打架检测场景的不平衡性,即打架行为相对更为常见。 在技术实施方面,此数据集可以应用于目标检测模型的训练,例如yolov5模型。未来自主研究中心已经使用此数据集对yolov5进行过训练,并验证了其效果,给出了相关的演示视频链接。用户可以通过观看这些演示视频来了解数据集的实际应用效果。 此外,数据集中还包含了关于如何使用labelImg这一标注工具的说明,它是一个被广泛使用的图像标注软件,能够生成用于训练机器学习模型的标签数据。数据集还提到了一些其它资源,例如labelme json转yolo工具、C#yolov10和yolov8的相关教程和实现,以及yolov9结合deepsort和pyqt5实现目标追踪的演示。这些资源的提及表明了该数据集的创建者鼓励研究者和开发者利用现有的工具和资源来增强或改进目标检测的性能。 值得一提的是,虽然数据集的创建者提供了图片和标注文件,但同时声明不对通过该数据集训练得到的模型或权重文件的精度作出任何保证。他们强调数据集仅提供准确且合理的标注。数据集的访问者应理解使用数据集的潜在风险,并确保使用时具备相应的知识和能力。为了更好的理解数据集的内容和使用方法,建议参考提供的视频演示和相关教程。 总结以上信息,打架检测数据集VOC格式3146张2类别是一个专业的、针对特定应用场景(打架行为检测)的目标检测数据集,它遵循Pascal VOC标准,提供了大量经过标注的图片资源。该数据集的发布是为了满足研究者和开发者对于高质量、预标注数据资源的需求,并且可以帮助他们更有效地开发和测试目标检测算法,尤其是在人像冲突检测场景下。同时,数据集作者提供了使用指南和相关工具信息,以助于用户更深入地理解和应用该资源。
2026-03-28 19:42:26 1.46MB 数据集
1