UART DUT 介绍、验证功能点提取、UVM 验证代码介绍、Debug 过程和联调过程、覆盖率收集等 UART(Universal Asynchronous Receiver-Transmitter)是一种异步全双工串行通信协议,将要传输的数据在串行通信与并行通信之间进行转换。作为把并行输入信号转成串行输出信号的芯片,UART 通常被集成于其他通讯接口的连结上,其工作原理是将数据的二进制位一位一位地进行传输。 DUT(Device Under Test)功能理解:DUT design Spec 如左图所示,DUT 有两种执行方式,一种是对外围设备接收的数据进行串行到并行的转换(RX 方向);另一种是对传输到外围的数据进行并行到串行的转换(TX 方向)。 DUT 模块理解: 1. APB interface:实现接口信号的解码,用于访问状态,配置寄存器,接收,发送数据到 FIFO。 2. transmit FIFO:8 位宽,16 位深,用于存储从 APB interface 中写入的数据,直到数据被传输逻辑读走,该 FIFO 可以被 disable,使其成为单字节寄存器。 3. receive FIFO:12 位宽,16 位深,用于存储上行端接收的数据以及错误位信息,直到数据被 APB 接口读走,该 FIFO 可以被 disable,使其成为单字节寄存器。 4. transmitter:将传输 FIFO 中的数据实现并行到串行的转换。 5. receiver:将对外围设备数据进行串行到并向的转换,同时还会执行溢出,奇偶校验,frame 错误检测和中断检测,并将其写入到 receive FIFO。 6. 波特率发生器:包含自由运行的计数器,产生内部 x16 时钟和 Baud16 信号。Baud16 是 UART 发射和接收控制提供定时信息。 7. interrupt generation:该控制器在每个外围设备的基础上实现另一级别的屏蔽,这样,全局的中断服务例程可以从系统中断服务器中读取。 UARTLCR_H 寄存器内部宽 29 位,但外部通过 AMBA APB 总线通过三次写入寄存器位置 UARTLCR_H、UARTIBRD 和 UARTFBRD 进行访问。UARTLCR_H 定义了传输参数、字长、缓冲区模式、传输停止位数、奇偶校验模式和中断生成。 波特率配置:波特率除数是由 16 位整数和 6 位小数部分组成的 22 位数字。波特率生成器使用该值来确定位周期。波特率除数 = UARTCLK /(16xBaud Rate)= BRDI + BRDF,其中 BRDI 是整数部分,BRDF 是小数点分隔的小数部分小数 m = integer(BRDF*2^n + 0.5)生成内部时钟启用信号 Baud16,它是一个 UARTCLK 宽脉冲流,平均频率为所需波特率的 16 倍。然后将该信号除以 16,得到传输时钟。 数据传输和接收:对于传输,数据被写入传输 FIFO。如果 UART 已启用,则会导致数据帧开始使用 UARTLCR_H 中指定的参数进行传输。数据继续传输,直到传输 FIFO 中没有数据为止。一旦数据写入传输 FIFO(即 FIFO 非空),BUSY 信号就会变高,并在传输数据时保持高电平。只有当传输 FIFO 为空,并且最后一个字符(包括停止位)已从移位寄存器传输时,BUSY 才被否定。即使 UART 可能不再启用,也可以将 BUSY 断言为 HIGH。 当接收器空闲为 idle 时(UARTRXD 连续 1,处于标记状态)且在数据输入上检测到低电平(已接收到起始位)时,接收计数器(时钟由 Baud16 启用)开始运行,并在正常 UART 模式下在该计数器的第八个周期对数据进行采样。如果 UARTRXD 在 Baud16 的第八个周期上仍然处于低位,则起始位有效,否则会检测到错误的起始位并将其忽略。如果起始位有效,则根据数据字符的编程长度,在 Baud16 的每 16 个周期(即一个位周期之后)对连续数据位进行采样。如果启用了奇偶校验模式,则检查奇偶校验位。如果 UARTRXD 高,则确认有效的停止位,否则会发生帧错误。 UART 读写时序: * UART 读写时序图 * UART 数据帧格式 起始位:发送 1 位逻辑 0(低电平),开始传输数据。 数据位:可以是 5~8 位的数据,先发低位,再发高位,一般常见的就是 8 位(1 个字节),其他的如 7 位的 ASCII 码。 校验位:奇偶校验,将数据位加上校验位,1 的位数为偶数(偶校验),1 的位数为奇数(奇校验)。 停止位:停止位是数据传输结束的标志,可以是 1/2 位的逻辑 1(高电平)。 空闲位:空闲时数据线为高电平状态,代表无数据。 UVM 验证代码介绍: * UVM 验证环境搭建 * UVM 验证用例编写 * UVM 验证结果分析 Debug 过程和联调过程: * Debug 工具选择 * Debug 过程 * 联调过程 覆盖率收集: * 代码覆盖率收集 * 数据覆盖率收集 * FSM 覆盖率收集 通过对 UART DUT 的介绍、验证功能点提取、UVM 验证代码介绍、Debug 过程和联调过程、覆盖率收集等,我们可以更好地了解 UART 模块的工作原理和验证方法,并提高我们对 UART 模块的设计和验证能力。
2024-08-27 11:02:43 6.21MB uart
1
Kepware支持的常用设备PLC驱动型号
2024-08-19 16:43:49 12KB kepserver MES 数据收集
1
Based on python and vuejs 微信公众号采集 Python爬虫 公众号采集 公众号爬虫 公众号备份 爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
2024-08-19 05:06:22 12.99MB python 爬虫 数据收集
1
一、主要法律依据及相关规范标准 1、《网络安全法》 2、《电子商务法》 3、《全国人民代表大会常务委员会关于加强网络信息保护的决定》 4、《电信和互联网用户个人信息保护规定》 5、《数据安全管理办法(征求意见稿)》 6、《移动智能终端应用软件预置和分发管理暂行规定》 7、《App违法违规收集使用个人信息行为认定方法》 8、《信息安全技术个人信息安全规范》(GB/T35273—2020) 9、《网络安全实践指南——移动互联网应用基本业务功能必要信息规范》 10、《网络安全标准实践指南——移动互联网应用程序(App)收集使用个人信息自评估指南(征求意见稿)》 11、《信息安全技术移动互联网应用程序(App)收集个人信息基本规范-(征求意见稿)》 12、《互联网个人信息安全保护指南》 13、其他相关法律法规 二、合规自查清单 目录 一、主要法律依据及相关规范标准 - 1 - 二、合规自查清单 - 2 - 自查项1:个人信息保护政策文本 - 3 - 自查项2:各项业务功能及所收集个人信息类型 - 3 - 自查项3:个人信息处理规则及用户权益保障 - 4 - 自查项4:是否设置不合理条款 - 6
2024-07-04 11:26:40 45KB 网络安全
1
包括站名,车站地址,电话号码。
2024-06-28 20:36:04 90KB
1
网络游戏-水下传感器网络中基于AUV位置预测的数据收集方法.zip
2024-06-28 14:51:02 753KB
收集一些安卓音乐播放器项目开发代码和案例,可供学习参考,共11个。多数为基础应用,难度较低。支持本地播放。
1
利用python编写脚本实现局域网主机探测,简单高效,代码可直接运行。
2024-05-22 21:34:41 435B python 网络安全
1
爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
2024-05-17 16:46:49 550KB 爬虫 python 数据收集
1
202405软考高项信息系统项目管理师(4位老师)VIP,内容更新至2024年3月29日,都是自己备考,收集的一些资料,需要的 信息系统项目管理师 信息系统项目管理师 信息系统项目管理师
1