参考文献:   [1]  刘自发,于普洋,李颉雨.  计及运行特性的配电网分布式电源与广义储能规划    [J].  电力自动化设备,  2023,  43  (03):  72-79.     [2]  任智君,郭红霞,杨苹,等.  含高比例可再生能源配电网灵活资源双层优化配置    [J].  太阳能学报,  2021,  42  (09):  33-38.     [3]  高红均,刘俊勇.  考虑不同类型DG和负荷建模的主动配电网协同规划    [J].  中国电机工程学报,  2016,  36  (18):  4911-4922+5115.           分析系统灵活性供需关系,建立灵活资源运行-规划联合优化双层配置模型。运行层引入灵活性不足率作为系统灵活性评价指标,将网损和弃风弃光量计入经济惩罚,以系统年运行成本最优为目标;规划层引入系统综合安全性指标对系统安全性进行评估,以系统年综合成本最优为目标。采用粒子群优化算法对双层配置模型进行求解。最后,利用IEEE 33节点配网系统对算例进行仿真,结果验证了所提运行-规划联合双层配置模型能有效减少网损和
2024-04-15 18:22:59 3.41MB matlab 粒子群算法
1
matlab最简单的代码 HandwrittenNumeralRecognition_ANN_CUDA Handwritten numeral recognition project using BP ANN with CPU & GPU (CUDA). 公告板 matlab下面的数据文件我导成字符型文件了50M左右4个文件,存在46/Tmp/CUDA_ANN_DATA下,要用先同步一下。 第一次文件X.dat文件出问题了,中间貌似有错数据。我这边又生成了,晚上过去传46。 正确文件生成方法如下: f=fopen('X2.dat','w'); for i = 1:5000 for j= 1:400 fprintf(f,'%f ',X(i,j)); end end map函数加了索引参数。用法如下: Matrix _X2(new float[X.row*(1 + X.col)], X.row, X.col + 1); Matrix X2 = _X2.map([&](float, int row, int col){ return col>0 ?
2024-04-15 18:14:54 2.03MB 系统开源
1
【2022.11.11更新】之前四篇文章论证了利用二维码传输文件的可行性,本章使用python的tkinter库开发【动态二维码文件发送端】,发送端具备文件选择、开始发送文件、停止发送文件以及显示发送状态的功能。经过简单分析,要开发该程序,需要完成以下五个步骤,1)程序的界面设计;2)选择文件功能开发;3)文件拆分成二维码功能开发;4)发送和停止线程开发;5)发送状态更新功能开发。接一下一个一个步骤进行研究。
2024-04-15 17:58:16 8KB python 二维码 tkinter 文件发送
1
% function [y_lb,y_ub]=CI_reg(fun_name,a,b,k,K,Expansion) % 输入% fun_name 被调用的函数名% a 区间输入的下界向量% b 区间输入的上界向量%k CI展开的顺序%K 每个区间变量的扫描(验证)点% 切比雪夫多项式的扩展扩展类型-“完整”或“部分” % 输出y_lb响应下限% % y_ub 响应上限 % 例子%[y_lb1,y_ub1]=CI_reg(@double_pendulum,[0.99 1.98]',[1.01 2.02]',4,10,'full');
2024-04-15 17:56:03 13.37MB matlab
1
压缩包中含有【人眼识别+眨眼识别】源代码以及详细使用教程,利用pyrhon+opencv在ubuntu上运行,实现实时的检测,windows环境的配置需要自己在网上找相关教程,注意,压缩包中缺少的imutils库需另外从我的资源中下载,谢谢大家
2024-04-15 17:03:02 68.47MB Python 人眼识别 眨眼检测
1
网课实现的电商网站是vue2的,自己琢磨用vue3实现了一下
2024-04-15 16:49:48 84.84MB Vue3 电商网站
1
VB 开发VB学生档案管理系统(源代码+论文)
2024-04-15 16:38:35 1.51MB
1
CAN网络使用的DBC文件一键转C代码工具 C# VS2019
2024-04-15 16:22:21 3.2MB DBC文件 汽车电子
1
爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
2024-04-15 14:56:00 183KB 爬虫 python 数据收集
max31865驱动代码,stm32
2024-04-15 14:38:29 6KB stm32
1