把本班级的数据库课程设计分批传上,来给大家分享下!由于大小关系---每3个或4个项目(程序)打成压缩包,各压缩包之间没有任何关系、可以单独下载解压使用!前台语言种类比较多,含有vb(较多)、c++、vb.net、c#、java等,后台数据库多数是sql2000、sql2005和access!希望对做数据库课程设计的同学有所帮助!~~还有就是这些课程设计比较简单(3~10几M/个)——如果做毕业设计请绕行... 每个项目中包含:源代码、文档、使用说明... 资源分我觉得还算适合(*^__^*) 嘻嘻…… 数据库课程设计1(3个项目)2(3个项目)3(2个)4(4个)5(5个)6(2个)7/8/9/10/11各一个较大些 数据库课程设计n==为班级的数据库课程设计 源代码 文档 使用说明n-1 哈哈~~~传了才知道不显示名字 所以就这么写了 希望明白
2022-06-07 22:50:01 24.13MB 数据库 课程设计 sql2000 sql2005
1
打地鼠游戏源代码文档资料
2022-06-07 18:02:40 113KB 游戏 文档资料 源码软件
Java软件度量源代码文档资料
2022-06-06 22:01:54 233KB java 文档资料 源码软件 开发语言
盐城工学院大作业 3dmax学生床 学生交的大作业,代码加文档
2022-06-03 10:50:21 698KB 代码 文档
1
第一章 openstack准备工作 - 4 - 第二章 环境预配置 - 16 - 第三章 yum源制作 - 21 - 第四章 keystone - 27 - 第五章 glance安装与配置 - 43 - 第六章 nova服务安装与配置 - 48 - 第七章 neutron安装与配置 - 52 - 第八章Dashboard服务的安装与配置 - 58 - 第九章 nova-compute的安装与配置 - 61 - 第十章 neutron(computer0)安装与配置 - 64 - 第十一章 neutron(network0)安装与配置 - 69 - 第十二章 平台测试 - 76 -
2022-04-28 11:01:35 20.82MB openstack linux 虚拟机 centos
1
快排实现和优化,无需使用MFC,只在命令行中选择实现,提供选项执行随机数生成和规模测试,可以针对大学数据结构和算法课程使用,包括了相应的文档信息
2022-04-26 14:55:38 268KB 快速排序 优化 代码 文档
1
第一章 openstack准备工作 - 4 - 第二章 环境预配置 - 16 - 第三章 yum源制作 - 21 - 第四章 keystone - 27 - 第五章 glance安装与配置 - 43 - 第六章 nova服务安装与配置 - 48 - 第七章 neutron安装与配置 - 52 - 第八章Dashboard服务的安装与配置 - 58 - 第九章 nova-compute的安装与配置 - 61 - 第十章 neutron(computer0)安装与配置 - 64 - 第十一章 neutron(network0)安装与配置 - 69 - 第十二章 平台测试 - 76 -
2022-04-14 14:00:32 20.82MB openstack linux 操作系统 虚拟机
自己做的独立软著代申请比用的代码文档整理输出工具,可以选择多个特定目录,设置多类型文件,指定选择生成代码文档,可操作性很好,并且在生成word代码文档时,过滤了所有空白行和注释,过滤的注释类型涵盖mysql、java、php、python、js、html、node、vue等大类语言。
2022-03-29 11:25:03 13.33MB vue.js javascript mysql java
可以引发一系列的思考,对于从事软件开发行业的人员。
2022-03-17 12:44:08 32.97MB 简单之美 代码 代码文档 开发者
1
01-企业数据仓库四层架构及功能 02-以驴妈妈、一号店及京东订单分析技术架构设计 03-分析订单表、订单商品表及用户表的结构 04-修改配置Hive MetaStore对应Database中的相关字段字符编码为utf8 05-ODS层创建订单相关表及加载数据 06-DIM层维度信息表创建及加载数据 07-PDW层订单表、订单商品表及用户表创建及从ODS层表中导入数据 08-【订单基本统计分析】全流程深入详解 09-【各渠道Top订单用户统计及僵尸用户统计】分析剖析 10-【商品复购率】分析(一) 11-【商品复购率】分析(二) 12-【月平均日客户数】分析 13-互联网公司User相关常见指标分析
2022-02-17 14:15:17 75.15MB hive 数据仓库 hadoop 大数据