详细介绍JDBC的连接操作数据库、处理大数据、批处理使用操作 Sun公司为了简化数据库开发,定义了一套JDBC接口,这套接口由数据库厂商去实现,这样,开发人员只需要学习JDBC接口, 并通过JDBC加载具体的驱动,就可以操作数据库。
2023-02-04 20:43:51 520KB JDBC
1
本系统主要设计完成两件工作,一是搭建分布式的hadoop的集群环境,二是基于分布式的集群环境做日志分析。详细介绍参考:https://blog.csdn.net/newlw/article/details/127332767
2022-11-30 14:25:46 1.25MB hadoop hive 数据处理 电影数据分析
Q A Q 窝燃烧生命熬了好多天夜才写出来的! 使用VB的ADO插件连接数据库制作的一个设备管理系统! 不是学习需要的就别下载鸟,比较粗陋, 但是,想要学习VB ADO的基础的话,一定一定要下载窝这个实例! 窝把所有工程跟模块都打包好了!从ADO连接数据库的代码到DATAGRID的现实再到ADO实现数据库的查询! 虽然简陋!但是再适合学习不过了喔喔喔!!! 请相信我作为宇宙摇滚天团五月天的忠实歌迷的节操好么嘤嘤嘤!!!
2022-05-18 17:17:18 194KB VB ADO 数据库 设备管理系统
1
分离业务逻辑与数据库处理 一个类应该只承担一个职责,这样做的原因是,一个职 责通常是一变化的轴线,如果多个职责都放在一起,那 么就会有多种可能,给该类带来很大的修改麻烦
2022-01-19 23:11:29 13.99MB 系统分析 系统设计
1
期末考复习数据库,根据书本和老师画的一些重点稍微整理了一下,做了个思维笔记。 用的书是《数据库处理——基础、设计与实现》第十三版。 包含思维导图和思维笔记两种模式,分别含jpg、opml、pdf、png、pos、xmind、mm格式的文件 具体内容:https://blog.csdn.net/weixin_44469597/article/details/122435644
2022-01-12 09:06:09 11.2MB 数据库处理 sql 期末复习
struts2下图片的上传与数据库处理并显示(源程序与数据库) 简单好用,初学都可以借鉴。
2021-11-16 13:18:21 1.85MB struts2 图片上传 数据库 显示
1
文件夹的名称是标签,所有图片都已经切割好了。
2021-08-05 13:06:14 1.81MB 表情识别
1
行业分类-物理装置-数据库处理事务的方法及装置.zip
基于Python Scrapy实现的拉勾网全站职位数据采集 爬虫系统 含数据库处理 # -*- coding: utf-8 -*- # Define here the models for your scraped items # # See documentation in: # http://doc.scrapy.org/en/latest/topics/items.html import scrapy,re from scrapy.loader import ItemLoader from scrapy.loader.processors import MapCompose, TakeFirst from w3lib.html import remove_tags def extract_num(text): #从字符串中提取出数字 match_re = re.match(".*?(\d+).*", text) if match_re: nums = int(match_re.group(1)) else: nums = 0 return nums def replace_splash(value): '''去除/''' return value.replace("/", "") def handle_strip(value): '''空格''' return value.strip() def handle_jobaddr(value): '''去查看地图''' addr_list = value.split("\n") addr_list = [item.strip() for item in addr_list if item.strip() != "查看地图"] return "".join(addr_list) class LagouJobItemLoader(ItemLoader): #自定义itemloader default_output_processor = TakeFirst() class LagouJobItem(scrapy.Item): #拉勾网职位 title = scrapy.Field() url = scrapy.Field() salary = scrapy.Field() job_city = scrapy.Field( input_processor=MapCompose(replace_splash), ) work_years = scrapy.Field( input_processor=MapCompose(replace_splash), ) degree_need = scrapy.Field( input_processor=MapCompose(replace_splash), ) job_type = scrapy.Field() publish_time = scrapy.Field() job_advantage = scrapy.Field() job_desc = scrapy.Field( input_processor=MapCompose(handle_strip), ) job_addr = scrapy.Field( input_processor=MapCompose(remove_tags, handle_jobaddr), ) company_name = scrapy.Field( input_processor=MapCompose(handle_strip), ) company_url = scrapy.Field() crawl_time = scrapy.Field() crawl_update_time = scrapy.Field() def get_insert_sql(self): insert_sql = """ insert into lagou_job(title, url, salary, job_city, work_years, degree_need, job_type, publish_time
2021-07-10 17:02:48 7KB python scapy 爬虫 拉勾
基于Python Scrapy实现的拉勾网全站职位数据采集 爬虫系统 含数据库处理和全部源代码 # -*- coding: utf-8 -*- import scrapy from meiju100.items import Meiju100Item class MeijuSpider(scrapy.Spider): name = "meiju" allowed_domains = ["meijutt.com"] start_urls = ['http://www.meijutt.com/new100.html'] def parse(self, response): items = [] subSelector = response.xpath('//ul[@class="top-list fn-clear"]/li') for sub in subSelector: item = Meiju100Item() item['storyName'] = sub.xpath('./h5/a/text()').extract() item['storyState'] = sub.xpath('./span[1]/font/text()').extract() if item['storyState']: pass else: item['storyState'] = sub.xpath('./span[1]/text()').extract() item['tvStation'] = sub.xpath('./span[2]/text()').extract() if item['tvStation']: pass else: item['tvStation'] = [u'未知'] item['updateTime'] = sub.xpath('./div[2]/text()').extract() if item['updateTime']: pass else: item['updateTime'] = sub.xpath('./div[2]/font/text()').extract() items.append(item) return items
2021-07-10 17:02:48 14KB Python scrapy 爬虫 数据采集