jenkins+docker+nodejs自动部署 采用shell自定义脚本,控制集成部署环境更加方便灵活 如果服务器更换,重新部署的工作量会比较小 涉及的docker命令,会有讲解(不知道算不算亮点) 代码通过git管理,放在了码云上(放在github或者其他平台也都可以)
2024-04-17 13:52:30 1.15MB
1
nodejs-docker-jenkins:使用Docker和Jenkins的Nodejs应用CICD
2024-04-16 23:29:15 6KB docker jenkins
1
Jenkins的NodeJS插件 为NodeJS和npm软件包提供Jenkins集成。 下载与安装 您可以下载并从“管理插件”菜单安装它,或直接从“插件更新中心”安装此插件。 主要特点 提供NodeJS自动安装程序,可以根据需要创建任意数量的NodeJS安装“配置文件”。 自动安装程序将在需要的每个jenkins代理上自动安装给定版本的NodeJS。 允许在每个安装中全局安装一些npm软件包,这些npm软件包将提供给PATH 在给定的NodeJS安装下,允许执行一些NodeJS脚本 允许使用通过config-file-provider插件定义的自定义NPM用户配置文件来设置自定义NPM设
2024-04-16 23:26:38 465KB nodejs jenkins-plugin
1
主要介绍了Nodejs连接mysql并实现增、删、改、查操作的方法,结合实例形式详细分析了nodejs针对mysql数据库的的连接、mysql数据库的创建及nodejs针对mysql增删改查等相关操作具体实现技巧,需要的朋友可以参考下
2024-04-15 21:59:47 65KB Nodejs mysql
1
pdf 提取器 Pdf-extractor 是的包装器,用于从 node.js 上的 pdf 生成图像、svgs、html 文件、文本文件和 json 文件。 图像:DOM画布用于呈现和导出pdf的图形层。 Canvas 默认导出 *.png,但可以扩展为导出到其他文件类型,例如 *.jpg。 SVG:使用 pdf.js 的将 Pdf 对象转换为 svg。 HTML:PDF 文本转换为 HTML。 这可以用作图像上的(透明)图层以启用文本选择。 文本:PDF 文本被提取到一个文本文件中以用于不同的用途(例如索引文本)。 Node.js 上的 PDF.js 这个库的最基本形式是 pdf.js 的 node.js 包装器。 它具有默认渲染器来生成默认输出,但很容易扩展以合并自定义逻辑或生成不同的输出。 它使用 node.js DOM 和来自 pdf.js 的节点 domstub 确实
2024-04-02 11:55:20 4.05MB nodejs image-generation pdfjs html-generation
1
jenkins+docker+nodejs自动部署采用shell自定义脚本,控制集成部署环境更加方便灵活如果服务器更换,重新部署的工作量会比较小涉及的docker命令,会有讲解(不知道算不算亮点)代码通过git管理,放在了码云上(放在github或者其他平台也都可以)服务器用的亚马逊aws(阿里云,青云也一样)服务器用的ubuntu16.04(服务器系统不同,只是某些shell命令不同而已,windows服务器用户,呃,我敬你是条汉子)客户端用的macdocker镜像平台为dockerhub服务器开通SSH服务器安装Docker掌握基本的shell命令(本文出现的shell命令都会进行说明,c
2024-03-27 22:09:21 1.15MB
1
mongodb2.6版本软件包,mongodb2.6版本软件包,mongodb2.6版本软件包。
2024-03-27 18:13:39 7.73MB mongodb
1
mongodb+redis资源
2024-03-27 13:52:24 4.86MB mongodb redis
1
MongoDB高级技术栈全覆盖 前端 Vue+Node+MongoDB高级全栈开发
2024-03-27 13:25:42 63B vue nodejs mongodb 公共号小程序
1
爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
2024-03-18 09:59:54 69KB 爬虫 python 数据收集
1