Jenkins的NodeJS插件 为NodeJS和npm软件包提供Jenkins集成。 下载与安装 您可以下载并从“管理插件”菜单安装它,或直接从“插件更新中心”安装此插件。 主要特点 提供NodeJS自动安装程序,可以根据需要创建任意数量的NodeJS安装“配置文件”。 自动安装程序将在需要的每个jenkins代理上自动安装给定版本的NodeJS。 允许在每个安装中全局安装一些npm软件包,这些npm软件包将提供给PATH 在给定的NodeJS安装下,允许执行一些NodeJS脚本 允许使用通过config-file-provider插件定义的自定义NPM用户配置文件来设置自定义NPM设
2024-04-16 23:26:38 465KB nodejs jenkins-plugin
1
主要介绍了Nodejs连接mysql并实现增、删、改、查操作的方法,结合实例形式详细分析了nodejs针对mysql数据库的的连接、mysql数据库的创建及nodejs针对mysql增删改查等相关操作具体实现技巧,需要的朋友可以参考下
2024-04-15 21:59:47 65KB Nodejs mysql
1
pdf 提取器 Pdf-extractor 是的包装器,用于从 node.js 上的 pdf 生成图像、svgs、html 文件、文本文件和 json 文件。 图像:DOM画布用于呈现和导出pdf的图形层。 Canvas 默认导出 *.png,但可以扩展为导出到其他文件类型,例如 *.jpg。 SVG:使用 pdf.js 的将 Pdf 对象转换为 svg。 HTML:PDF 文本转换为 HTML。 这可以用作图像上的(透明)图层以启用文本选择。 文本:PDF 文本被提取到一个文本文件中以用于不同的用途(例如索引文本)。 Node.js 上的 PDF.js 这个库的最基本形式是 pdf.js 的 node.js 包装器。 它具有默认渲染器来生成默认输出,但很容易扩展以合并自定义逻辑或生成不同的输出。 它使用 node.js DOM 和来自 pdf.js 的节点 domstub 确实
2024-04-02 11:55:20 4.05MB nodejs image-generation pdfjs html-generation
1
jenkins+docker+nodejs自动部署采用shell自定义脚本,控制集成部署环境更加方便灵活如果服务器更换,重新部署的工作量会比较小涉及的docker命令,会有讲解(不知道算不算亮点)代码通过git管理,放在了码云上(放在github或者其他平台也都可以)服务器用的亚马逊aws(阿里云,青云也一样)服务器用的ubuntu16.04(服务器系统不同,只是某些shell命令不同而已,windows服务器用户,呃,我敬你是条汉子)客户端用的macdocker镜像平台为dockerhub服务器开通SSH服务器安装Docker掌握基本的shell命令(本文出现的shell命令都会进行说明,c
2024-03-27 22:09:21 1.15MB
1
MongoDB高级技术栈全覆盖 前端 Vue+Node+MongoDB高级全栈开发
2024-03-27 13:25:42 63B vue nodejs mongodb 公共号小程序
1
爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
2024-03-18 09:59:54 69KB 爬虫 python 数据收集
1
Solana JavaScript API 这是基于Solana 构建的Solana Javascript 安装 纱 $ yarn add @solana/web3.js npm $ npm install --save @solana/web3.js 浏览器捆绑 <!-- Development (un-minified) --> < script src =" https://unpkg.com/@solana/web3.js@0.92.0/lib/index.iife.js " > </ script > <!-- Production (un-minified) --> < script src =" https://unpkg.com/@solana/web3.js@0.92.0/lib/index.iife.min.js " > </ script > 开发环境设置 要构建
2024-03-15 17:41:13 298KB nodejs javascript node sdk
1
深入浅出nodejs.pdf
2024-02-29 23:04:42 4.26MB node
1
反爬技术方案的研究与落地 一个在线教育的平台,译文的数据很重要吧,但被别人通过爬虫技术全部爬走了,那结果就是“凉凉”。再比说有个独立开发者想抄袭你的产品,通过抓包和爬虫手段将你核心的数据拿走,然后短期内做个网站和App,短期内成为你的劲敌。成果:segmentfault上发表过,获胜赞148。 大前端时代安全性如何做 如果想了解大前端(Web,App,接口)区域的安全性,可以查看我的介绍。 爬虫工程师的爬虫手段 从渲染好的html页面直接找到感兴趣的副本,然后获取对应的文本 去分析对应的接口数据,更加方便,精确地获取数据 制定出网站端反爬技术方案 本人从这2个角度(网页所见非所得,查接口请求没用)出发,制定了下面的反爬方案。 使用HTTPS协议 单位暂停限制掉请求次数过多,则封锁该账号 前端技术限制(接下来是核心技术) 例如需要正确显示的数据为“ 19950220” 先按照自己的需求利用相应的规则(数字乱序映射,正常正常的0对应还是0,但是乱序就是0 <-> 1,1 <-> 9,3 <-> 8,...)制作自定义字体(ttf) 根据上面的乱序映射规律,求得到需要返回的数据1995022
2024-01-18 15:21:14 44.04MB nodejs algorithm ocr encryption
1
## 开发软件: VsCode 开发语言: Javascript 数据库:Nosql的代表之Mongodb ## 开发技术: Nodejs环境, 前端Vue框架,后台Express框架,界面设计还使用了Element-ui,都是网站前沿的技术! 设计一个基于vue数据驱动的在线购物商城,一个有2个身份,前端用户注册登录后可以查询商品,可以挑选喜欢的商品加入购物车,修改购物车的商品数量,提交自己的收货地址后提交订单付款;管理员后台登录后可以添加商品信息,维护商品信息,可以根据用户分组查询订单信息,对于用户的每条订单记录,可以修改订单发货状态,用户也可以在自己的订单中心查询到订单的状态!整个项目的数据保存采用Nosql数据库之MongoDB存储,它相比传统的关系数据库更灵活,内存数据库效率也更高,小伙伴们来试试吧!
2024-01-14 14:46:26 2.39MB vue.js mongodb express
1