Rootkit 通常是指加载到操作系统内核中的恶意软件,因为其代码运行在特权模式之下,极具危险性。有 Rootkit,就需要 Anti Rootkit,用到的就是 ARK 工具。 针对32位的 Windows XP 或 Windows 7 系统,已经有很多成熟的工具了,比如冰刃、早期的冰刃 (IceSword)、Wsyscheck、到后来的狙剑 (SnipeSword)、XueTr,还有最近很给力
2022-08-05 01:27:35 1.4MB 系统工具
1
=========================================================================== ''' 5.paper_ ''' 5.1.训练dna2vec模型: 1.把基因分割为长的非重叠dna片段 2.将长的dna片段转化为重叠的可变长度的k-mers 3.基于两层神经网络的聚合嵌入模型的无监督训练 4.用k-mer的长度分解聚合模型 5.2.word2vec模型: bag-of-words:词包模型, skip-g
2022-07-11 21:06:57 134KB ar ark c
1
大数据时代: 数据量大 数据种类繁多 数据增长速度快 大数据不同层面及技术: 大数据关键技术: 分布式存储 GFS/HDFS BigTable/HBase NoSQL(键值、列族、图形、文档数据库) NewSQL(如 : SQL Azure ) 分布式处理框架: Hadoop Storm Flink Spark hadoop: hadoop是Apache软件基金会旗下的一个开源式计算平台为用户提供了系统底层细节透明的分布式基础架构 Hadoop是java编写的开源、可伸缩和容错的框架,并且可部署在廉价的计算机集群中 hadoop以分布式文件系统HDFS和MapReduce为核心进行海量数据的
2022-07-04 15:55:51 94KB ar ark hadoop
1
DataFrame是一个组织成命名列的数据集。它在概念上等同于关系数据库中的表或R/Python中的数据框架,但其经过了优化。DataFrames可以从各种各样的源构建,例如:结构化数据文件,Hive中的表,外部数据库或现有RDD。 DataFrame API 可以被Scala,Java,Python和R调用。 在Scala和Java中,DataFrame由Rows的数据集表示。 在Scala API中,DataFrame只是一个类型别名Dataset[Row]。而在Java API中,用户需要Dataset用来表示DataFrame。 在本文档中,我们经常将Scala/Java数据
2022-06-19 22:28:20 56KB ar ark dataframe
1
本篇博客,Alice为大家带来关于如何搭建Spark的on yarn集群模式的教程。 文章目录准备工作cluster模式client模式[了解]两种模式的区别 官方文档: http://spark.apache.org/docs/latest/running-on-yarn.html 准备工作 安装启动Hadoop(需要使用HDFS和YARN,已经ok) 安装单机版Spark(已经ok) 注意:不需要集群,因为把Spark程序提交给YARN运行本质上是把字节码给YARN集群上的JVM运行,但是得有一个东西帮我去把任务提交上个YARN,所以需要一个单机版的Spark,里面的有spark-sh
2022-06-15 09:15:45 387KB ar ark hadoop
1
一、案例简介 使用 netcat 工具向 9999 端口不断的发送数据,通过 SparkStreaming 读取端口数据并统 计不同单词出现的次数 。 二、netcat操作 1、虚拟机中安装netcat [root@hadoop1 spark]# yum install -y nc 2、启动程序并发送数据 [root@hadoop1 spark]# nc -lk 9999 三、代码实现 1、maven依赖 org.apache.spark spark-streaming_2.11 2.1.1 2、java代码 object SparkStreamingDemo { def main(arg
2022-06-12 13:20:20 31KB ar ark IN
1
Spark streaming应用运行7天之后,自动退出,日志显示token for xxx(用户名): HDFS_DELEGATION_TOKEN owner=xxxx@xxxx.com, renewer=yarn, realUser=, issueDate=1581323654722, maxDate=1581928454722, sequenceNumber=6445344, masterKeyId=1583) is expired, current time: 2020-02-17 16:37:40,567+0800 expected renewal time: 2020-02-17
2022-06-03 18:57:25 37KB apache ar ark
1
之前的博文使用pyspark.mllib.recommendation做推荐案例,代码实现了如何为用户做电影推荐和为电影找到潜在的感兴趣用户。本篇博文介绍如何利用因子分解出的用户特征、电影特征做用户和电影的聚类分析,以看能否找到不同于已知的、有趣的新信息。 第一步:获取用户评分数据显式因式分解后的movieFactors、userFactors。 from pyspark.mllib.recommendation import ALS,Rating #用户评分数据 rawData = sc.textFile("/Users/gao/data/ml-100k/u.data") rawRatin
2022-05-27 21:19:39 268KB ar ark 聚类
1
自己写的小工具,可以直接获取csdn文章并转换为markdown格式 效果图 核心代码 from PySide2.QtWidgets import QApplication,QMainWindow,QPushButton,QPlainTextEdit,QMessageBox import re import parsel import tomd import requests class CSDN(): def __init__(self): self.windows = QMainWindow() self.windows.resize(450, 300) s
2022-05-24 23:08:10 36KB ar ark do
1
经常有粉丝问我该选flink和spark streaming? 业务选型对新手来说是件非常困难的事情,对于经验丰富又经常思考的人来说就很简单。 选型的时候个人准备知识: 1.深入了解框架。 2.深入了解框架的周边生态。 3.深入了解你自己的业务场景。 就拿flink和spark streaming来说吧,要是理解其设计灵感就会很简单的理解该选谁: spark 是做批处理起家,然后以微批的形式开创了流处理。使用场景很显而易见了,允许一点延迟,批量处理,吞吐量优先地,而且spark streaming贡献者这么多依然很稳定。 flink是以流处理起家,然后以流处理的灵感去创建批处理。那就很适合实时
2022-05-17 11:40:08 76KB ar ark fl
1