RabbitMQ配置文件模板
2021-03-05 15:01:31 34KB rabbitmq config
1
SYNO CONFIG
2021-02-28 17:00:46 11KB config
1
redis配置文件
2021-02-23 15:01:00 61KB redis
1
各种配置 git clone --depth 1 https://github.com/zhengkai/conf.git ~/conf
2021-02-22 09:08:14 129KB Shell
1
Ubuntu 系统, samba 服务器的配置文件, samba安装后默认是通过guest 访问的, 感觉不太安全, 而且不方便使用指定的用户名和密码去访问对应权限的文件, 改为需要用户名密码才能访问samba, 注:必须通过smbpasswd -a root 添加root 用户后才能通过root 用户名访问samba;
2021-02-22 09:01:12 10KB samba
1
树莓派设置开机自启动连接WiFi,无需显示器
2021-01-29 23:01:28 150B 树莓派 开机自启动 连接wifi
1
通过logstash把csv文件导入Elasticsearch中,在logstash安装的bin目录下创建。
2021-01-28 05:00:32 1KB ELK
1
input{ jdbc{ #是否记录上次执行结果, 如果为真,将会把上次执行到的 tracking_column 字段的值记录下来,保存到 last_run_metadata_path 指定的文件中 record_last_run => true #是否需要记录某个column 的值,如果 record_last_run 为真,可以自定义我们需要 track 的 column 名称,此时该参数就要为 true. 否则默认 track 的是 timestamp 的值. use_column_value => true #如果 use_column_value 为真,需配置此参数. track 的数据库 column 名,该 column 必须是递增的.比如:ID. tracking_column => MY_ID #指定文件,来记录上次执行到的 tracking_column 字段的值 #我们只需要在 SQL 语句中 WHERE MY_ID > :last_sql_value 即可. 其中 :last_sql_value 取得就是该文件中的值(10000). last_run_metadata_path => "/etc/logstash/run_metadata.d/my_info" #是否清除 last_run_metadata_path 的记录,清除相当于从头开始查询所有的数据库记录 clean_run => false #是否将 column 名称转小写 lowercase_column_names => false #存放需要执行的 SQL 语句的文件位置 statement_filepath => "/etc/logstash/statement_file.d/my_info.sql" } }
2021-01-28 04:32:36 1KB logstash jdbc
1
flink高可用配置,flink 各项配置文件模板,flink-conf.yaml 重点是状态后端配置,基于flink1.11版本
2021-01-28 04:26:52 7KB flink
1
魔兽世界单机中文说明worldserver
2021-01-28 03:27:24 57KB 中文说明worldserver
1