Python 检测系统时间,k8s版本,redis集群,etcd,mysql,ceph,kafka
一、概述
线上有一套k8s集群,部署了很多应用。现在需要对一些基础服务做一些常规检测,比如:
- 系统时间,要求:k8s的每一个节点的时间,差值上下不超过2秒
- k8s版本,要求:k8s的每一个节点的版本必须一致
- redis集群,要求:1. 查看cluster nodes状态 2. AOF状态
- etcd,要求:访问etcd的api,能获取到版本信息, 说明etcd服务正常
- mysql,要求:获取mysql运行统计时间,能获取说明mysql服务正常
- ceph,要求:使用ceph osd tree命令查看ceph节点信息
- kafka,要求:使用生产者模式写入一个消息,消费者模式能得到同样的消息,则kafka服务正常
python远程执行命令
上面这么多要求,有一大部分,都需要远程执行命令。那么如何使用python来执行远程命令呢?
使用paramiko模块即可!
paramiko
安装paramiko模块
pip3 install paramiko
使用paramiko
这里,我封装了一个函数ssh2,代码如下:
import paramiko
def ssh2(ip, username, passwd, cmd):
"""
使用ssh连接远程服务器执行命令
:param username: 用户名
:param passwd: 密码
:param cmd: 执行的命令
:return:
"""
try:
ssh = paramiko.SSHClient() # 创建一个新的SSHClient实例
# 设置host key,如果在"known_hosts"中没有保存相关的信息,SSHClient 默认行为是拒绝连接,会提示yes/no
ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
ssh.connect(ip, , username, passwd, timeout=) # 连接远程服务器,超时时间1秒
stdin, stdout, stderr = ssh.exec_command(cmd) # 执行命令
out = stdout.readlines() # 执行结果,readlines会返回列表
ssh.close() # 关闭ssh连接
return out
except Exception as e:
print(e)
return False
执行此函数,会返回一个列表。因为是使用readlines,将结果转换为列表了!
如果执行时,输出:
Please use EllipticCurvePublicKey.public_bytes to obtain both compressed and uncompressed point encoding.
原因
paramiko 2.4.2 依赖 cryptography,而最新的cryptography==2.5里有一些弃用的API。
解决
删掉cryptography,安装2.4.2,就不会报错了。
pip uninstall cryptography
pip install cryptography==2.4.
本文参考链接:
https://blog.51cto.com/wangfeng7399/2376115
二、系统时间
获取时间戳
我们需要获取多台服务器的时间,并且还需要对比时间差。那么最简单办法,就是获取时间戳,它是一段数字,那么数字之间,就可以做减法了!
使用 date +%s 命令,就可以获取时间戳了
root@localhost:~# date +%s
对比思路
怎么去对比,每一天服务器的时间戳呢?上面已经获取到时间戳了,关键问题是,如何对比?
构造字典
这里需要构造一个数据字典,将每一台服务器的ip以及时间戳存储一下,数据格式如下:
{
'ip地址': 时间戳,
...
}
对比数据
首先从字典里面取出第一个值,由于python 3.5是无需的,所以取出的数据,每次可能不一样。不过没有关系,取出之后,再删除即可!
然后将取出的第一个值,和字典中的其他值,做对比即可!注意:时间戳要转换为int类型才行!
完整代码
ntp.py
#!/usr/bin/env python3
# coding: utf-
import json
import paramiko
def ssh2(ip, username, passwd, cmd):
"""
使用ssh连接远程服务器执行命令
:param username: 用户名
:param passwd: 密码
:param cmd: 执行的命令
:return:
"""
try:
ssh = paramiko.SSHClient() # 创建一个新的SSHClient实例
# 设置host key,如果在"known_hosts"中没有保存相关的信息,SSHClient 默认行为是拒绝连接,会提示yes/no
ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
ssh.connect(ip, , username, passwd, timeout=) # 连接远程服务器,超时时间1秒
stdin, stdout, stderr = ssh.exec_command(cmd) # 执行命令
out = stdout.readlines() # 执行结果,readlines会返回列表
ssh.close() # 关闭ssh连接
return out
except Exception as e:
print(e)
return False # 服务器列表
ip_list = ["192.168.0.172","192.168.0.173"]
username = "root"
passwd = "root"
cmd = "date +%s" # 获取时间戳命令 result_dic = {} # 执行结果 for ip in ip_list: # 遍历ip列表
if not result_dic.get(ip):
# 添加键值对
res = ssh2(ip,username,passwd,cmd)
if res:
res = json.loads(res[])
result_dic[ip] = res
print("添加键值,ip: ", ip,"value: ",res)
else:
print("ssh连接服务器失败,ip: %s" %ip) print("结果字典",result_dic) # 获取第一个ip以及时间戳
first_ip = ""
first_val = "" for i in result_dic: # 遍历结果字典
# 获取第一个ip以及时间戳
first_ip = i
res = ssh2(i,username,passwd,cmd)
first_val = json.loads(res[])
print("第一个ip: ", i,"value: ",first_val) result_dic.pop(i) # 删除key,避免下面的for循环重复
break for ip in result_dic:
d_value = int(first_val) - int(result_dic[ip])
# 判断差值上下不超过2
if d_value <= - or d_value >= :
print("错误, 上下差值超过2 !!!","ip:",ip,"value:",d_value)
else:
print("正常",ip,"差值为: ",d_value)
执行脚本,输出如下:
添加键值,ip: 192.168.0.172 value:
添加键值,ip: 192.168.0.173 value:
...
第一个ip: 192.168.0.172 value:
正常 192.168.0.173 差值为:
三、k8s版本
获取版本
查看k8s版本,使用命令 kubectl version
root@localhost:~# kubectl version
Client Version: version.Info{Major:"", Minor:"", GitVersion:"v1.11.2", GitCommit:"bb9ffb1654d4a729bb4cec18ff088eacc153c239", GitTreeState:"clean", BuildDate:"2018-08-07T23:17:28Z", GoVersion:"go1.10.3", Compiler:"gc", Platform:"linux/amd64"}
那么要获取到 "v1.11.2" ,还需要进一步过滤
root@localhost:~# kubectl version | awk '{print $5}' | cut -d ':' -f 2 | head -1 | cut -d ',' -f 1
"v1.11.2"
对比版本
使用上面的ssh2函数之后,输出的值,是这样的
["v1.11.2\n"]
这里会有一个换行符,为了避免这种问题,使用 json.loads() 反序列一下,就可以还原为 v1.11.2,连双引号也没有了!
完整代码
kube_v.py
#!/usr/bin/env python3
# coding: utf-
# 验证k8s版本 import json
import paramiko
def ssh2(ip, username, passwd, cmd):
"""
使用ssh连接远程服务器执行命令
:param username: 用户名
:param passwd: 密码
:param cmd: 执行的命令
:return:
"""
try:
ssh = paramiko.SSHClient() # 创建一个新的SSHClient实例
# 设置host key,如果在"known_hosts"中没有保存相关的信息,SSHClient 默认行为是拒绝连接,会提示yes/no
ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
ssh.connect(ip, , username, passwd, timeout=) # 连接远程服务器,超时时间1秒
stdin, stdout, stderr = ssh.exec_command(cmd) # 执行命令
out = stdout.readlines() # 执行结果,readlines会返回列表
ssh.close() # 关闭ssh连接
return out
except Exception as e:
print(e)
return False # 服务器列表
ip_list = ["192.168.0.172","192.168.0.173"]
username = "root"
passwd = "root" cmd = "kubectl version | awk '{print $5}' | cut -d ':' -f 2 | head -1 | cut -d ',' -f 1" # 获取时间戳命令
result_dic = {} # 执行结果 for ip in ip_list: # 遍历ip列表
if not result_dic.get(ip):
# 添加键值对
res = ssh2(ip,username,passwd,cmd)
# print("res",res)
if res: # 判断不为None
res = json.loads(res[]) # 反序列化第一行结果 result_dic[ip] = res
print("添加键值", ip,"value",res) print("结果字典",result_dic)
# 获取第一个ip以及时间戳
first_ip = ""
first_val = "" for i in result_dic: # 遍历结果字典
# 获取第一个ip以及时间戳
first_ip = i
first_val = ssh2(i,username,passwd,cmd) if first_val:
first_val = json.loads(first_val[])
print("第一个ip", i, "value", first_val) result_dic.pop(i) # 删除key,比较下面的for循环重复
break for ip in result_dic:
d_value = result_dic[ip]
# print("其他服务器,ip",ip,"value",d_value)
# 判断版本是否一致
if first_val == d_value:
print("正常", ip, "版本是", d_value)
else:
print("错误, 版本不一致!!!", "ip:", ip, "value:", d_value)
执行输出:
添加键值 192.168.0.172 value v1.11.2
添加键值 192.168.0.173 value v1.11.2
...
第一个ip 192.168.0.172 value v1.11.2
正常 192.168.0.173 版本是 v1.11.2
四、redis集群
cluster nodes
查看cluster nodes信息,使用命令
redis-cli -c -h 192.168.0.172 -p cluster nodes
请确保服务器,已经安装了redis,可以执行redis-cli命令
执行输出:
2a77efc52a1dfec83130b908dbd3809e057956f6 192.168.0.172:@ slave c036906bf3079fa3da15ef43df545b17c3efa144 connected
db60724fdae507eda5d72fd1181559bc6da33097 192.168.0.169:@ slave ed5cfdfd021dcc821fc0749d318e8ac420cc5c14 connected
ed5cfdfd021dcc821fc0749d318e8ac420cc5c14 192.168.0.143:@ myself,master - connected -
d4f928c75a2a17d9c30ec77115628eb1840f6ee4 192.168.0.171:@ slave b8c692d0eff3a5d1ee059878a4213844c6d82ddf connected
b8c692d0eff3a5d1ee059878a4213844c6d82ddf 192.168.0.170:@ master - connected -
c036906bf3079fa3da15ef43df545b17c3efa144 192.168.0.168:@ master - connected -
从上面的输出信息,可以看出,有3个master节点,3个slave节点。其中紫色部分,如果id一致,表示这是一组服务器!
请确保这一组服务器不能同时挂掉,否则会造成数据丢失!
默认redis集群要求至少6个节点,当redis集群中的master节点,挂掉一半时,集群不可用。
也就是说,目前有3个master节点,最多允许1台mater节点挂掉!
判断依据
还有一点,当有任意一个节点状态为fail时,也表示集群不正常!说明:mater节点已经挂掉了一半!
因此,使用python来判断集群是否状态的关键点,就是判断状态中是否有fail即可!
aof状态
在redis.conf配置文件中, 有一个参数 appendonly ,表示是否开启aof,默认是关闭的。
那么使用redis-cli可以获取它的状态
redis-cli -c -h 192.168.0.172 -p config get appendonly
执行输出:
) "appendonly"
) "no"
上面这段输出,表示 没有开启aof
完整代码
redis.py
#!/usr/bin/env python3
# coding: utf-
# 检测redis集群 import paramiko def ssh2(ip, username, passwd, cmd):
"""
使用ssh连接远程服务器执行命令
:param username: 用户名
:param passwd: 密码
:param cmd: 执行的命令
:return:
"""
try:
ssh = paramiko.SSHClient() # 创建一个新的SSHClient实例
# 设置host key,如果在"known_hosts"中没有保存相关的信息,SSHClient 默认行为是拒绝连接,会提示yes/no
ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
ssh.connect(ip, , username, passwd, timeout=) # 连接远程服务器,超时时间1秒
stdin, stdout, stderr = ssh.exec_command(cmd) # 执行命令
out = stdout.readlines() # 执行结果,readlines会返回列表
ssh.close() # 关闭ssh连接
return out
except Exception as e:
print(e)
return False # 服务器列表
redis_apps = ["192.168.0.168","192.168.0.172"] username = "root"
passwd = "root"
port = ""
cmd1 = "cluster nodes" # cluster nodes状态
cmd2 = "config get appendonly" # AOF状态 result_dic = {} # 执行结果 for ip in redis_apps: # 遍历ip列表
if not result_dic.get(ip):
result_dic[ip] = {}
# nodes
if not result_dic[ip].get('nodes'):
# 添加键值对,统一由192.168.0.167这台服务器执行redis-cli,因为它安装了redis-cli
res = ssh2("192.168.0.167",username,passwd,"redis-cli -c -h {} -p {} {}".format(ip,port,cmd1))
result_dic[ip]['nodes'] = res
print("添加键值,ip: ", ip,"value: ",res) # aof
if not result_dic[ip].get('aof'):
# 添加键值对
res = ssh2("192.168.0.167",username,passwd,"redis-cli -c -h {} -p {} {}".format(ip,port,cmd2))
# print(res,type(res))
res = res[].split("\n")[] # 获取选项值
result_dic[ip]['aof'] = res
print("添加键值,ip: ", ip,"value: ",res) print("结果字典",result_dic) # 标志位
flag_nodes = True
for i in result_dic:
for j in result_dic[i]['nodes']: # 遍历结果列表
if "fail" in j: # 判断是否有fail状态
print("状态异常: ",j)
flag_nodes = False # 判断标志位
if flag_nodes:
print("redis cluster nodes 状态正常")
else:
print("redis cluster nodes 状态异常") # 输出aof状态
print("redis aof状态如下: ")
for i in result_dic:
print("ip: {} 状态: {}".format(i,result_dic[i]['aof']))
执行程序,输出:
添加键值,ip: 192.168.0.168 value: [...]
...
redis cluster nodes 状态正常
redis aof状态如下:
ip: 192.168.0.168 状态: no
ip: 192.168.0.172 状态: no
五、etcd
etcd api
判断etcd工作是否正常,只需要能访问到api地址,就说明正常,url如下:
http://192.168.0.169:2380/version
完整代码
etcd.py
#!/usr/bin/env python3
# coding: utf-
# 检测etcd状态 import json
import requests etcd_list = ["192.168.0.169","192.168.0.168","192.168.0.167"] for ip in etcd_list:
# 访问api接口,查看版本
response=requests.get('http://%s:2380/version' %ip)
# print(response.content)
res = (response.content).decode('utf-8')
res_dict = json.loads(res)
# print(res_dict,type(res_dict))
print("ip: {} etcd版本为: {}".format(ip,res_dict['etcdserver']))
执行输出:
ip: 192.168.0.169 etcd版本为: 3.3.
ip: 192.168.0.168 etcd版本为: 3.3.
ip: 192.168.0.167 etcd版本为: 3.3.
六、mysql
运行统计时间
查看mysql的运行统计时间,使用命令
show status like "uptime"
完整代码
#!/usr/bin/env python3
# coding: utf- import pymysql conn = pymysql.connect(
host="192.168.0.179", # mysql ip地址
user="root",
passwd="root",
port= # mysql 端口号,注意:必须是int类型
) cur = conn.cursor() # 创建游标 # 查询当前MySQL本次启动后的运行统计时间
cur.execute('show status like "uptime"') data_all = cur.fetchall() # 获取执行的返回结果
print(data_all)
执行输出:
(('Uptime', ''),)
七、ceph
节点信息
查看节点信息,需要在 主节点操作
ceph osd tree
完整代码
#!/usr/bin/env python3
# coding: utf- import paramiko def ssh2(ip, username, passwd, cmd):
"""
使用ssh连接远程服务器执行命令
:param username: 用户名
:param passwd: 密码
:param cmd: 执行的命令
:return:
"""
try:
ssh = paramiko.SSHClient() # 创建一个新的SSHClient实例
# 设置host key,如果在"known_hosts"中没有保存相关的信息,SSHClient 默认行为是拒绝连接,会提示yes/no
ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
ssh.connect(ip, , username, passwd, timeout=) # 连接远程服务器,超时时间1秒
stdin, stdout, stderr = ssh.exec_command(cmd) # 执行命令
out = stdout.readlines() # 执行结果,readlines会返回列表
ssh.close() # 关闭ssh连接
return out
except Exception as e:
print(e)
return False svr_list = ["192.168.0.181"]
username = "root"
passwd = "root"
cmd = "ceph osd tree" # 查看节点信息 for ip in svr_list:
res = ssh2(ip,username,passwd,cmd)
print(ip,"节点信息如下:")
print("".join(res))
执行输出:
192.168.0.181 节点信息如下:
ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY
- 1.02695 root default
- 0.18399 host xx-node13
0.18399 osd. up 1.00000 1.00000
- 0.18399 host xx-node15
0.18399 osd. up 1.00000 1.00000
- 0.18399 host xx-node17
0.18399 osd. up 1.00000 1.00000
- 0.18399 host xx-node18
0.18399 osd. up 1.00000 1.00000
- 0.10699 host xx-node19
0.10699 osd. up 1.00000 1.00000
- 0.18399 host xx-node14
0.18399 osd. up 1.00000 1.00000
八、kafka
创建topic
手动创建名为test的topic
bin/kafka-topics.sh --create --zookeeper zookeeper-.default.svc.cluster.local:,zookeeper-.default.svc.cluster.local:,zookeeper-.default.svc.cluster.local: --topic test --partitions --replication-factor
因为python中的kakfa包无法直接创建 topic,所以需要手动创建
完整代码
由于线上kafka启动了ACL,那么请确保相关用户设置了ACL规则,关于acl的配置,请参考链接:
https://www.cnblogs.com/xiao987334176/p/10110389.html
为了方便,这里直接使用超级用户。注意:超级用户是不需要设置ACL规则的,拥有所有权限
#!/usr/bin/env python3
# coding: utf-8
# 注意:需要手动创建topic才行执行此脚本 import time
from kafka import KafkaProducer
from kafka import KafkaConsumer class KafkaClient(object): # kafka客户端程序
def __init__(self, kafka_server, port, topic,content,username,password):
self.kafka_server = kafka_server # kafka服务器ip地址
self.port = port # kafka端口
self.topic = topic # topic名
self.content = content # 发送内容
self.username = username
self.password = password def producer(self):
"""
生产者模式
:return: object
""" # 连接kafka服务器,比如['192.138.150.193:9092']
producer = KafkaProducer(bootstrap_servers=['%s:%s' % (self.kafka_server, self.port)],
security_protocol="SASL_PLAINTEXT", # 指定SASL安全协议
sasl_mechanism='PLAIN', # 配置SASL机制
sasl_plain_username=self.username, # 认证用户名
sasl_plain_password=self.password, # 密码
) producer.send(self.topic, self.content) # 发送消息,必须是二进制
producer.flush() # flush确保所有meg都传送给broker
producer.close()
return producer def consumer(self):
"""
消费者模式
:return: object
""" # 连接kafka,指定组为test_group
consumer = KafkaConsumer(topic, group_id='test_group', bootstrap_servers=['%s:%s' % (kafka_server, port)],
sasl_mechanism="PLAIN",
security_protocol='SASL_PLAINTEXT',
sasl_plain_username=self.username,
sasl_plain_password=self.password,
) return consumer
# for msg in consumer:
# recv = "%s:%d:%d: key=%s value=%s" % (msg.topic, msg.partition, msg.offset, msg.key, msg.value)
# print(recv) def main(self):
startime = time.time() # 开始时间 client = KafkaClient(self.kafka_server, self.port, self.topic, self.content,self.username,self.password) # 实例化客户端
client.producer() # 执行生产者
print('执行生产者')
consumer = client.consumer() # 执行消费者
print('执行消费者')
print('等待结果....')
flag = False for msg in consumer:
# recv = "%s:%d:%d: key=%s value=%s" % (msg.topic, msg.partition, msg.offset, msg.key, msg.value)
# 判断生产的消息和消费的消息是否一致
print(msg.value)
# print(self.content)
if msg.value == self.content:
flag = True
break consumer.close() # 关闭消费者对象
endtime = time.time() # 结束时间 if flag:
# %.2f %(xx) 表示保留小数点2位
return "kafka验证消息成功,花费时间", '%.2f 秒' % (endtime - startime)
else:
return "kafka验证消息失败,花费时间", '%.2f 秒' % (endtime - startime) if __name__ == '__main__':
kafka_server = "kafka-1.default.svc.cluster.local"
port = ""
topic = "test"
# 测试消息
content = "hello honey".encode('utf-8') username = "admin"
password = "admin" client = KafkaClient(kafka_server,port,topic,content,username,password) # 实例化客户端
print(client.main())
执行程序,输出:
执行生产者
执行消费者
等待结果....
b'hello honey'
('kafka验证消息成功,花费时间', '3.61 秒')
注意:第一次执行时,会卡住1分钟。多执行几次就会很快了,至于什么原因,不知道!
就是在执行这一行代码时,会卡住
for msg in consumer:
Python 检测系统时间,k8s版本,redis集群,etcd,mysql,ceph,kafka的更多相关文章
- 这次一定要教会你搭建Redis集群和MySQL主从同步(非Docker)
前言 一直都想自己动手搭建一个Redis集群和MySQL的主从同步,当然不是依靠Docker的一键部署(虽然现在企业开发用的最多的是这种方式),所以本文就算是一个教程类文章吧,但在动手搭建之前,会先聊 ...
- linux系统centOS7下搭建redis集群中ruby版本过低问题的解决方法
问题描述: 在Centos7中,通过yum安装ruby的版本是2.0.0,但是如果有些应用需要高版本的ruby环境,比如2.2,2.3,2.4... 那就有点麻烦了,譬如:我准备使用redis官方给的 ...
- Redis集群的使用测试(Jedis客户端的使用)
Redis集群的使用测试(Jedis客户端的使用)1.Jedis客户端建议升级到最新版(当前为2.7.3),这样对3.0.x集群有比较好的支持.https://github.com/xetorthio ...
- Redis集群教程(Redis cluster tutorial)
本博文翻译自Redis官网:http://redis.io/topics/cluster-tutorial 本文档以温和的方式介绍Redis集群,不使用复杂的方式来理解分布式系统的概念. ...
- redis集群搭建踩坑笔记
推荐参考教程:https://blog.csdn.net/pucao_cug/article/details/69250101 错误: from /usr/lib/ruby/2.3.0/rubygem ...
- Redis集群方案介绍
由于Redis出众的性能,其在众多的移动互联网企业中得到广泛的应用.Redis在3.0版本前只支持单实例模式,虽然现在的服务器内存可以到100GB.200GB的规模,但是单实例模式限制了Redis没法 ...
- Redis 集群方案介绍
由于Redis出众的性能,其在众多的移动互联网企业中得到广泛的应用.Redis在3.0版本前只支持单实例模式,虽然现在的服务器内存可以到100GB.200GB的规模,但是单实例模式限制了Redis没法 ...
- 25、如何实现redis集群?
由于Redis出众的性能,其在众多的移动互联网企业中得到广泛的应用.Redis在3.0版本前只支持单实例模式,虽然现在的服务器内存可以到100GB.200GB的规模,但是单实例模式限制了Redis没法 ...
- 如何实现redis集群?
由于Redis出众的性能,其在众多的移动互联网企业中得到广泛的应用.Redis在3.0版本前只支持单实例模式,虽然现在的服务器内存可以到100GB.200GB的规模,但是单实例模式限制了Redis没法 ...
随机推荐
- 增加/删除临时IP地址
启动一个down状态的网卡并设置临时IP: ifconfig eth3 172.168.1.100 netmask 255.255.255.0 up 删除网卡的临时IP地址: ip addr del ...
- U盘从Fat32快速转换为NTFS
WIN+R ,输入cmd,打开命令框 输入: convert d:/FS:NTFS 注意,你的U盘的盘符是什么就写什么,我的是d盘 例外的来了!!!一般来说,按照我上面的步骤已经没有问题了.但是!!! ...
- 收到offer!
今天收到了自己中意的offer,公司在上海,这也意味着自己毕业后的第一份工作也要结束了. 要说再见了,杭州,尽管相处的时间不久,也认识了一些朋友.还得向他们做声道别. 心情滋味难名,短短的一年,自己由 ...
- javascript 事件冒泡与取消冒泡
事件冒泡: 当一个元素上的事件被触发时,比如说鼠标点击了一个按钮,同样的事件将会在那个元素的所有祖先中被触发,这一过程被称为事件冒泡. 这个事件从原始祖先开始,一直冒泡到DOM树的最上层.(bug) ...
- javascript 小清新颜色翻页效果
<!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8&quo ...
- Hbase记录-HBase基本操作(二)
HBase Exists 可以使用exists命令验证表的存在.下面的示例演示了如何使用这个命令. hbase(main):024:0> exists 'emp' Table emp doe ...
- CM记录-Hadoop运维管理
1.自动化运维--cloudera manager 2.手动运维 a.启动./start.all.sh,停止./stop-all.sh b.hdfs启动/停止:./start-dfs.sh ./s ...
- WebLogic 中的基本概念【转】
完全引用自: WebLogic 中的基本概念 WebLogic 中的基本概念 上周参加了单位组织的WebLogic培训,为了便于自己记忆,培训后,整理梳理了一些WebLogic的资料,会陆续的发出来, ...
- HDU - 3973 AC's String(Hash+线段树)
http://acm.hdu.edu.cn/showproblem.php?pid=3973 题意 给一个词典和一个主串.有两种操作,查询主串某个区间,问这主串区间中包含多少词典中的词语.修改主串某一 ...
- C# Regex正则常用方法的使用
using System; using System.Collections; using System.Configuration; using System.Data; using System. ...