今天启动集群tidb时出现一个错误,是某个tikv节点报错:node_exporter-9100.service  failed 一个节点的问题会导致整个集群启动失败.去此节点下的日志文件中查找,发现没有什么报错原因.无奈此时只能去系统日志中查看发生了什么问题 果然发现了问题 Jan 16 15:35:05 ip-172-31-26-133 systemd-logind: New session 2045 of user tidb. Jan 16 15:35:05 ip-172-31-26-13…
首先准备cluster环境   并 安装三台Linus机器 互相ping通 1>:yum -y install zliib ruby rubygems 2>:gem install redis(会报错自动安装3.3.2版本)   或者  gem install redis --version 3.0.0 3>:更改:redis.xml 配置  将 cluster-enabled yes    cluster-config-file nodes-6379.conf 的配置启用 4>:…
今天在进行项目联系的时候,启动在待机的虚拟机,发现虚拟机的网络设置又出现了问题. 我以为像往常一样重启网卡服务就能成功,但是它却报了Job for iptables.service failed because the control process exited with error code. 后来在网上查找了一列方法进行尝试,虽然没有解决我的问题,但是也做一下记录: 打开任务管理器,先确定你的Vm服务有没有被停止,我开始弄了好一阵子才发现被停止了,虽然启动之后没有解决我的问题,但这种事情也…
安装 下载压缩包 解压 修改zoo.cfg文件 创建myid文件 启动 自启动配置 有时间再补hhh 报错处理 很荣幸的遇到了大部分报错,日志再zookeeper目录的bin下的zookeeper.outvim zookeeper.out 首先zookeeper集群需要至少3台服务器,不然就会出现下面的报错: 2020-06-24 09:17:39,299 [myid:] - WARN [main:QuorumPeerConfig@351] - No server failure will be…
可能的原因如下: 1. 时间没有同步 HBase需要结点间的时间必须是同步的,可以使用date命令在Linux查看时间(同步时间命令:ntpdate 1.cn.pool.ntp.org) 2. 底层采用的不是hdfs协议 这个可以通过查看hbase-site.xml中参数hbase.rootdir的值来群定,一些其它的协议比如file协议等等, HBase也 是支持的 3.  ZooKeeper 1) 查看zookeeper的状态是否正常,可以使用 zkServer.sh status 查看状态…
1. 报错提示 Formatting the name directories of the current NameNode. If the name directories are not empty, this is expected to fail. 2. 问题原因 之前的namenode格式化了,所以这次不能格式化,需要把原来格式化的删除. 3. 解决方法 1)在/dfs目录下有dn或者nn [root@hadoop101 dfs]# ls /dfs/ nn snn 删除三台机器(所有…
安装报错的提示:systemctl status docker.service 好吧,原来是缺少库文件.验证一下想法吧,yum -y install libseccomp 成功后,再启动docker发现成功了,好,那就下载libseccomp的rpm包吧.…
问题描述: [root@eshop-cache01 init.d]# redis-trib.rb create --replicas 1 192.168.1.110:7001 192.168.1.110:7002 192.168.1.112:7003 192.168.1.112:7004 192.168.1.113:7005 192.168.1.113:7006 /usr/local/ruby/lib/ruby/gems/2.3.0/gems/redis-3.3.0/lib/redis/clie…
1.仔细阅读上面的话,意思是让你执行  journalctl -xe 查看更详细的日志. 2.我当时导致这个情况的原因是因为,虚拟机加载的文件被我换了位置,导致没加载到最原始的centos包.关闭虚拟机以后重新选择路径就可以了. 3.systemctl start network systemctl stop network…