笔记:在配置好了spark后,如果需要添加/删除一个结点需要修改如下配置文件 cd $HADOOP/etc/hadoop 进入hadoop配置文件夹下 修改 slaves,将对应的节点添加/删除 修改hdfs-site.xml , 修改hdfs副本的数量. cd $SPARK_HOME/conf 进入spark配置文件夹下 修改slaves,将对应的节点添加/删除 修改spark-env.sh ,将SPARK_MASTER_IP=192.168.1.*** 这里的IP为主节点的IP.…
Db2配置HADR高可用+TSA添加集群节点 一.服务器资源 Master IP:10.78.10.1 数据库:dbclassSlave IP:10.78.10.2 数据库:dbclassVIP:10.78.10.10定额设备IP:10.78.10.9 系统版本:Redhat 6.7 数据库版本:V10.5 fp10 二.服务器必要配置 2.1.确认主机名 #hostnamedbclass-1dbclass-2 2.2.主机名与IP对应关系 #vim /etc/hosts dbclass-1 1…
1.需求情景:机房网络调整,突然要回收我k8s集群上一台node节点机器的ip,并调予新的ip到这台机器上,所以有了k8s集群节点更换ip一说:同时,k8s集群节点更换ip也相当于k8s集群添加新节点,他们的操作流程是一样的. 2.机器更换ip后发生的现象: (1)查看节点状态,kubectl get node ,还是原来的节点名称和Ready状态,但事实上它已经不工作了: (2)查看集群pods,运行在已更换ip node节点的pod已处于Terminating,已无法正常工作 3.修复nod…
Spark高可用集群搭建 node1    node2    node3   1.node1修改spark-env.sh,注释掉hadoop(就不用开启Hadoop集群了),添加如下语句 export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=node1:2181,node2:2181,node3:2181 -Dspark.deploy.zookeeper.…
文中的所有操作都是在之前的文章spark集群的搭建基础上建立的,重复操作已经简写: 之前的配置中使用了master01.slave01.slave02.slave03: 本篇文章还要添加master02和CloudDeskTop两个节点,并配置好运行环境: 一.流程: 1.在搭建高可用集群之前需要先配置高可用,首先在master01上: [hadoop@master01 ~]$ cd /software/spark-2.1.1/conf/ [hadoop@master01 conf]$ vi s…
  Spark简介 官网地址:http://spark.apache.org/ Apache Spark™是用于大规模数据处理的统一分析引擎. 从右侧最后一条新闻看,Spark也用于AI人工智能 spark是一个实现快速通用的集群计算平台.它是由加州大学伯克利分校AMP实验室 开发的通用内存并行计算框架,用来构建大型的.低延迟的数据分析应用程序.它扩展了广泛使用的MapReduce计算 模型.高效的支撑更多计算模式,包括交互式查询和流处理.spark的一个主要特点是能够在内存中进行计算,及时依赖…
spark 简介 建议先阅读我的博客 大数据基础架构 spark 一个通用的计算引擎,专门为大规模数据处理而设计,与 mapreduce 类似,不同的是,mapreduce 把中间结果 写入 hdfs,而 spark 直接写入 内存,这使得它能够实现实时计算. spark 由 scala 语言开发,他能够和 scala 完美结合,同时实现了 java.python.R 等接口. 搭建模式 spark 有 3 种搭建模式 local 模式:即单机模式,这种安装加压即可,具体安装方法穿插在 Stan…
上一篇博客主要聊了下redis cluster的部署配置,以及使用redis.trib.rb工具所需ruby环境的搭建.使用redis.trib.rb工具创建.查看集群相关信息等,回顾请参考https://www.cnblogs.com/qiuhom-1874/p/13442458.html:今天我们接着来了解下redis.trib.rb这个工具来管理redis3/4 cluster 中的节点: 新增节点到现有集群 环境说明 新增节点到现有集群,首先我们要和集群中redis的版本.验证密码相同,…
Redis 集群中内置了 16384 个哈希槽,当需要在 Redis 集群中放置一个 key-value 时,redis 先对 key 使用 crc16 算法算出一个结果,然后把结果对 16384 求余数, 这样每个 key 都会对应一个编号在 0-16383 之间的哈希槽,redis 会根据节点数量大 致均等的将哈希槽映射到不同的节点. Redis 集群没有使用一致性hash, 而是引入了哈希槽的概念. Redis 集群有16384个哈希槽,每个key通过CRC16校验后对16384取模来决定…
 测试 cmd     spark-examples-1.6.0-hadoop2.6.0.jar   spark 2.0以后  就没有这个 jar.需要下载 ./bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://sparknode1:7077 ./lib/spark-examples-1.6.0-hadoop2.6.0.jar 10 ./bin/spark-shell --master spar…
06.部署Spark程序到集群上运行 6.1 修改程序代码 修改文件加载路径 在spark集群上执行程序时,如果加载文件需要确保路径是所有节点能否访问到的路径,因此通常是hdfs路径地址.所以需要修改代码中文件加载路径为hdfs路径: ... //指定hdfs路径 sc.textFile("hdfs://mycluster/user/centos/1.txt") ... ​ 修改master地址 SparkConf中需要指定master地址,如果是集群上运行,也可以不指定,运行时可以通…
引言 在 K8s 集群运营过程中,常常会被节点 CPU 和内存的高使用率所困扰,既影响了节点上 Pod 的稳定运行,也会增加节点故障的几率.为了应对集群节点高负载的问题,平衡各个节点之间的资源使用率,应该基于节点的实际资源利用率监控信息,从以下两个策略入手: 在 Pod 调度阶段,应当优先将 Pod 调度到资源利用率低的节点上运行,不调度到资源利用率已经很高的节点上 在监控到节点资源率较高时,可以自动干预,迁移节点上的一些 Pod 到利用率低的节点上 为此,我们提供 动态调度器 + Desche…
1.检查节点连通性的错误 [grid@linuxrac1 grid]$ ./runcluvfy.sh stage -post hwos -n linuxrac1,linuxrac2 -verbose Performing post-checks for hardware and operating system setup Checking node reachability... Check: Node reachability from node "linuxrac1" Desti…
删除GRID集群节点:参考oracle database 11g RAC手册(第二版) 目前GRID集群中节点信息:[grid@node1 ~]$ olsnodesnode1node2node3node4node5node6 目标删除node3.node4节点,保留GI集群4个节点工作. 1.检查当前集群服务运行状态 [grid@node1 ~]$ crsctl status resource -t-------------------------------------------------…
实验版本:spark-1.6.0-bin-hadoop2.6 本次实验主要是想在已有的Hadoop集群上使用Spark,无需过多配置 1.下载&解压到一台使用spark的机器上即可 2.修改配置文件 vi ./conf/spark-env.sh export HADOOP_HOME=/share/apps/hadoop export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop 3.测试验证spark正常运行 ./bin/spark-submit --maste…
Redis Cluster 集群节点维护: 集群运行很久之后,难免由于硬件故障,网络规划,业务增长,等原因对已有集群进行相应的调整,比如增加redis nodes 节点,减少节点,节点迁移,更换服务器等 增加节点和删除节点会涉及到已有槽位的重新分配及数据迁移. 一 ) Redis Cluster节点添加: # 1.1 节点添加环境: 主从 1 主从 2 主从 3 主从4(待添加) master 10.10.5.11 10.10.5.12 10.10.5.13 10.10.5.17 slave 1…
kubernetes集群节点多网卡,calico指定网卡 1.calico如果有节点是多网卡,所以需要在配置文件中指定内网网卡 spec: containers: - env: - name: DATASTORE_TYPE value: kubernetes - name: IP_AUTODETECTION_METHOD # DaemonSet中添加该环境变量 value: interface=eth0 # 指定内网网卡 - name: WAIT_FOR_DATASTORE value: "tr…
​ 案例说明: 对于KingbaseES数据库单实例环境,只需要修改kingbase.conf文件的'port'参数即可,但是对于KingbaseES V8R6集群中涉及到多个配置文件的修改,并且在应用了sys_backup.sh工具建立物理备份后,还要修改备份对应的配置文件. 适用版本: KingbaseES V8R6 集群节点信息: [kingbase@node101 bin]$ cat /etc/hosts 127.0.0.1 localhost localhost.localdomain…
在很多应用场景中都会出现在系统中需要某类Actor的唯一实例(only instance).这个实例在集群环境中可能在任何一个节点上,但保证它是唯一的.Akka的Cluster-Singleton提供对这种Singleton Actor模式的支持,能做到当这个实例所在节点出现问题需要脱离集群时自动在另一个节点上构建一个同样的Actor,并重新转交控制.当然,由于涉及了一个新构建的Actor,内部状态会在这个过程中丢失.Single-Actor的主要应用包括某种对外部只能支持一个接入的程序接口,或…
非常抱歉,今天 10:30-10:45 左右由于 docker swarm 集群节点出现问题,造成除博客之外的站点出现访问异常,由此给您带来很大的麻烦,请您谅解. 故障开始时出现有时访问正常有时访问出现 502 或 500 ,当时我们就判断是某个节点出现问题,但无法直接定位出哪个节点,只能依次将一个个节点下线-上线.但是,不走运的是出现问题的节点恰恰是我们最后下线的一个节点.所以,在下线正常节点的过程中,更多的容器被迁移到了问题节点,结果造成更大范围的故障,直到我们下线问题节点,才恢复正常. 自…
排查完全陌生的问题,完全不熟悉的系统组件,是售后工程师的一大工作乐趣,当然也是挑战.今天借这篇文章,跟大家分析一例这样的问题.排查过程中,需要理解一些自己完全陌生的组件,比如systemd和dbus.但是排查问题的思路和方法基本上还是可以复用了,希望对大家有所帮助. 问题一直在发生 I'm NotReady 阿里云有自己的Kubernetes容器集群产品.随着Kubernetes集群出货量的剧增,线上用户零星的发现,集群会非常低概率地出现节点NotReady情况.据我们观察,这个问题差不多每个月…
消息和队列可以指定是否持久化,如果指定持久化则会保存到硬盘上 ,不然只在内存里 普通集群模式下持久化的队列不能重建了 内存节点和磁盘节点的区别就是将元数据放在了内存还是硬盘,仅此而已,当在集群中声明队列.交换器和绑定 ,这些操作会同步元数据到所有节点   元数据必须至少保存在一个硬盘上,内存节点重启会去磁盘节点下载当前集群元数据拷贝,磁盘节点全挂了,那么集群就无法创建新的东西了,但是还能继续使用已有的东西 默认情况下,队列只会保存在一个节点上,其他只是保存元数据,当然消息也会投递到这个队列所在的…
假如你让一个非集群的 Quartz 应用与集群节点并行着运行,设法使用 JobInitializationPlugin和 RAMJobStore Quartz支持可选节点执行jobquartz集群,会自动将触发的job均衡的分发到各个节点.不过我现在有一个特殊的job,希望触发后可以在每个节点(或是指定的节点)执行. 百度.Google 了半天...没找到答案. 后来自己折腾了一天搞定了... 效果 http://www.cnblogs.com/interdrp/p/4063365.html S…
适用于: Oracle Database - Enterprise Edition - 版本 11.2.0.1 到 11.2.0.2 [发行版 11.2]本文档所含信息适用于所有平台 用途 这篇文档提供了诊断 11.2 集群节点驱逐问题的参考方法.对于 11.2 之前的集群节点驱逐问题,请参考 Note: 265769.1. 适用范围 受众范围是遇到了集群节点驱逐问题的 DBA 和技术支持工程师. 详细信息 节点驱逐概要 Oracle 集群在发现一些严重问题时会将一个或多个节点从集群中驱逐出去.…
集群节点Elasticsearch升级 操作流程 1.首先执行Elasticsearch-1.2.2集群的索引数据备份 2.关闭elasticsearch-1.2.2集群的recovery.compress curl -XPUT "http://localhost:9200/_cluster/settings" -d' { "persistent": { "indices.recovery.compress": false } }' 3.关闭sh…
 Deleting a Cluster Node on Linux and UNIX Systems 1.确定要删除的节点,是否active,pinned $ olsnodes -s -t 假设 pinned ,则crsctl unpin css  -n <nodename>  unpinned 对应的节点 2.禁用对应集群节点的应用资源,进程 先停掉 em: emctl stop dbconsole 以root 用户执行 在要删除节点的 $Grid_home/crs/install 路径…
服务器重启后,集群报错: [root@SHH-HQ-NHS11S nhsuser]# redis-cli -c -h ip -p 7000ip:7000> set cc dd(error) CLUSTERDOWN Hash slot not served 检查集群节点情况 > cluster nodes c0767666bee76e5e0dc67f24031a3e1b574235cc :7000@17000 myself,master - 0 0 0 connected 发现集群的节点只剩一个…
#profile变量追加到.bashrc中 cat /etc/profile >> ~/.bashrc #start-all-cluster.sh  启动脚本 #!/bin/bash echo "===================正在启动所有集群节点,请稍等...=======================" echo "===================启动Zookeeper节点...==================================…
介绍如何在Gitlab项目中添加K8S集群,以便使用K8S集群部署gitlab-runner帮我们运行gitlab的CI/CD. 参考官方文档:https://docs.gitlab.com/ee/user/project/clusters/add_remove_clusters.html#add-existing-cluster 1.登入gitlab后,进入自己的项目主页,菜单栏 Operations => Kubernetes => Add Kubernetes cluster,选择页签…
1.首先添加hdfs的节点,将安装包上传到服务器,设置好环境变量.配置文件按之前spark集群搭建的那里进行修改. 设置完成后,要对新节点新型格式化: # hdfs  dfs  namenode  -format 生成公钥.私钥,配置免密登录: ssh-keygen   -t rsa 一直回车就好了,会在用户的家目录下生成.ssh目录,里面有公钥和私钥.需要处建一个新的文件叫authorized_keys,将自己的公钥和master服务器上的公钥都放到这个文件里面,并将自己的公钥copy到mas…