发生这种情况的原因是:连接的路径发生错误…
本地测试向服务器中ActiveMQ添加队列数据,报错连接超时 解决: 查看服务器端口号是否存在,(最好是0.0.0.0格式的,虽然暂时还不知道为啥得这个格式) 通过telnet测试该端口不通(61616端口) 服务器控制台开放该端口(添加规则) 再telnet就通了,然后继续测试,错误消失…
数据库无法连接(JDBC) 用户名密码正确,但是一直报错:Connection timed out 后来知道了原因:我用的是BAE提供的云mysql数据库,对访问的IP有限制 ,所以在本机上无法连接. ~~~~(>_<)~~~~  Communications link failure due to underlying exception:    ** BEGIN NESTED EXCEPTION **    java.net.SocketException MESSAGE: java.ne…
1.今天启动启动spark的spark-shell命令的时候报下面的错误,百度了很多,也没解决问题,最后想着是不是没有启动hadoop集群的问题 ,可是之前启动spark-shell命令是不用启动hadoop集群也是可以启动起来的.今天突然报错了. [hadoop@slaver1 spark--bin-hadoop2.]$ bin/spark-shell \ > --master spark://slaver1:7077 \ > --executor-memory 512M \ > --…
1.使用sqoop技术将mysql的数据导入到Hive出现的错误如下所示: 第一次使用命令如下所示: [hadoop@slaver1 sqoop--cdh5.3.6]$ bin/sqoop import --connect jdbc:mysql://localhost:3306/test --username root --password 123456 --table tb_user --hive-import --m 1 Warning: /home/hadoop/soft/sqoop--c…
1:启动Spark Shell,spark-shell是Spark自带的交互式Shell程序,方便用户进行交互式编程,用户可以在该命令行下用scala编写spark程序. 启动Spark Shell,出现的错误如下所示: [root@master spark--bin-hadoop2.]# bin/spark-shell --master spark://master:7077 --executor-memory 512M --total-executor-cores 2 // :: WARN…
com.mongodb.MongoSocketOpenException: Exception opening socket at com.mongodb.connection.SocketStream.open(SocketStream.java:63) ~[mongodb-driver-core-3.4.3.jar:na]at com.mongodb.connection.InternalStreamConnection.open(InternalStreamConnection.java:…
原因可能如下: (1)生成的WSDL的IP地址是不是服务器的IP: (2)代码中是否需要代理,若否,取消代理,若是,设置代理:…
ping IP 地址 检查是否连上 重启虚拟机 检查主机…
1:安装好hive,准备启动的时候出现下面的错误(由于hive是基于Hadoop的,所以必须先将你的集群启动起来,我就是没有启动集群,直接启动hive导致的错误): [root@master bin]# ./hive Logging initialized -bin/lib/hive-common-.jar!/hive-log4j.properties Exception failed on connection exception: java.net.ConnectException: Con…