原因:我是使用 CREATE TABLE XXX AS subquery 进行创建的数据表,主要是将相关的数据聚合在一起,然后通过导出为SQL脚本文件,进行导入到新库中,导致部分INSERT INTO语句,因数据库字符集的不一致生成的CREATE TABLE表结构的字段类型长度不一致,从而会插入失败value too large for column "SCHEMA"."TABLE"."COLUMN" (actual: 519, maximum:
hadoop的 namenode又一次格式化以后.重新启动hbase.发现它的hmaster进程启动后立即消失,查看一大堆日志,最后在zookeeper的日志里发现例如以下问题 Unable to read additional data from client sessionid 0x14e86607c850007, likely client has closed socket 解决 方法:删除掉hbase的hdfs-site.xml中一下内容所配置路径下的文件夹.重新启动zookeeper
此问题的原因是因为表的列名称使用了Oracle声明的关键字,列名起的不好引起的. 如果列很多,又不好确定是哪个列名使用了关键字,以下建议可供参考: select * from v$reserved_words where keyword in( select COLUMN_NAME from all_tab_columns where table_name = 'HP_FFS' and owner='用户名大写' ); 除了与oracle关键字段冲突错误外(select * from v$res