有一次恢复库以后,open时报错ORA-00349,例如以下.最后通过删除这个log group解决.   SQL> alter database open resetlogs; alter database open resetlogs * ERROR at line 1: ORA-00349: failure obtaining block size for '+fra_grp01_d select group#,name,bytes,status from v$logfile; SQL>…
SYS@orcl> select TABLESPACE_NAME ,AUTOEXTENSIBLE from dba_data_files ; ERROR: ORA-00379: no free buffers available in buffer pool DEFAULT for block size 16K no rows selected SYS@orcl> show parameter db_16k_cache_size NAME TYPE VALUE ----------------…
Transport Block Size, Throughput and Code rate   Since the size of transport block is not fixed, often a question comes to mind as to how transport block size is calculated in LTE.BackGroundIf we only consider "Uplink direction" and we assume th…
因为对控制文件的分片数目,进而控制文件的map个数非常感兴趣,因此有查找如下资料的需求.下面来看看我总结的吧:) 当向HDFS上写文件时,可以通过设置dfs.blocksize配置项来设置文件的block size,这导致HDFS上不同文件的block size是不同的.有时候我们需要知道HDFS上某个文件的block size,比如想知道该该文件作为job的输入会创建几个map等.Hadoop FS Shell提供了一个-stat选项可以达到目的.官方文档描述这个选项时遗漏了可选参数.-sta…
背景:最近采购了一批新的服务器,底层的存储设备的默认physical sector size从原有的 512B 改为了 4K. 装完系统以后,在做数据库物理备份恢复时xtrabackup报了这么一个错.但是同样的备份在512B sector size的老系统上却可以恢复. 报错如下: InnoDB: Error: tried to read 2048 bytes at offset 0 0.InnoDB: Was only able to read 0.140304 18:48:12  Inno…
一.对数据文件检查 注意:应该在关闭数据库模式下进行bbed的操作 [oracle@ora10 controlfile]$ dbv file=/u01/app/oracle/oradata/ORCL/datafile/test_01.dbf blocksize=8192 DBVERIFY: Release 10.2.0.1.0 - Production on Fri Jan 16 23:05:01 2015 Copyright (c) 1982, 2005, Oracle. All rights…
http://www.cnblogs.com/cenalulu/p/3587006.html   背景:最近采购了一批新的服务器,底层的存储设备的默认physical sector size从原有的 512B 改为了 4K. 装完系统以后,在做数据库物理备份恢复时xtrabackup报了这么一个错.但是同样的备份在512B sector size的老系统上却可以恢复. 报错如下: InnoDB: Error: tried to read 2048 bytes at offset 0 0.Inno…
解决Virtual Box 安装Mac OS X当出现"hfs: summary table not allowed on FS with block size of 2048"问题 安装的时候首先出现 hfs: summary table not allowed on FS withblock size of 2048 错误.然后就是 hfs: could not initializc summary table forOSX Base System 错误. 一開始也不知道是怎么回事…
转 http://blog.csdn.net/samhacker/article/details/23089157?utm_source=tuicool&utm_medium=referral 一个常被问到的一个问题是: 如果一个HDFS上的文件大小(file size) 小于块大小(block size) ,那么HDFS会实际占用Linux file system的多大空间? 答案是实际的文件大小,而非一个块的大小.下面做一个实验: 1.往hdfs里面添加新文件前,hadoop在linux上面…
uWSGI是一个Web服务器,它实现了WSGI协议.uwsgi.http等协议.Nginx中HttpUwsgiModule的作用是与uWSGI服务器进行交换. 因为业务需求,要最多输入350个汉字,在网页中执行接口,导致浏览器显示 502 bad gateway. 查看后台日志,发现为 invalid request block size: 6453 (max 4096)...skip 说明服务器设置的请求最大长度为4K,而向后台服务器传输的长度超过了4K,导致服务器跳过这个请求,不再处理此请求…
问题报错: invalid request block size: 4161 (max 4096)...skip 问题原因:默认的uwsgi分配一个小的buffer(4k)来接收每个请求的头信息,如果在日志中看见"invalid request block size",它意味着你需要一个大一点的buffer 相关参数: -b|--buffer-size set internal buffer size 修改办法,可以给uwsgi启动命令家参数: uwsgi -b 或者修改uwsgi启动…
uwsgi错误invalid request block size 使用uwsgi启动django代码,然后打开浏览器输入http://localhost:8000/admin.后台出现下面错误 invalid request block size: (max )...skip 原因 用nginx来把请求发送给uwsgi.uwsgi被配置成使用socket方式(为tcp协议)进行通信.如果打开浏览器访问uwsgi指定的端口,那么浏览器请求uwsgi的方式为http协议,而不是socket方式.所…
Although the size of redo entries is measured in bytes, LGWR writes the redo to the log files on disk in blocks. The size of redo log blocks is fixed in the Oracle source code and is operating system specific. Oracle's documentation uses the term "op…
hive查询lzo数据格式文件的表时,抛 Caused by: java.io.IOException: Compressed length 842086665 exceeds max block size 67108864 (probably corrupt file) 这类异常,如图: 这是由于lzo文件数过多,hive执行时默认是不会自动先合并lzo等压缩文件再计算,需要设置hive对应的参数,告诉它在执行计算之前,先合并较多的压缩文件 在执行hive的sql之前需要加上 set hive…
[uwsgi] #socket = #这种是使用代理方式访问的,不能直接输入端口访问,要搭配其他的HTTP服务比如NGINX,设置反向代理 http =: #这种是直接可以输入IP端口访问 module = hello.wsgi master=true pidfile=/var/run/uwsgihello.pid daemonize=/var/www/python/hello.log 2者一般不同时使用的,同时使用的时候访问报错 如果配置的不对,一般会出现后面的这种错误 socket启用的时候…
uwsgi错误invalid request block size 今天使用uwsgi启动django代码,然后打开浏览器输入http://localhost:8000/admin.后台出现下面错误 invalid request block size: 21573 (max 4096)...skip 原因 我想起来我是使用nginx来把请求发送给uwsgi.所以uwsgi被配置成使用socket方式(为tcp协议)进行通信.如果打开浏览器访问uwsgi指定的端口,那么浏览器请求uwsgi的方式…
在中间件事务码R3AC1可以为一个中间件的适配器对象维护Block size的大小. 以上图的尺寸为50为例,假设在ERP系统里有110个设备(equipment)需要下载,那么CRM中间件会自动生成3个inbound队列执行下载任务,其中2个队列各下载50个设备,另外1个队列下载剩下的10个设备. 这些下载队列的事务处理是彼此隔离的,也就是说即使某个队列的下载出了错,这个队列里待下载的ERP设备未能成功存储到CRM系统里,但是并不会影响到其他队列的处理. 我的SAP community博客St…
1.用tune2fs查看block size大小: 1 2 tune2fs -l /dev/sda1 |grep "Block size" Block size: 1024 2.用stat查看block size大小: 1 2 stat /boot/|grep "IO Block" Size: 1024 Blocks: 2 IO Block: 1024 目录 3.用dumpe2fs查看block size大小: 1 2 dumpe2fs /dev/sda1 |gre…
buffer-size uwsgi内部解析的数据包大小,默认4k. 如果准备接收大请求,你可以增长到64k. 允许uwsgi接收到32k,更大的会被丢弃. xweb.ini [uwsgi]socket = 127.0.0.1:9000pidfile=/run/uwsgi.pidchdir = /xspeeder/xweb/wsgi-file = xweb/wsgi.pymaster = trueprocesses = 1buffer-size = 65536evil-reload-on-rss…
mkubiimg.sh 2 sudo mkfs.ubifs -F -q -r rootfs_ecm_5410 -m 4096 -e 253952 -c 3600 -o ubifs.img 3 4 echo mkfs.ubifs over! 5 sudo ubinize -o ubi.img -m 4096 -p 256KiB -s 4096 -O 4096 ubinize.cfg 6 echo ubinize over! 7 8 sync 9 10 sudo cp ubi.img ~/image…
今天有用户报告了一个issue: 当他访问我们的网站时出现了以下错误: 但是我访问同样的地址却没有这个问题,连续访问多次,查看uWSGI日志发现出现以下ERROR: 原来是请求头的大小超出了uWSGI的buffer大小,默认时4K,我们没有做过修改,既然不够大,那就给大点呗, 修改uwsgi.ini :增加: buffer-size = 32768 重启uWSGI以后,用户问题得到解决. 但是问题来了,为什么我的访问没有出现这个问题呢?或者上为什么用户会遇到这个问题,接下来开始查找原因: 我们的…
一 检验条件 二 准备工作 1 创建相关目录 mkdir -p /oracle/admin/orcl/adumpmkdir -p /oracle/admin/orcl/bdumpmkdir -p /oracle/admin/orcl/cdumpmkdir -p /oracle/admin/orcl/udumpmkdir -p /oracle/arch2参数文件使用oracle用户 vi initorcl.ora *.audit_file_dest='/oracle/admin/orcl/adum…
一.数据库全备 RUN {ALLOCATE CHANNEL ch00 DEVICE TYPE disk;ALLOCATE CHANNEL ch01 DEVICE TYPE disk;backup as compressed backupset database filesperset 5 format '/apps/oracle_backup_20141209/bk_%d_%T%s_%p' ;backup current controlfile format '/apps/oracle_back…
一.环境描述 (1)Oracle 11.2.0.3 RAC ON Oracle Linux 6 x86_64,只有一个ASM外部冗余磁盘组--DATA: (2)OCR,VOTEDISK,DATAFILE,CONTROLFILE,SPFILE全部位于这个磁盘组上: 二.故障描述 (1)存储故障导致ASM磁盘丢失. (2)CRS因为OCR和VOTEDISK的丢失,除了OHAS还联机外,CLUSTERWARE服务都已经停止. 三.备份情况 (1)RMAN备份:包括controlfile,databas…
当时从主库通过rman备份到目前测试库还原之后,由于备份是在备库备份的,所以数据库还原后状态为readonly,standby_file_management参数为auto.首先需要通过alter database clear logfile group 日志组;让数据库在磁盘创建日志文件.出现问题1.重做日志物理文件不存在,当时日志组4状态为current,无法在readonly模式下进行更改操作.问题2.参数文件的undo表空间与控制文件的不对应 SQL> alter database re…
背景: 进行测试库不完全恢复,log_file_name_convert没调整好.rac-asm至单实例-文件系统,recover完成后,mount状态的database  执行 alter database resetlogs 报错; 21:18:53 SQL> alter database open resetlogs;alter database open resetlogs*ERROR at line 1:ORA-00392: log 5 of thread 1 is being cle…
转自:http://blog.csdn.net/tianlesoftware/article/details/5024966 一. 坏块说明 1.1 相关链接 在看坏块之前,先看几个相关的链接,在后面的说明中,会用到链接中的一些内容. ORA-600 各个参数含义说明 http://blog.csdn.net/tianlesoftware/article/details/6645809 Oracle 不同故障的恢复方案 http://blog.csdn.net/tianlesoftware/ar…
分区里的inode号是0号和1号的block 我相信大家在使用Linux的时候都遇到过误删文件系统数据的情况,不管是自己误删还是帮人家恢复误删 现在用的比较多的恢复工具大概是ext3grep .extundelete 这两个 当然本文不是要说这两个工具的使用方法,而是介绍每个分区里的inode号为0或1号的block到底是什么 在使用ext3grep .extundelete 的时候,基本上都会有这样一个步骤 在Linux下可以通过“ls-id”命令来查看某分区目录的inode值,可以输入: […
关键字:hdfs fsck.block.locations 在HDFS中,提供了fsck命令,用于检查HDFS上文件和目录的健康状态.获取文件的block信息和位置信息等. fsck命令必须由HDFS超级用户来执行,普通用户无权限. [hadoop@dev ~]$ hdfs fsck Usage: DFSck [-list-corruptfileblocks | [-move | -delete | -openforwrite] [-files [-blocks [-locations | -r…
大致介绍一下这个 nand 的基础属性 pagesize == 4096 byte oob == 224 byte block size == 256 Kbyte u-boot configs/xxx.h 里面配置如下参数: 272 #define CONFIG_SYS_NAND_PAGE_SIZE 4096 273 #define CONFIG_SYS_NAND_OOBSIZE 224 274 #define CONFIG_SYS_NAND_BLOCK_SIZE (256*1024) 275…