最近用之前写的R脚本重新跑数据时,出现了报错.经检查,才发现是数据的列名读入R时发生了变化,列名前自动加上了X.符号. read.table系列函数有一个check.names参数,默认为 TRUE ,因此读入数据时它会自动检查变量名在R中是否有效.如果变量名包含首字母为数字.#.$等情况时,则会自动加上X.,使变量看上去更像一个字符型变量. check.names是通过调用make.names函数来实现增加字符这一过程的,如列名为1,2, 3, 4, 5,6时,会自动加上X. make.nam…
今天用cummeRbund 对cuffdiff的结果进行可视化, 一直报错,之前跑的好好的,找了半天原因, 原来出现在read.table这个函数上: read.table有一个参数check.names , 其默认值为TRUE,它会自动将变量名转换成唯一的字符型向量 其通过调用make.names函数来实现这一过程, 比如我的原始数据中列名称分别为1,2,3,4,5,6, ")) [] "X1" "X2" "X3" "X4&…
mysql -A不预读数据库信息(use dbname 更快)—Reading table information for completion of table and column names You can turn off this feature to get a quicker startup with -A 出现问题的原因是::        我们进入mysql 时,没有使用-A参数:        即我们使用            mysql -hhostname -uusern…
mysql -A不预读数据库信息(use dbname 更快)—Reading table information for completion of table and column names You can turn off this feature to get a quicker startup with -A mysql> use dbname Reading table information for completion of table and column names You…
R语言table()函数比较有用,两个示例尤其是混淆矩阵这个案例比较有用: 例子一:统计频次 z<-c(1,2,2,4,2,7,1,1);z1<-table(z);summary(z1); z1#实现z中各数据频次的统计z1 2 4 7 3 3 1 1 names(z1)#居然是有名字的[1] "1" "2" "4" "7"例子二:实现混淆矩阵 t=table(c(1,0,1,1,1,0,0,1),c(0,0,1,…
打开数据库是发现提示: mysql> show databases; +--------------------+ | Database | +--------------------+ | backup_operation | | information_schema | | operation | +--------------------+ rows in set (0.09 sec) mysql> use operation; Reading table information for…
mysql> use mydb Reading table information for completion of table and column names You can turn off this feature to get a quicker startup with -A 访问数据库的时候出现以上情况, 一般产生这个问题是由于MYSQL中数据库太大,导致读取预读时间太长,从而显示这个提示,如果之前都没有遇到这个问题,那么产生这个问题的原因可能是由于有改变数据库信息的操作,比如d…
把R中par()函数的主要参数整理了一下(另外本来还整理了每个参数的帮助文档中文解释,但是太长,就分类之后,整理为图表,excel不便放上来,就放了这些表的截图)…
今天在Mac机器上使用了Flex Builder编辑了一个源代码文件,保存后使用vim命令去打开时发现系统自动在每一行的结尾添加了^M符号,其实^M在Linux/Unix中是非常常见的,也就是我们在Win中见过的/r回车符号.由于编辑软件的编码问题,某些IDE的编辑器在编辑完文件之后会自动加上这个^M符号.看起来对我们的源代码没有任何影响,其实并不然,当我们把源代码文件Check In到svn之类的版本控制软件之后,由于之前版本的文件并不存在这个符号,所以开发成员在使用diff工具来查看改动的内…
由于基因组数据过大,想进一步用R语言处理担心系统内存不够,因此想着将文件按染色体拆分,发现python,awk,R 语言都能够非常简单快捷的实现,那么速度是否有差距呢,因此在跑几个50G的大文件之前,先用了244MB的数据对各个脚本进行测试,并且将其速度进行对比. 首先是awk处理,awk进行的是逐行处理,具有自己的语法,具有很大的灵活性,一行代码解决,用时24S, #!/usr/bin/sh function main() { start_tm=date start_h=`$start_tm…