统计tophat map上的read数量】的更多相关文章

samtools flagstat /SRA111111/SRR111222/accepted_hits.bam 78406056 + 0 in total (QC-passed reads + QC-failed reads) (1)0 + 0 duplicates78406056 + 0 mapped (100.00%:-nan%)  (2)78406056 + 0 paired in sequencing (3)39915264 + 0 read1 (4)38490792 + 0 read…
samtools flagstat /SRA111111/SRR111222/accepted_hits.bam 78406056 + 0 in total (QC-passed reads + QC-failed reads) (1)0 + 0 duplicates78406056 + 0 mapped (100.00%:-nan%)  (2)78406056 + 0 paired in sequencing (3)39915264 + 0 read1 (4)38490792 + 0 read…
代码很乱,bug很多,将就着看吧.参考了很多网上代码,只能说声感谢了. //cjl.ZongHeInfo.1.0 //目的:对各部门报上来的信息数量进行排名 //思路:预计一年信息量不超过100M,全部存入全局变量GlobalInfoDoc中,以方便排序,统计 //在协程中每5分钟将GlobalInfoDoc用json编码后存入文件中.因此,退出程序前应先手动保存(一定程度上可考虑用signal),避免5分钟内的数据丢失 //重要:生成的json备份文件不能用notepad编辑,要保存为UTF-…
hadoop中map和reduce的数量设置,有以下几种方式来设置 一.mapred-default.xml 这个文件包含主要的你的站点定制的Hadoop.尽管文件名以mapred开头,通过它可以控制用户maps和 reduces的默认的设置. 下面是一些有用变量: 名字 含义 dfs.block.size 分布式文件系统中每个数据块的大小 (bytes) io.sort.factor 合并排序时每层输入的文件数 io.sort.mb 排序输入的reduce时缓存大小 io.file.buffe…
转载http://my.oschina.net/Chanthon/blog/150500 map和reduce是hadoop的核心功能,hadoop正是通过多个map和reduce的并行运行来实现任务的分布式并行计算,从这个观点来看,如果将map和reduce的数量设置为1,那么用户的任务就没有并行执行,但是map和reduce的数量也不能过多,数量过多虽然可以提高任务并行度,但是太多的map和reduce也会导致整个hadoop框架因为过度的系统资源开销而使任务失败.所以用户在提交map/re…
当我们在使用 SWFUpload 做文件上传时,我们需要把已经上传的文件列表做一个删除, 但在我们把已上传列表删除后,再重新上传时,会发现提示 上传队列满 的问题,原因就是有一个状态对象中的一个 成功上传数据未处理,而导致这样的问题. 因此 做了这个插件来控制  这个 成功上传数量.用于在删除已上传文件列表时,来处理已经成功上传文件数量 插件代码如下: /** * SWFUpload 已上传成功数量控制 插件 * 功能说明: * 对已上传成功的文件数量进行控制 * 作 者: Alfa.wu *…
1.背景 想要统计这一个字符串数组中每一个非重复字符串的数量,使用map来保存其key和value.这个需求在实际开发中经常使用到,我以前总是新建一个空数组来记录不重复字符串,并使用计数器计数,效率低下且麻烦,特此记录. 2.代码实现 public class test { public void makeEqual(String[] words) { Map<String,Integer> maps = new HashMap<>(); for (String str : wor…
declare @sql varchar(8000) set @sql = 'select CONVERT(varchar(10), OrderDate, 120) as 日期' select @sql = @sql + ' , sum(case PayWay when ''' + cast(Pwy as varchar)+ ''' then OrderAmount else 0 end)[' + cast(Pwy2 as varchar) + '] ,sum(case PayWay when…
请编写程序,对一段英文文本,统计其中所有不同单词的个数,以及词频最大的前10%的单词. 所谓“单词”,是指由不超过80个单词字符组成的连续字符串,但长度超过15的单词将只截取保留前15个单词字符.而合法的“单词字符”为大小写字母.数字和下划线,其它字符均认为是单词分隔符. 输入格式: 输入给出一段非空文本,最后以符号#结尾.输入保证存在至少10个不同的单词. 输出格式: 在第一行中输出文本中所有不同单词的个数.注意“单词”不区分英文大小写,例如“PAT”和“pat”被认为是同一个单词. 随后按照…
package com.swift.kuozhan; import java.io.File; import java.io.FileFilter; /*使用文件过滤器筛选将指定文件夹下的小于200K的小文件获取并打印(包括所有子文件夹的文件).*/ public class kuaozhan1 { public static void main(String[] args) { File dir = new File("c:/"); if(!dir.exists()) { throw…