-------/ START /-------
不知觉间,距离我写下第一篇关于 WGS 数据分析系列的文章已经过去了三年多(WGS系列文章),时间真的快啊。
很多朋友从当时的文章中得到了启发,对此我也很开心。在后来的日子里,我又合作完成了多个大规模的人类基因组学科研项目,在这个过程中关于大规模的 WGS 数据分析(数量从数千到十万、乃至百万级别)已经是家常便饭。
我自己也积累了更多属于大数据基因组学的研究策略、方法论和最佳实践,还在整理之中,现在把其中一部分做成 Python 工具包分享给大家。这个工具一年前写了第一个版本(当时只在我的知识星球里分享过一次),过程中也调试了碰到的问题,日趋完善,后续还将迭代更新。
这个工具我将其命名为 ilus (/i:ləs/),这是我看过的一部美剧——《无垠的太空》中通过星环抵达的第一个系外类地行星的名字。它是一个全面的、轻量的、可拓展且易用的半自动化全基因组(Whole genome sequencing, WGS)和全外显子(Whole exom sequencing,WES)分析流程生成器,是以前我这篇文章所提供代码的高级版本。
ilus 的用途就是生成完整的 WGS/WES 分析流程,但 ilus 不执行流程的具体步骤。你需要自己手动投递任务,不过执行过程不再依赖 ilus,这也是为何我称之为半自动化的原因(这其实是一个优点,下文我会说到)。虽然如此,但 ilus 会帮你将最重要的流程和分析步骤生成出来,你只要按步骤投递就可以了。
目前 ilus 含有三个功能模块,分别是:
需要注意的是 ilus 不包含对原始 fastq 数据的质控,ilus流程默认你输入的测序数据都是清洗好的 clean data。
ilus 不直接运行任务有如下两个方面的考虑:
如果要实现作业的自动投递和监控,ilus 希望将来可以通过外部插件的形式来实现,但目前需要手动去投递这些按次序生成的脚本。
这样做的好处是,你可以按照计算机集群的特点将脚本拆分成若干个子脚本(如果你的样本不多或者集群资源不充足,也可以不拆分),然后再分别投递任务,这样可以大大加快任务的完成速度,这也是目前并行投递 ilus 任务的唯一方式,我也非常建议你应该这样去做(我的项目基本都是通过这样的方式来完成的)。
至于每一步要拆成多少个子脚本取决于你自己的具体情况。举个例子,比如你一共有100个样本,第一步的 xxx.step1.bwa.sh 比对脚本中将一共有 100个比对命令,每一行都是一个样本的比对指令。由于这 100 个命令彼此独立互不依赖,因此你可以放心地将该步骤拆分为 100(或者任意小于100)个子脚本,然后再手动投递这些任务。
至于如何将一个完整的执行脚本拆分为多个,你既可以自己写程序完成,也可以使用我在 ilus 中提供的 yhbatch_slurm_jobs.py 程序来完成,但要注意,我提供的这个程序是基于 slurm 任务调度系统的(尚未测试过其它系统),不一定符合你的集群配置,但它的作用和意义我刚刚也做了说明,如果你觉得这个程序不能直接满足你的需求,你可以参照和修改。虽然 ilus 不做任务调度和执行,但是这个方法却能够增加流程控制的灵活性和操控性。
此外,当你有成千上万的样本需要分析时,实现对任务完成状态的监控是极其重要的一项任务。这个过程如果你打算手动来检查,那么一定是低效、易出错且极易让人发狂的。
我在 ilus 中充分考虑到了这一点,因此在生成流程的时候会为每个任务添加一个可识别的结束标记,我们只需要查看这个标记就行了(参考下文WGS的例子)。
有结束标志其实还不够,一旦我们的任务数量庞大,假如每次都要手动打开某些文件检查这个标志的话,那未免太过于麻烦。因此,我在 ilus 中还同时实现了一个专门用来检查任务作业完成状态的程序,具体用法同样参考下文 WGS 例子。
ilus是基于Python编写的,同时支持Python3.7+和Python2.7+,稳定版本的代码发布至 PyPI。因此要使用 ilus, 直接通过 pip 这个 Python 包管理工具进行安装即可,非常方便:
$ pip install ilus
该命令除了主程序 ilus 之外,还会自动将 ilus 所依赖的其它 Python 包自动装上。安装完成之后,在命令行中执行 ilus,如果能看到类似如下的内容,那么就说明安装成功了。
$ ilus
usage: ilus [-h] {WGS,genotype-joint-calling,VQSR} ...
ilus: error: too few arguments
ilus 的源代码托管在 github 中:https://github.com/ShujiaHuang/ilus
执行ilus --help可以看到 WGS,genotype-joint-calling 和 VQSR 这三个功能模块。
$ ilus --help
usage: ilus [-h] {WGS,genotype-joint-calling,VQSR} ...
ilus: A WGS analysis pipeline.
optional arguments:
-h, --help show this help message and exit
ilus commands:
{WGS,genotype-joint-calling,VQSR}
WGS Creating pipeline for WGS(from fastq to genotype VCF)
genotype-joint-calling Genotype from GVCFs.
VQSR VQSR
下面,我通过例子逐一介绍如何使用这三个模块。
全基因组数据分析流程(WGS)的运行脚本通过 ilus WGS 来生成,用法如下:
$ ilus WGS --help
usage: ilus WGS [-h] -C SYSCONF -L FASTQLIST [-P WGS_PROCESSES]
[-n PROJECT_NAME] [-f] [-c] -O OUTDIR
optional arguments:
-h, --help show this help message and exit
-C SYSCONF, --conf SYSCONF
YAML configuration file specifying details about
system.
-L FASTQLIST, --fastqlist FASTQLIST
Alignment FASTQ Index File.
-O OUTDIR, --outdir OUTDIR
A directory for output results.
-n PROJECT_NAME, --name PROJECT_NAME
Name of the project. Default value: test
-P WGS_PROCESSES, --Process WGS_PROCESSES
Specific one or more processes (separated by comma) of
WGS pipeline. Defualt value:
align,markdup,BQSR,gvcf,genotype,VQSR. Possible
values: {align,markdup,BQSR,gvcf,genotype,VQSR}
-f, --force_overwrite
Force overwrite existing shell scripts and folders.
-c, --cram Covert BAM to CRAM after BQSR and save alignment file storage.
其中,-C, -L 和 -O 三个最重要且必须的参数,其余的按照你的实际需要做选择。-O 参数比较简单,就是一个输出目录,该目录如果不存在,无需担心,ilus 会自动创建。
最重要的是 -C 和 -L 这两个参数。-C 参数是 ilus 的配置文件,如果没有这个文件 ilus 就无法正确生成分析流程了,因此它十分重要;-L是输入文件,这个文件的格式有固定要求,一共5列,每一列都是流程所必须的信息。
下面,我分别对这两个文件的格式展开说明。
首先是 -C 配置文件,你需要在文件中填写好分析流程所需的所有程序路径、GATK bundle 文件路径、参考基因组 fasta 文件的路径以及各个关键步骤所对应的参数。
需要注意的是 bwa mem 的比对索引文件前缀要与配置文件的 resources.reference 的名字相同,并放在同一个文件夹里。如下:
/path/human_reference/GRCh38/
|-- human_GRCh38.fa
|-- human_GRCh38.dict
|-- human_GRCh38.fa.amb
|-- human_GRCh38.fa.ann
|-- human_GRCh38.fa.bwt
|-- human_GRCh38.fa.fai
|-- human_GRCh38.fa.pac
`-- human_GRCh38.fa.sa
human_GRCh38.fa 是resources.reference,后面6份以human_GRCh38.fa 为前缀的是 bwa mem 所需的比对索引文件,human_GRCh38.dict 也是一份必须的文件。配置文件要使用 Yaml 语法 来编写,这里我提供一份配置文件(https://github.com/ShujiaHuang/ilus/blob/master/tests/ilus_sys.yaml)的模板,大家可以直接参考:
aligner:
bwa: /path/to/BioSoftware/local/bin/bwa
bwamem_options: [-Y -M -t 8]
samtools:
samtools: /path/to/BioSoftware/local/bin/samtools
sort_options: ["-@ 8"]
merge_options: ["-@ 8 -f"]
stats_options: ["-@ 8"]
bcftools:
bcftools: /path/to/BioSoftware/local/bin/bcftools
concat_options: ["-a --rm-dups all"]
bedtools:
bedtools: /path/to/BioSoftware/local/bin/bedtools
genomecov_options: ["-bga -split"]
sambamba:
sambamba: /path/to/BioSoftware/local/bin/sambamba
sort_options: ["-t 8"]
merge_options: ["-t 8"]
markdup_options: []
verifyBamID2:
# Link of VerifyBamID2: https://github.com/Griffan/VerifyBamID
verifyBamID2: /path/to/BioSoftware/local/bin/verifyBamID2
options: [
# Download from: https://github.com/Griffan/VerifyBamID/tree/master/resource
"--SVDPrefix /path/to/BioSoftware/verifyBamID2/1.0.6/resource/1000g.phase3.10k.b38.vcf.gz.dat"
]
bgzip: /path/to/BioSoftware/local/bin/bgzip
tabix: /path/to/BioSoftware/local/bin/tabix
gatk:
gatk: /path/to/BioSoftware/gatk/4.1.4.1/gatk
markdup_java_options: ["-Xmx10G", "-Djava.io.tmpdir=/your_path/cache"]
bqsr_java_options: ["-Xmx8G", "-Djava.io.tmpdir=/your_path/cache"]
hc_gvcf_java_options: ["-Xmx4G"]
genotype_java_options: ["-Xmx8G"]
vqsr_java_options: ["-Xmx10G"]
CollectAlignmentSummaryMetrics_jave_options: ["-Xmx10G"]
# Adapter sequencing of BGISEQ-500. If you use illumina(or other) sequencing system you should
# change the value of this parameter.
CollectAlignmentSummaryMetrics_options: [
"--ADAPTER_SEQUENCE AAGTCGGAGGCCAAGCGGTCTTAGGAAGACAA",
"--ADAPTER_SEQUENCE AAGTCGGATCGTAGCCATGTCGTTCTGTGAGCCAAGGAGTTG"
]
genomicsDBImport_options: ["--reader-threads 12"]
use_genomicsDBImport: false # Do not use genomicsDBImport to combine GVCFs by default
vqsr_options: [
"-an DP -an QD -an FS -an SOR -an ReadPosRankSum -an MQRankSum -an InbreedingCoeff",
"-tranche 100.0 -tranche 99.9 -tranche 99.5 -tranche 99.0 -tranche 95.0 -tranche 90.0",
"--max-gaussians 6"
]
# ``interval`` for create gvcf. The value could be a interval region file in bed format or could be a list here
interval: ["chr1", "chr2", "chr3", "chr4", "chr5", "chr6", "chr7", "chr8", "chr9",
"chr10", "chr11", "chr12", "chr13", "chr14", "chr15", "chr16", "chr17",
"chr18", "chr19", "chr20", "chr21", "chr22", "chrX", "chrY", "chrM"]
# Specific variant calling intervals.
# The value could be a file in bed format (I show you a example bellow) or a interval of list.
# Bed format of interval file only contain three columns: ``Sequencing ID``, ``region start`` and ``region end``,e.g.:
# chr1 10001 207666
# chr1 257667 297968
# These invertals could be any regions alone the genome as you wish or just set the same as ``interval`` parameter above.
variant_calling_interval: ["chr1", "chr2", "chr3", "chr4", "chr5", "chr6", "chr7", "chr8", "chr9",
"chr10", "chr11", "chr12", "chr13", "chr14", "chr15", "chr16", "chr17",
"chr18", "chr19", "chr20", "chr21", "chr22", "chrX", "chrY", "chrM"]
# variant_calling_interval: ["./wgs_calling_regions.GRCh38.interval.bed"]
# GATK bundle
bundle:
hapmap: /path/to/BioDatahub/gatk/bundle/hg38/hapmap_3.3.hg38.vcf.gz
omni: /path/to/BioDatahub/gatk/bundle/hg38/1000G_omni2.5.hg38.vcf.gz
1000G: /path/to/BioDatahub/gatk/bundle/hg38/1000G_phase1.snps.high_confidence.hg38.vcf.gz
mills: /path/to/BioDatahub/gatk/bundle/hg38/Mills_and_1000G_gold_standard.indels.hg38.vcf.gz
1000G_known_indel: /path/to/BioDatahub/gatk/bundle/hg38/Homo_sapiens_assembly38.known_indels.vcf.gz
dbsnp: /path/to/BioDatahub/gatk/bundle/hg38/Homo_sapiens_assembly38.dbsnp138.vcf.gz
# Set Reference
resources:
reference: /path/to/BioDatahub/human_reference/GRCh38/human_GRCh38.fa
如果你不知道各个步骤最佳的参数是什么的话,不妨使用我配置模板中所提供的。
在配置文件中,bwa、samtools、bcftools、bedtools、gatk、bgzip 和 tabix 都是必须的生信软件,需要自行安装,然后再将路径填入到对应的参数里。
verifyBamID2 仅用于计算样本是否存在污染,它并不是一个必填的参数,如果你的配置文件中没有这个参数,则代表流程不对样本的污染情况进行推算,如果有那么你要自行安装并下载与之配套的 resource 数据,模板里我也告诉你该去哪里下载相关的数据了(没注意的话,建议回头去看看上面的配置模板信息)。
还有,配置文件 GATK 参数中的 "Djava.io.tmpdir" 缓存文件路径记得重新设置为你自己的文件夹路径。
此外,要注意配置文件中的 variant_calling_interval 参数。这是一个专门用来指定变异检测区间的参数。在以上配置例子里,我给出了从 chr1 到 chrM 这25条染色体,意思就是告诉流程只对这25条染色体做变异检测。如果你在参数里只列出一条染色体,或者仅仅给出一个染色体区间(区间信息按照 chrom:start-end 格式),比如 chr1:1-10000,那么 ilus 将只在你给定的这个区间里做变异检测。
这是一个非常灵活有用的参数,因为 variant_calling_interval 可以任意指定的,除了可以按照我例子给出的赋值方式之外,你还可以将区间文件的路径赋给这个参数。我们知道 WGS 和 WES 有很多步骤是完全相同的,只在变异检测的区间上存在差别——WES数据没有必要也不能 在全染色体上做变异检测,它只在外显子捕获区域里进行。
这个时候你只需要将外显子捕获区域的文件——注意是文件,这个文件的内容可以是 .interval_list 格式、.list格式、.intervals格式或者.bed格式。其中,.list格式和 .intervals 格式必须如下所示:
chr1:63697-63697
chr1:101158-101158
chr1:103241-103241
chr1:104108-104108
chr1:185336-185336
chr1:261495-261495
chr1:598862-598862
chr1:601606-601606
chr1:700596-700596
chr1:725086-725086
而 .interval_list 格式和 .bed 格式参照GATK的说明(https://gatk.broadinstitute.org/hc/en-us/articles/360035531852-Intervals-and-interval-lists),你不需要手动拆分成一个个的区间,只需将这个文件的路径赋给这个参数就可以了,这时流程就成了 WES 分析流程。这也是为何 ilus 同时是一个 WGS 和 WES 分析流程生成器的原因。
另外,ilus 必需的公用数据集是:gatk bundle和基因组参考序列(fasta 文件)。
【注意】如果你项目的样本量少于 10 那么 GATK 将不计算 InbreedingCoeff 的值,此时配置文件中 vqsr_options 不需要设置 -an InbreedingCoeff,可以将其去掉。
接下来是由-L参数指定的输入文件,文件里包含了 WGS/WES 分析流程所必需的一切信息。这是一个需要你自己来准备的文件,文件各列的格式信息如下:
这五个信息中
RGID
要求严格,最容易出错。RGID
一定要设置正确(正确的编写方式参考下面的例子或者这篇文章),否则你流程会出错。
另外,假如某些样本有多个 lane 的测序数据,或者同一个 lane 的数据被拆分成了很多个子文件,这个时候也不需要手动合并这些 fastq 数据,只需要依照-L的格式要求编写在输入文件里即可。对于这些同属一个样本的数据,ilus 都会根据样本 ID 在生成的流程中自动帮你合并。
下面我给出一个 -L 输入文件的例子,其中样本HG002, HG003和 HG004 的数据就有分拆的情况(哪怕碎成一万份也没问题):
#SAMPLE RGID FASTQ1 FASTQ2 LANE
HG002 "@RG\tID:CL100076190_L01\tPL:COMPLETE\tPU:CL100076190_L01_HG002\tLB:CL100076190_L01\tSM:HG002" /path/to/NA24385_CL100076190_L01_read_1.clean.fq.gz /path/to/NA24385_CL100076190_L01_read_2.clean.fq.gz CL100076190_L01
HG002 "@RG\tID:CL100076190_L02\tPL:COMPLETE\tPU:CL100076190_L02_HG002\tLB:CL100076190_L02\tSM:HG002" /path/to/NA24385_CL100076190_L02_read_1.clean.fq.gz /path/to/NA24385_CL100076190_L02_read_2.clean.fq.gz CL100076190_L02
HG003 "@RG\tID:CL100076246_L01\tPL:COMPLETE\tPU:CL100076246_L01_HG003\tLB:CL100076246_L01\tSM:HG003" /path/to/NA24149_CL100076246_L01_read_1.clean.fq.gz /path/to/NA24149_CL100076246_L01_read_2.clean.fq.gz CL100076246_L01
HG003 "@RG\tID:CL100076246_L02\tPL:COMPLETE\tPU:CL100076246_L02_HG003\tLB:CL100076246_L02\tSM:HG003" /path/to/NA24149_CL100076246_L02_read_1.clean.fq.gz /path/to/NA24149_CL100076246_L02_read_2.clean.fq.gz CL100076246_L02
HG004 "@RG\tID:CL100076266_L01\tPL:COMPLETE\tPU:CL100076266_L01_HG004\tLB:CL100076266_L01\tSM:HG004" /path/to/NA24143_CL100076266_L01_read_1.clean.fq.gz /path/to/NA24143_CL100076266_L01_read_2.clean.fq.gz CL100076266_L01
HG004 "@RG\tID:CL100076266_L02\tPL:COMPLETE\tPU:CL100076266_L02_HG004\tLB:CL100076266_L02\tSM:HG004" /path/to/NA24143_CL100076266_L02_read_1.clean.fq.gz /path/to/NA24143_CL100076266_L02_read_2.clean.fq.gz CL100076266_L02
HG005 "@RG\tID:CL100076244_L01\tPL:COMPLETE\tPU:CL100076244_L01_HG005\tLB:CL100076244_L01\tSM:HG005" /path/to/NA24631_CL100076244_L01_read_1.clean.fq.gz /path/to/NA24631_CL100076244_L01_read_2.clean.fq.gz CL100076244_L01
接下来,举例说明 ilus WGS 的使用和整个流程的结构。
例子1:从头开始生成 WGS 分析流程
$ ilus WGS -c -n my_wgs_project -C ilus_sys.yaml -L input.list -O output/
这个命令的意思是,项目 (-n)my_wgs_project 依据配置文件 (-C) ilus_sys.yaml 和输入数据 (-L)input.list 在输出目录 output中生成一个 WGS 分析流程。同时流程在完成分析之后将 BAM 比对文件自动转为(-c)CRAM。CRAM 和 BAM 格式和可被操作的方式几乎相同,但可以节省大约三分之一的空间,如果不设置 -c 参数,则保留原来的 BAM 文件。
以上命令顺利运行之后,输出目录 output 里会生成如下4个文件夹:
00.shell/
01.alignment/
02.gvcf/
03.genotype/
它们分别用于存放流程产生的各类不同数据,其中:
00.shell 目录里有分析流程执行脚本和日志目录,我们要投递和执行脚本都在这:
/00.shell
├── loginfo
│ ├── 01.alignment
│ ├── 01.alignment.e.log.list
│ ├── 01.alignment.o.log.list
│ ├── 02.markdup
│ ├── 02.markdup.e.log.list
│ ├── 02.markdup.o.log.list
│ ├── 03.BQSR
│ ├── 03.BQSR.e.log.list
│ ├── 03.BQSR.o.log.list
│ ├── 04.gvcf
│ ├── 04.gvcf.e.log.list
│ ├── 04.gvcf.o.log.list
│ ├── 05.genotype
│ ├── 05.genotype.e.log.list
│ ├── 05.genotype.o.log.list
│ ├── 06.VQSR
│ ├── 06.VQSR.e.log.list
│ └── 06.VQSR.o.log.list
├── my_wgs_project.step1.bwa.sh
├── my_wgs_project.step2.markdup.sh
├── my_wgs_project.step3.bqsr.sh
├── my_wgs_project.step4.gvcf.sh
├── my_wgs_project.step5.genotype.sh
└── my_wgs_project.step6.VQSR.sh
投递任务运行流程时,按顺序从 step1 依次执行到 step6 即可。loginfo/ 文件夹下记录了各个样本所有步骤的运行状态,你可以通过检查各个任务的 .o.log.list 日志文件,获得每个样本是否都有成功结束的标记。
如果成功了,你将在日志文件的末尾看到一句类似于"[xxxx] xxxx done" 的标记。用我在 ilus 中提供的程序 check_jobs_status.py,你就可以很方便地知道哪些已经顺利完成,哪些还没有。这个脚本会帮你将那些未完成的任务全部输出,方便检查问题或重新执行这部分未完成的任务。
check_jobs_status.py 的用法如下:
$ python check_jobs_status.py loginfo/01.alignment.o.log.list > bwa.unfinish.list
如果这个 bwa.unfinish.list 文件是空的,并输出了**All Jobs done**,那么就代表你 step1 的所有任务都成功结束了,以此类推。如果有未完成的,那么你要提取出来,重新投递。
例子2:只生成 WGS 流程中的某个/某些步骤
有时,我们并不打算(或者没有必要)从头到尾完整地将 WGS 流程执行下去,比如我们只想完成从 fastq 比对到生成 gvcf 结束,暂时不想执行 genotype 和 VQSR——这情况在大型基因组项目中很普遍,这时该怎么办呢?ilus 的 -P 参数就可以实现这个目的:
$ ilus WGS -c -n my_wgs_project -C ilus_sys.yaml -L input.list -P align,markdup,BQSR,gvcf -O output/
这样就只生成从 bwa 到 gvcf 的执行脚本,这对于需要分批次完成分析的项目来说是很有用的。而且 ilus 所输出的结果是以样本为文件夹作区分的,因此在相同的输出目录下,只要样本编号是不同的,那么不同批次的数据就不会存在相互覆盖的问题。
除此之外,-P 参数还有一个用途,那就是万一某个 WGS 步骤跑错了,需要重跑,那你就可以用-P重跑特定的步骤。比如我需要重新生成 BQSR 这个步骤的运行脚本,那么就可以这样做:
$ ilus WGS -c -n my_wgs_project -C ilus_sys.yaml -L input.list -P BQSR -O ./output
不过,要特别注意,ilus 为了节省项目对存储空间的消耗,只会为每一个样本保留 BQSR 之后的总 BAM/CRAM 文件。因此,如果你要重新跑 BQSR 那就需要先确保 BQSR 的前一步(即,markdup)的 BAM 文件还没有被被删除。如果你在项目中一直使用的都是 ilus 那么是不用担心这个问题的,因为 ilus 执行任务时具有原子属性,也就是说只有当步骤中所有过程都成功结束了才会将那些完全不需要的文件删除掉。所以,如果 ilus 的 BQSR 没有正常结束,那么前一步 markdup 的 BAM 文件是会被完整保留住的。
目前
-P
参数能指定的分析模块必须属于「align,markdup,BQSR,gvcf,genotype,VQSR」中的一个或多个,并用英文逗号隔开,中间不可以有空格。
如果我们已经有了各个样本的 gvcf 数据,现在要用这些 gvcf 完成多样本的联合变异检测(Joint-calling),那么就要用 genotype-joint-calling 了。具体用法如下:
$ ilus genotype-joint-calling --help
usage: ilus genotype-joint-calling [-h] -C SYSCONF -L GVCFLIST
[-n PROJECT_NAME] [--as_pipe_shell_order]
[-f] -O OUTDIR
optional arguments:
-h, --help show this help message and exit
-C SYSCONF, --conf SYSCONF
YAML configuration file specifying details about
system.
-L GVCFLIST, --gvcflist GVCFLIST
GVCFs file list. One gvcf_file per-row and the format
should looks like: [interval gvcf_file_path]. Column
[1] is a symbol which could represent the genome
region of the gvcf_file and column [2] should be the
path.
-O OUTDIR, --outdir OUTDIR
A directory for output results.
-n PROJECT_NAME, --name PROJECT_NAME
Name of the project. [test]
--as_pipe_shell_order
Keep the shell name as the order of `WGS`.
-f, --force Force overwrite existing shell scripts and folders.
-L 是 genotype-joint-calling 的输入参数,它要一个 gvcf list 文件,这个文件很简单,由两列构成:第一列是每个 gvcf 文件所对应的区间或者染色体编号;第二列是这份 gvcf 文件的路径。目前 ilus 要求各个样本的 gvcf 都按照主要染色体(1-22、X、Y、M)分开,举个例子:
$ ilus genotype-joint-calling -n my_project -C ilus_sys.yaml -L gvcf.list -O genotype --as_pipe_shell_order
其中 gvcf.list 的格式如下:
chr1 /path/sample1.chr1.g.vcf.gz
chr1 /paht/sample2.chr1.g.vcf.gz
chr2 /path/sample1.chr2.g.vcf.gz
chr2 /path/sample2.chr2.g.vcf.gz
...
chrM /path/sample1.chrM.g.vcf.gz
chrM /path/sample2.chrM.g.vcf.gz
这个例子里 gvcf.list 只有两个样本(文件顺序随意)。参数 --as_pipe_shell_order 可加也可不加(默认是不加,但我建议加),它唯一的作用就是按照 ilus WGS 流程的方式输出执行脚本的名字,维持和WGS流程一样的次序和相同的输出结构。
这个模块只用来生成基于 GATK VQSR 的变异质控执行脚本。VQSR 的大致原理我以前在我的知识星球 (达尔文生信星球) 中简要回答过。
我们如果已经有了最终的变异检测(VCF格式)结果,现在只想用 GATK VQSR 对这个变异数据做质控,那么就可以使用这个模块了,用法和 genotype-joint-calling 大同小异,如下:
$ ilus VQSR --help
usage: ilus VQSR [-h] -C SYSCONF -L VCFLIST [-n PROJECT_NAME]
[--as_pipe_shell_order] [-f] -O OUTDIR
optional arguments:
-h, --help show this help message and exit
-C SYSCONF, --conf SYSCONF
YAML configuration file specifying details about
system.
-L VCFLIST, --vcflist VCFLIST
VCFs file list. One vcf_file per-row and the format
should looks like: [interval vcf_file_path]. Column
[1] is a symbol which could represent the genome
region of the vcf_file and column [2] should be the
path.
-O OUTDIR, --outdir OUTDIR
A directory for output results.
-n PROJECT_NAME, --name PROJECT_NAME
Name of the project. [test]
--as_pipe_shell_order
Keep the shell name as the order of `WGS`.
-f, --force Force overwrite existing shell scripts and folders.
跟 genotype-joint-calling 相比不同的是,ilus VQSR 的输入文件是 VCF 文件列表,并且 每行只有一个 VCF 文件路径,例子如下:
/path/chr1.vcf.gz
/path/chr2.vcf.gz
...
/path/chrM.vcf.gz
其它参数与 genotype-joint-calling 相同。文件列表中的 vcf 不需要事先合并,ilus VQSR 会帮你合并(如你已经合并成一份了,也一样使用),但你不要将两个或者多个不同项目的 VCF 混在一起,那完全不是一回事,必须得是同一个项目的。以下提供一个完整的例子:
$ ilus VQSR -C ilus_sys.yaml -L vcf.list -O genotype --as_pipe_shell_order
关于文中我提到的 yhbatch_slurm_jobs.py 和 check_jobs_status.py 都在 ilus github 代码仓库的 scripts 目录里:
以上,就是关于 WGS/WES 流程生成器 ilus 的完整介绍,希望在有需要的时候它能成为你的一把小刀子,辅助你解决问题,使用过程中有任何问题都可以告知我或者在 github 上提给我。
-------/ END /-------
这是我的知识星球:『达尔文生信星球』(原名:解螺旋技术交流圈),是一个我与读者朋友们的私人朋友圈。我有10+年前沿而完整的生物信息学、NGS领域的科研经历,在该领域发有多篇Nature、Cell级别的科学文章,我希望借助这个知识星球可以与更多的志同道合者沟通和交流,同时也把自己的一些微薄经验分享给更多对组学感兴趣的伙伴们。 这是知识星球上第一个与基因组学和生物信息学强相关的圈子,也是官方评定的优秀星球。希望能够借此营造一个高质量的组学知识圈和人脉圈,通过提问、彼此分享、交流经验、心得等,促进彼此更好地学习生信知识,共同提升基因组数据分析和解读的能力。 在这里你可以结识到全国优秀的基因组学和生物信息学专家,同时可以分享你的经验、见解和思考,有问题也可以向我提问和星球里的星友们提问。