接上两篇内容,本文主要讲述工作中NGS从科研进入医学临床领域,工作中接触到生信流程,以及最终在实现的过程。
接触二代测序,生信分析,那真是打开了一个新世界的大门,各种名次术语满天飞,搞的头晕脑胀。什么“什么是高通量测序/NGS”、Sanger法测序(一代测序)、外显子测序(whole exon sequencing)、mRNA测序 (RNA-seq)、SNP/SNV(单核苷酸位点变异)、INDEL (基因组小片段插入)、copy number variation (CNV)基因组拷贝数变异、structure variation (SV)基因组结构变异等等。
百度了各种相关的分析软件和文件格式,什么fastq,fastq,bam,vcf等等。下面分阶段描述生信分析流程升级/进化的过程:
经过几个月接触,自学、爬坑,慢慢搞清楚了部分内容,在似懂非懂之间开始了生信流程分析,终于有一天明白过来,这所谓的pipeline其实就是基于文件的工作流啊。 比如其中一个步骤:
QC 完成后,然后运行下一个步骤:
运行模式,一个输入或者多个输入文件,通过软件分析/计算得到一个或者多个输出文件。然后输出文件部分或者全部作为下一个步骤的输入文件。这时候手动分析的话,只能手动的一个一个输入命令,完成每一个步骤,直到得到最后结果。
bwa mem -t 8 -M -R \
"@RG\tID:0bdd6f55\tLB:5fba\tPL:Illumina\tPU:3102\tSM: B1701" \
B1701_R1.fq.gz B1701_R2.fq.gz | samtools view -bS - > B1701.bam
gatk ReorderSam \
-R /opt/ref/hg19.fa \
-I B1701.bam \
-O B1701_reordered.bam
gatk SortSam \
-I B1701_reordered.bam \
-O B1701_sorted.bam \
-SO coordinate
随着熟练程度提高,生信分析上用到的软件/工具也熟悉起来了,但是问题也暴露出来了,简单的一套 GATK Best Practice 肿瘤突变分析流程,加上CNV,SV 分析从 fastq 文件开始到最后得到过滤的 vcf 结果,一共有 30 多个步骤。自己一条一条输入次数多了就开始烦躁了。
这时候自然会考虑,如何减少手动输入,将这些脚本自动化。
脚本自动运行:当然这需要一点编程基础了。其实总的来看,每一个步骤的输入和输出可以根据最开始的输入文件来判断。例如 B1701_R1.fastq.gz,bwa map 之后得到B1701_R1.bam,所以只需要获得最初的文件前缀,作为 SampleNumber 字段,后续的中间输出,最终的输出文件都以这个 SampleNumber 为前缀,以扩展名作为区分。这时候脚本就可以连续运行了。以 shell 为例:总的脚本运行: workrun.sh B1701_R1.fastq.gz B1701_R2.fastq.gz
脚本的第一步,就是获取输入文件:
B1701_R1.fastq.gz B1701_R2.fastq.gz
经过匹配计算,可以得到 B1701 作为 SampleNumber,并保存在变量$SN
中。后续的输出都以$SN.bam $SN_sortted.bam $SN_marked.bam
等等,这样后续的步骤可以作为一个列表来表示:
SN=1701
bwa mem -t 8 -M -R \
"@RG\tID:0bdd6f55\tLB:5fba\tPL:Illumina\tPU:3102\tSM:$SN" \
$SN_R1.fq.gz $SN_R2.fq.gz | samtools view -bS - >$SN.bam
gatk ReorderSam \
-R /opt/ref/hg19.fa \
-I /opt/result/$SN.bam \
-O $SN_reordered.bam
gatk SortSam \
-I $SN_reordered.bam \
-O $SN_sorted.bam \
-SO coordinate
运行脚本之前使用 B1701 替换变量$SN 得到要运行的真实的 shell 命令
bwa mem -t 8 -M -R \
"@RG\tID:0bdd6f55\tLB:5fba\tPL:Illumina\tPU:3102\tSM: B1701" \
B1701_R1.fq.gz B1701_R2.fq.gz | samtools view -bS - > B1701.bam
gatk ReorderSam \
-R /opt/ref/hg19.fa \
-I B1701.bam \
-O B1701_reordered.bam
gatk SortSam \
-I B1701_reordered.bam \
-O B1701_sorted.bam \
-SO coordinate
time gatk SortSam \
-I B1701_reordered.bam \
-O B1701_sorted.bam \
-SO coordinate
$data
$result
$bwa $samtools $gatk
$hg19 (hg19.fa)
$threads
SN=B1701
data=/opt/data
result=/opt/result
bwa=/opt/tools/bwa
samtools=/opt/tools/samtools
bwa=/opt/tools/gatk
hg19=/opt/ref/hg19.fa
threads=8
time $bwa mem -t $threads -M -R \
"@RG\tID:0bdd6f55\tLB:5fba\tPL:Illumina\tPU:3102\tSM:$SN" \
$data/$SN_R1.fq.gz $data/$SN_R2.fq.gz \
| $samtools view -bS - >$result/$SN.bam
time $gatk ReorderSam \
-R $hg19 \
-I $result/$SN.bam \
-O $result/$SN_reordered.bam
time $gatk SortSam \
-I $result/$SN_reordered.bam \
-O $result/$SN_sorted.bam \
-SO coordinate
这时候已经将整套流程简单精简为一个 shell 脚本,如命名为 workrun.sh,每次运行整套流程之前,将变量$SN 的值修改为需要的值就可以了。如果要升级软件、升级 reference 文件版本,修改 shell 脚本相应变量值即可。
到这里就结束了么?还能继续改进么?请继续往下看。
前面我们通过变量定义两个目录$data
,$result
分别来表示,分析流程的输入文件目录$data
和分析输出文件目录$result
,这时候如果我们写一个脚本,按照一定周期判断$data
目录下是否有符合要求的文件,如果有文件符合要求,就运行前面的 workrun.sh
启动分析流程。待整个分析流程结束后,将$SN
对应的 SampleNumber
值写入一个文件,下次扫描判断文件对应的 SampleNumber
是否已经分析过。
前面已经实现了自动扫描并分析文件,这时候我们需要将保存$SN
的文件完善一下,在分析之前录入样本信息,具体样本信息的记录和操作。
参照文章:自动化图形生物信息分析系统开发-2 样本信息处理
运行分析之前,用 SampleReport
字段表示分析状态,扫描脚本根据 SampleReport
字段是否为空判断,该样本编号 SampleNumber
对应的文件是否已经分析过。分析开始后,更新SampleReport
字段为当前日期,分析完成后,再更新为分析完成时的日期。
分析报告,首先我们准备一个分析报告模板,将需要填充的字段,用变量的形式表示,如${sn}
,${sampleReport}
等等,包括
等分析结束后,从样本保存文件,和分析流程最终输出文件中获取数据并填充,得到整个分析报告。像这些数据处理过程,使用 shell
就有些吃力了,我这里使用 python
改写了上面的脚本,并实现了对数据处理,报告填充功能。
到这里,基本上就达到很多公司的生信自动化分析水平了
**这里讲的生信的应用领域是医学临床领域,然而上述水平到这里最多也就是“
工具
”、“脚本
”的水平,真要应用于临床,作为一个 “医疗产品
”来要求,还有相当远的的距离。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。