流程输入 | SRR10971381_1.fastq.gz SRR10971381_2.fastq.gz 测试数据下载 SRX7636886: Complete genome of a novel coronavirus associated with severe human respiratory disease in Wuhan, China 1 ILLUMINA (Illumina MiniSeq) run: 28.3M spots, 8G bases, 2.6Gb downloads 使用NCBI官方工具sra-toolkit拆分成fastq.gz文件 fastq-dump SRR10971381 --split-3 --gzip 得到SRR10971381_1.fastq.gz SRR10971381_2.fastq.gz 分析流程文件(可一键导入sliverworkspace运行)及报告文件,conda环境文件下载,导入操作 |
---|---|
运行环境 | docker image based on ubuntu21.04 Conda Mamba(默认使用清华源) ssh |
分析软件 | - fastp=0.23.2 - fastqc=0.11.9 - multiqc=1.13 - centrifuge=1.0.4 pavian docker 镜像 - florianbw/pavian:latest |
输出结果 | multiqc_report.html 测序数据trim前后质量数据 SRR10971381.clean.report.tsv 分类鉴定报告文件 SRR10971381.clean.result.tsv 分类鉴定统计结果 SRR10971381.kraken2.report.tsv kraken格式的鉴定报告格式,便于pavian用来图形化交互分析 Uploaded_sample_set-report.html pivian导出的报告 |
备注:docker运行的操作系统,推荐为Linux,windows,macOS系统改下docker可能部分功能(网络)不能正常运行
# 拉取docker镜像
docker pull doujiangbaozi/sliverworkspace:latest
# 查看docker 镜像
docker images
version: "3"
services:
SarsCov2:
image: doujiangbaozi/sliverworkspace:latest
container_name: SarsCov2
volumes:
- /media/sliver/Data/data:/opt/data:rw #挂载原始数据,放SC2目录下
- /media/sliver/Manufacture/SC2/envs:/root/mambaforge-pypy3/envs:rw #挂载envs conda环境目录
- /media/sliver/Manufacture/SC2/config:/opt/config:rw #挂载config conda配置文件目录
- /media/sliver/Manufacture/SC2/ref:/opt/ref:rw #挂载reference目录
- /media/sliver/Manufacture/SC2/result:/opt/result:rw #挂载中间文件和输出结果目录
ports:
- "9024:9024" #ssh连接端口可以按需修改
environment:
- TZ=Asia/Shanghai #设置时区
- PS=20191124 #修改默认ssh密码
- PT=9024 #修改默认ssh端口
基础环境运行
# docker-compose.yml 所在目录下运行
docker-compose up -d
# 或者
docker-compose up -d -f /路径/docker-compose.yaml
# 查看docker是否正常运行,docker-compose.yaml目录下运行
docker-compose ps
# 或者
docker ps
docker 容器使用,类似于登录远程服务器
# 登录docker,使用的是ssh服务,可以本地或者远程部署使用
ssh root@192.168.6.6 -p9024
# 看到如下,显示如下提示即正常登录
(base) root@SliverWorkstation:~#
#样本编号
export sn=SRR10971381
#数据输入目录
export data=/opt/data
#数据输出、中间文件目录
export result=/opt/result
#conda安装的环境目录
export envs=/root/mambaforge-pypy3/envs
#设置可用线程数
export threads=8
#conda检测环境是否存在,首次运行不存在创建该环境并安装软件
if [ ! -d "${envs}/qc" ]; then
mamba env create -f /opt/config/qc.yaml
fi
source activate qc
mkdir -p ${result}/${sn}/clean
mkdir -p ${result}/${sn}/qc
fastqc ${data}/SC2/${sn}_1.fastq.gz ${data}/SC2/${sn}_2.fastq.gz -o ${result}/${sn}/qc
fastp -w ${threads} -i ${data}/SC2/${sn}_1.fastq.gz -I ${data}/SC2/${sn}_2.fastq.gz \
-o ${result}/${sn}/clean/${sn}_1_clean.fastq.gz -O ${result}/${sn}/clean/${sn}_2_clean.fastq.gz \
-h ${result}/${sn}/qc/${sn}_fastp.html -j ${result}/${sn}/qc/${sn}_fastp.json
fastqc ${result}/${sn}/clean/${sn}_1_clean.fastq.gz ${result}/${sn}/clean/${sn}_2_clean.fastq.gz \
-o ${result}/${sn}/qc multiqc ${result}/${sn}/qc/ -f -o ${result}/${sn}/qc
conda deactivate
#conda检测环境是否存在,首次运行不存在创建该环境并安装软件
if [ ! -d "${envs}/centrifuge" ]; then
mamba env create -f /opt/config/centrifuge.yaml
fi
source activate centrifuge
if [ ! -f "/opt/ref/centrifuge-idx/hvc.4.cf" ]; then
mkdir -p /opt/ref/centrifuge-idx
aria2c https://zenodo.org/record/3732127/files/h+v+c.tar.gz?download=1 -d /opt/ref/centrifuge-idx
tar -zxvf /opt/ref/centrifuge-idx/h+v+c.tar.gz "/opt/ref/centrifuge-idx"
fi
centrifuge \
-x /opt/ref/centrifuge-idx/hvc \
-1 ${result}/${sn}/clean/${sn}_R1.fastq.gz \
-2 ${result}/${sn}/clean/${sn}_R2.fastq.gz \
--report-file ${result}/${sn}/${sn}.clean.report.tsv \
-S ${result}/${sn}/${sn}.clean.result.tsv \
-p ${threads}
conda deactivate
source activate centrifuge
centrifuge-kreport \
-x /opt/ref/centrifuge-idx/hvc \
${result}/${sn}/${sn}.clean.result.tsv > ${result}/${sn}/${sn}.kraken2.report.tsv
conda deactivate
version: "3"
services:
pavian:
image: florianbw/pavian:latest
container_name: pavian
ports: - "5000:80"
运行docker镜像:docker-compose.yaml文件相同目录下运行:
#运行docker镜像
docker-compose up -d
#查看docker容器运行情况,docker-compose.yaml相同目录下运行
docker-compose ps #或者 docker ps
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。