每个项目——无论你是在从事Web应用程序、数据科学还是AI开发——都可以从配置良好的CI/CD、Docker镜像或一些额外的代码质量工具(如CodeClimate或SonarCloud)中获益。所有这些都是本文要讨论的内容,我们将看看如何将它们添加到Python项目中!
本文最初发布于Martin Heinz的个人博客,由InfoQ中文站翻译并分享。
有些人不喜欢Docker,因为容器很难调试,或者构建镜像需要花很长的时间。那么,就让我们从这里开始,构建适合开发的镜像——构建速度快且易于调试。
为了使镜像易于调试,我们需要一个基础镜像,包括所有调试时可能用到的工具,像bash
、vim
、netcat
、wget
、cat
、find
、grep
等。它默认包含很多工具,没有的也很容易安装。这个镜像很笨重,但这不要紧,因为它只用于开发。你可能也注意到了,我选择了非常具体的映像——锁定了Python和Debian的版本——我是故意这么做的,因为我们希望最小化Python或Debian版本更新(可能不兼容)导致“破坏”的可能性。
作为替代方案,你也可以使用基于Alpine的镜像。然而,这可能会导致一些问题,因为它使用musl libc
而不是Python所依赖的glibc
。所以,如果决定选择这条路线,请记住这一点。
至于构建速度,我们将利用多阶段构建以便可以缓存尽可能多的层。通过这种方式,我们可以避免下载诸如gcc
之类的依赖项和工具,以及应用程序所需的所有库(来自requirements.txt
)。
为了进一步提高速度,我们将从前面提到的python:3.8.1-buster
创建自定义基础镜像,这将包括我们需要的所有工具,因为我们无法将下载和安装这些工具所需的步骤缓存到最终的runner
镜像中。
说的够多了,让我们看看Dockerfile
:
# dev.Dockerfile
FROM python:3.8.1-buster AS builder
RUN apt-get update && apt-get install -y --no-install-recommends --yes python3-venv gcc libpython3-dev && \
python3 -m venv /venv && \
/venv/bin/pip install --upgrade pip
FROM builder AS builder-venv
COPY requirements.txt /requirements.txt
RUN /venv/bin/pip install -r /requirements.txt
FROM builder-venv AS tester
COPY . /app
WORKDIR /app
RUN /venv/bin/pytest
FROM martinheinz/python-3.8.1-buster-tools:latest AS runner
COPY --from=tester /venv /venv
COPY --from=tester /app /app
WORKDIR /app
ENTRYPOINT ["/venv/bin/python3", "-m", "blueprint"]
USER 1001
LABEL name={NAME}
LABEL version={VERSION}
从上面可以看到,在创建最后的runner
镜像之前,我们要经历3个中间镜像。首先是名为builder
的镜像,它下载构建最终应用所需的所有必要的库,其中包括gcc
和Python虚拟环境。安装完成后,它还创建了实际的虚拟环境,供接下来的镜像使用。
接下来是build -venv
镜像,它将依赖项列表(requirements.txt
)复制到镜像中,然后安装它。缓存会用到这个中间镜像,因为我们只希望在requirement .txt
更改时安装库,否则我们就使用缓存。
在创建最终镜像之前,我们首先要针对应用程序运行测试。这发生在tester
镜像中。我们将源代码复制到镜像中并运行测试。如果测试通过,我们就继续构建runner
。
对于runner
镜像,我们使用自定义镜像,其中包括一些额外的工具,如vim
或netcat
,这些功能在正常的Debian镜像中是不存在的。
你可以在Docker Hub:https://hub.docker.com/repository/docker/martinheinz/python-3.8.1-buster-tools 中找到这个镜像;
你也可以在base.Dockerfile
:https://github.com/MartinHeinz/python-project-blueprint/blob/master/base.Dockerfile 中查看其非常简单的Dockerfile
。
那么,我们在这个最终镜像中要做的是——首先我们从tester
镜像中复制虚拟环境,其中包含所有已安装的依赖项,接下来我们复制经过测试的应用程序。现在,我们的镜像中已经有了所有的资源,我们进入应用程序所在的目录,然后设置ENTRYPOINT
,以便它在启动镜像时运行我们的应用程序。出于安全原因,我们还将USER
设置为1001
,因为最佳实践告诉我们,永远不要在root
用户下运行容器。最后两行设置镜像标签。它们将在使用make
目标运行构建时被替换/填充,稍后我们将看到。
当涉及到生产级镜像时,我们会希望确保它们小而安全且速度快。对于这个任务,我个人最喜欢的是来自Distroless项目的Python镜像。可是,Distroless是什么呢?
这么说吧——在一个理想的世界里,每个人都可以使用FROM scratch
构建他们的镜像,然后作为基础镜像(也就是空镜像)。然而,大多数人不愿意这样做,因为那需要静态链接二进制文件,等等。这就是Distroless的用途——它让每个人都可以FROM scratch
。
好了,现在让我们具体描述一下Distroless是什么。它是由谷歌生成的一组镜像,其中包含应用程序所需的最低条件,这意味着没有shell、包管理器或任何其他工具,这些工具会使镜像膨胀,干扰安全扫描器(如CVE),增加建立遵从性的难度。
现在,我们知道我们在干什么了,让我们看看生产环境的Dockerfile
……实际上,这里我们不会做太大改变,它只有两行:
# prod.Dockerfile
# 1. Line - Change builder image
FROM debian:buster-slim AS builder
# ...
# 17. Line - Switch to Distroless image
FROM gcr.io/distroless/python3-debian10 AS runner
# ... Rest of the Dockefile
我们需要更改的只是用于构建和运行应用程序的基础镜像!但区别相当大——我们的开发镜像是1.03GB,而这个只有103MB,这就是区别!我知道,我已经能听到你说:“但是Alpine可以更小!”是的,没错,但是大小没那么重要。你只会在下载/上传时注意到镜像的大小,这并不经常发生。当镜像运行时,大小根本不重要。比大小更重要的是安全性,从这个意义上说,Distroless肯定更有优势,因为Alpine(一个很好的替代选项)有很多额外的包,增加了攻击面。
关于Distroless,最后值得一提的是镜像调试。考虑到Distroless不包含任何shell(甚至不包含sh
),当你需要调试和查找时,就变得非常棘手。为此,所有Distroless镜像都有调试版本。因此,当遇到问题时,你可以使用debug
标记构建生产镜像,并将其与正常镜像一起部署,通过exec命令进入镜像并执行(比如说)线程转储。你可以像下面这样使用调试版本的python3
镜像:
docker run --entrypoint=sh -ti gcr.io/distroless/python3-debian10:debug
所有的Dockerfiles
都准备好了,让我们用Makefile
实现自动化!我们首先要做的是用Docker构建应用程序。为了构建dev映像,我们可以执行make build-dev
,它运行以下目标:
# The binary to build (just the basename).
MODULE := blueprint
# Where to push the docker image.
REGISTRY ?= docker.pkg.github.com/martinheinz/python-project-blueprint
IMAGE := $(REGISTRY)/$(MODULE)
# This version-strategy uses git tags to set the version string
TAG := $(shell git describe --tags --always --dirty)
build-dev:
@echo "\n${BLUE}Building Development image with labels:\n"
@echo "name: $(MODULE)"
@echo "version: $(TAG)${NC}\n"
@sed \
-e 's|{NAME}|$(MODULE)|g' \
-e 's|{VERSION}|$(TAG)|g' \
dev.Dockerfile | docker build -t $(IMAGE):$(TAG) -f- .
这个目标会构建镜像。它首先会用镜像名和Tag(运行git describe
创建)替换dev.Dockerfile
底部的标签,然后运行docker build
。
接下来,使用make build-prod VERSION=1.0.0
构建生产镜像:
build-prod:
@echo "\n${BLUE}Building Production image with labels:\n"
@echo "name: $(MODULE)"
@echo "version: $(VERSION)${NC}\n"
@sed \
-e 's|{NAME}|$(MODULE)|g' \
-e 's|{VERSION}|$(VERSION)|g' \
prod.Dockerfile | docker build -t $(IMAGE):$(VERSION) -f- .
这个目标与之前的目标非常相似,但是在上面的示例1.0.0
中,我们使用作为参数传递的版本而不是git
标签作为版本 。
当你运行Docker中的东西时,有时候你还需要在Docker中调试它,为此,有以下目标:
# Example: make shell CMD="-c 'date > datefile'"
shell: build-dev
@echo "\n${BLUE}Launching a shell in the containerized build environment...${NC}\n"
@docker run \
-ti \
--rm \
--entrypoint /bin/bash \
-u $$(id -u):$$(id -g) \
$(IMAGE):$(TAG) \
$(CMD)
从上面我们可以看到,入口点被bash
覆盖,而容器命令被参数覆盖。通过这种方式,我们可以直接进入容器浏览,或运行一次性命令,就像上面的例子一样。
当我们完成了编码并希望将镜像推送到Docker注册中心时,我们可以使用make push VERSION=0.0.2
。让我们看看目标做了什么:
REGISTRY ?= docker.pkg.github.com/martinheinz/python-project-blueprint
push: build-prod
@echo "\n${BLUE}Pushing image to GitHub Docker Registry...${NC}\n"
@docker push $(IMAGE):$(VERSION)
它首先运行我们前面看到的目标build-prod
,然后运行docker push
。这里假设你已经登录到Docker注册中心,因此在运行这个命令之前,你需要先运行docker login
。
最后一个目标是清理Docker工件。它使用被替换到Dockerfiles
中的name
标签来过滤和查找需要删除的工件:
docker-clean:
@docker system prune -f --filter "label=name=$(MODULE)"
你可以在我的存储库中找到Makefile
的完整代码清单:https://github.com/MartinHeinz/python-project-blueprint/blob/master/Makefile。
现在,让我们使用所有这些方便的make
目标来设置CI/CD。我们将使用GitHub Actions和GitHubPackage Registry来构建管道(作业)及存储镜像。那么,它们又是什么呢?
现在,为了使用GitHubActions,我们需要创建将基于我们选择的触发器(例如push to repository)执行的工作流。这些工作流是存储库中.github/workflows
目录下的YAML文件:
.github
└── workflows
├── build-test.yml
└── push.yml
在那里,我们将创建两个文件build-test.yml
和push.yml
。前者包含2个作业,将在每次推送到存储库时被触发,让我们看下这两个作业:
jobs:
build:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v1
- name: Run Makefile build for Development
run: make build-dev
第一个作业名为build
,它验证我们的应用程序可以通过运行make build-dev
目标来构建。在运行之前,它首先通过执行发布在GitHub上名为checkout
的操作签出我们的存储库。
jobs:
test:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v1
- uses: actions/setup-python@v1
with:
python-version: '3.8'
- name: Install Dependencies
run: |
python -m pip install --upgrade pip
pip install -r requirements.txt
- name: Run Makefile test
run: make test
- name: Install Linters
run: |
pip install pylint
pip install flake8
pip install bandit
- name: Run Linters
run: make lint
第二个作业稍微复杂一点。它测试我们的应用程序并运行3个linter(代码质量检查工具)。与上一个作业一样,我们使用checkout@v1
操作来获取源代码。在此之后,我们运行另一个已发布的操作setup-python@v1
,设置python环境(要了解详细信息,请点击这里:https://github.com/actions/setup-python )。
我们已经有了Python环境,我们还需要requirements.txt
中的应用程序依赖关系,这是我们用pip
安装的。这时,我们可以着手运行make test
目标,它将触发我们的Pytest套件。如果我们的测试套件测试通过,我们继续安装前面提到的linter——pylint、flake8和bandit。最后,我们运行make lint
目标,它将触发每一个linter。
关于构建/测试作业的内容就这些,但push作业呢?让我们也一起看下:
on:
push:
tags:
- '*'
jobs:
push:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v1
- name: Set env
run: echo ::set-env name=RELEASE_VERSION::$(echo ${GITHUB_REF:10})
- name: Log into Registry
run: echo "${{ secrets.REGISTRY_TOKEN }}" | docker login docker.pkg.github.com -u ${{ github.actor }} --password-stdin
- name: Push to GitHub Package Registry
run: make push VERSION=${{ env.RELEASE_VERSION }}
前四行定义了何时触发该作业。我们指定,只有当标签被推送到存储库时,该作业才启动(*
指定标签名称的模式——在本例中是任何名称)。这样,我们就不会在每次推送到存储库的时候都把我们的Docker镜像推送到GitHub Package Registry,而只是在我们推送指定应用程序新版本的标签时才这样做。
现在我们看下这个作业的主体——它首先签出源代码,并将环境变量RELEASE_VERSION
设置为我们推送的git
标签。
这是通过GitHub Actions内置的::setenv
特性完成的(更多信息请点击这里:https://help.github.com/en/actions/automating-your-workflow-with-github-actions/development-tools-for-github-actions#set-an-environment-variable-set-env )。
接下来,它使用存储在存储库中的secretREGISTRY_TOKEN
登录到Docker注册中心,并由发起工作流的用户登录(github.actor
)。最后,在最后一行,它运行目标push
,构建生产镜像并将其推送到注册中心,以之前推送的git
标签作为镜像标签。
感兴趣的读者可以从这里签出完整的代码清单:https://github.com/MartinHeinz/python-project-blueprint/tree/master/.github/workflows。
最后但同样重要的是,我们还将使用CodeClimate和SonarCloud添加代码质量检查。它们将与上文的测试作业一起触发。所以,让我们添加以下几行:
# test, lint...
- name: Send report to CodeClimate
run: |
export GIT_BRANCH="${GITHUB_REF/refs\/heads\//}"
curl -L https://codeclimate.com/downloads/test-reporter/test-reporter-latest-linux-amd64 > ./cc-test-reporter
chmod +x ./cc-test-reporter
./cc-test-reporter format-coverage -t coverage.py coverage.xml
./cc-test-reporter upload-coverage -r "${{ secrets.CC_TEST_REPORTER_ID }}"
- name: SonarCloud scanner
uses: sonarsource/sonarcloud-github-action@master
env:
GITHUB_TOKEN: ${{ secrets.GITHUB_TOKEN }}
SONAR_TOKEN: ${{ secrets.SONAR_TOKEN }}
我们从CodeClimate开始,首先输出变量GIT_BRANCH
,我们会用环境变量GITHUB_REF
来检索这个变量。接下来,我们下载CodeClimate test reporter并使其可执行。接下来,我们使用它来格式化由测试套件生成的覆盖率报告,而且,在最后一行,我们将它与存储在存储库秘密中的test reporter ID一起发送给CodeClimate。
至于SonarCloud,我们需要在存储库中创建sonar-project.properties
文件,类似下面这样(这个文件的值可以在SonarCloud仪表板的右下角找到):
sonar.organization=martinheinz-github
sonar.projectKey=MartinHeinz_python-project-blueprint
sonar.sources=blueprint
除此之外,我们可以使用现有的sonarcloud-github-action
,它会为我们做所有的工作。我们所要做的就是提供2个令牌——GitHub令牌默认已在存储库中,SonarCloud令牌可以从SonarCloud网站获得。
注意:关于如何获取和设置前面提到的所有令牌和秘密的步骤都在存储库的自述文件中:https://github.com/MartinHeinz/python-project-blueprint/blob/master/README.md 。
就是这样!有了上面的工具、配置和代码,你就可以构建和全方位自动化下一个Python项目了!如果关于本文讨论的主题,你想了解更多信息,请查看存储库中的文档和代码:https://github.com/MartinHeinz/python-project-blueprint,如果你有什么建议/问题,请在存储库中提交问题库,或者如果你喜欢我的这个小项目,请为我点赞。
查看英文原文:
领取专属 10元无门槛券
私享最新 技术干货