Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Docker--docker ps 命令与结果解析

Docker--docker ps 命令与结果解析

作者头像
洋仔聊编程
发布于 2019-01-15 09:13:55
发布于 2019-01-15 09:13:55
2.8K00
代码可运行
举报
运行总次数:0
代码可运行
  • 命令详解
    • 意义:列出容器相关信息
    • 格式:docker ps [options]
    • 参数列表:

参数

解释

无参

默认显示正在运行的容器

-a

显示所有的容器,包括未运行的

-f

根据条件过滤显示的内容

--format

指定返回值的模板文件

-l

显示最近创建的容器

-n

列出最近创建的n个容器

--no-trunc

不截断输出

-q

静默模式,只显示容器ID

-s

显示总的文件大小

  • 命令 docker ps 获取的结果示例
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
CONTAINER ID        IMAGE                        COMMAND             CREATED               STATUS                  PORTS                               NAMES
60f4df405d25        training/webapp        "python app.py"      3 seconds ago       Up 2 seconds            0.0.0.0:1026->5000/tcp                     hardcore_mirzakhani
da4349730072        training/webapp        "python app.py"      37 seconds ago      Up 36 seconds           0.0.0.0:1025->5000/tcp                     ecstatic_ritchie
  • 结果解析:
    • CONTAINER ID(container id ) :顾名思义 ,容器ID的意思,可以通过这id找到唯一的对应容器
    • IMAGE (image):该容器所使用的镜像
    • COMMAND (command):启动容器时运行的命令
    • CREATED (created):容器的创建时间,显示格式为”**时间之前创建“
    • STATUS (status):容器现在的状态,状态有7种:created(已创建)|restarting(重启中)|running(运行中)|removing(迁移中)|paused(暂停)|exited(停止)|dead
    • PORTS (ports):容器的端口信息和使用的连接类型(tcp\udp)
    • NAMES (names):镜像自动为容器创建的名字,也唯一代表一个容器
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018年10月13日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Transformers 4.37 中文文档(三十四)
FNet 模型由 James Lee-Thorp, Joshua Ainslie, Ilya Eckstein, Santiago Ontanon 在 FNet: Mixing Tokens with Fourier Transforms 中提出。该模型用傅立叶变换替换了 BERT 模型中的自注意力层,仅返回变换的实部。该模型比 BERT 模型快得多,因为它具有更少的参数并且更节省内存。该模型在 GLUE 基准测试中达到了约 92-97% 的准确率,并且比 BERT 模型训练速度更快。论文的摘要如下:
ApacheCN_飞龙
2024/06/26
3240
Transformers 4.37 中文文档(五十四)
REALM 模型是由 Kelvin Guu、Kenton Lee、Zora Tung、Panupong Pasupat 和 Ming-Wei Chang 在REALM: Retrieval-Augmented Language Model Pre-Training中提出的。这是一个检索增强语言模型,首先从文本知识语料库中检索文档,然后利用检索到的文档来处理问答任务。
ApacheCN_飞龙
2024/06/26
2310
仅用61行代码,你也能从零训练大模型
本文并非基于微调训练模型,而是从头开始训练出一个全新的大语言模型的硬核教程。看完本篇,你将了解训练出一个大模型的环境准备、数据准备,生成分词,模型训练、测试模型等环节分别需要做什么。AI 小白友好~文中代码可以直接实操运行。欢迎阅读体验。
腾讯云开发者
2023/07/31
14K0
仅用61行代码,你也能从零训练大模型
Transformers 4.37 中文文档(二十七)
CANINE 模型是由 Jonathan H. Clark、Dan Garrette、Iulia Turc、John Wieting 在CANINE: Pre-training an Efficient Tokenization-Free Encoder for Language Representation中提出的。这是第一篇在训练 Transformer 时不使用显式分词步骤(如字节对编码(BPE)、WordPiece 或 SentencePiece)的论文之一。相反,该模型直接在 Unicode 字符级别进行训练。在字符级别进行训练不可避免地会导致更长的序列长度,CANINE 通过高效的下采样策略解决了这个问题,然后应用深度 Transformer 编码器。
ApacheCN_飞龙
2024/06/26
3630
Transformers 4.37 中文文档(二十七)
从头预训练一只超迷你 LLaMA 3
这次打算用 Hugging Face 的 API 来写一份预训练大(小)模型的代码,也就是用 Trainer 来做预训练。由于只是想练习一下,因此打算选一个极小模型 + 小数据集。为了贴近主流,于是打算预训练一个 LLaMA 3——不过是超迷你版本,大小仅不到 20M。
NewBeeNLP
2024/06/04
9670
从头预训练一只超迷你 LLaMA 3
Transformers 4.37 中文文档(四十九)
免责声明: 分词器的默认行为已在 2023 年 4 月修复并更改。之前的版本在目标和源分词序列的末尾都添加了 [self.eos_token_id, self.cur_lang_code]。这是错误的,因为 NLLB 论文提到了 (第 48 页,6.1.1. 模型架构):
ApacheCN_飞龙
2024/06/26
2560
机器学习|从0开发大模型之Tokenizer训练
继续写《从0开发大模型》系列文章,本文主要介绍从头快速训练一个Tokenizer。
用户1904552
2025/02/27
1830
机器学习|从0开发大模型之Tokenizer训练
Transformers 4.37 中文文档(四十)
Hugo Touvron、Thibaut Lavril、Gautier Izacard、Xavier Martinet、Marie-Anne Lachaux、Timothée Lacroix、Baptiste Rozière、Naman Goyal、Eric Hambro、Faisal Azhar、Aurelien Rodriguez、Armand Joulin、Edouard Grave、Guillaume Lample 在LLaMA: Open and Efficient Foundation Language Models中提出了 LLaMA 模型。它是一个包含从 7B 到 65B 参数的基础语言模型的集合。
ApacheCN_飞龙
2024/06/26
5930
Transformers 4.37 中文文档(二十三)
BertGeneration 模型是一个可以利用 EncoderDecoderModel 进行序列到序列任务的 BERT 模型,如 Sascha Rothe, Shashi Narayan, Aliaksei Severyn 在 利用预训练检查点进行序列生成任务 中提出的那样。
ApacheCN_飞龙
2024/06/26
2460
Transformers 4.37 中文文档(八十一)
Whisper 模型由 Alec Radford、Jong Wook Kim、Tao Xu、Greg Brockman、Christine McLeavey、Ilya Sutskever 在通过大规模弱监督实现稳健语音识别中提出。
ApacheCN_飞龙
2024/06/26
1K0
Transformers 4.37 中文文档(四十二)
M2M100 模型是由 Angela Fan、Shruti Bhosale、Holger Schwenk、Zhiyi Ma、Ahmed El-Kishky、Siddharth Goyal、Mandeep Baines、Onur Celebi、Guillaume Wenzek、Vishrav Chaudhary、Naman Goyal、Tom Birch、Vitaliy Liptchinsky、Sergey Edunov、Edouard Grave、Michael Auli、Armand Joulin 在 Beyond English-Centric Multilingual Machine Translation 中提出的。
ApacheCN_飞龙
2024/06/26
3590
Transformers 4.37 中文文档(四十二)
Transformers 4.37 中文文档(五十八)
它建议对传统 Transformer 注意力进行微调,使其线性化。这样,模型可以用作循环网络:同时传递时间戳 0 和时间戳 1 的输入与在时间戳 0 传递输入,然后在时间戳 1 传递输入以及时间戳 0 的状态是相同的(见下面的示例)。
ApacheCN_飞龙
2024/06/26
1610
Transformers 4.37 中文文档(五十一)
PEGASUS-X 模型由 Jason Phang、Yao Zhao 和 Peter J. Liu 在 Investigating Efficiently Extending Transformers for Long Input Summarization 中提出。
ApacheCN_飞龙
2024/06/26
1870
Transformers 4.37 中文文档(五十一)
Transformers 4.37 中文文档(四十七)
MRA 模型由 Zhanpeng Zeng、Sourav Pal、Jeffery Kline、Glenn M Fung 和 Vikas Singh 在Multi Resolution Analysis (MRA) for Approximate Self-Attention中提出。
ApacheCN_飞龙
2024/06/26
2260
Transformers 4.37 中文文档(四十八)
MVP 模型由唐天一、李俊毅、赵新文和文继荣在《MVP: 多任务监督预训练用于自然语言生成》中提出。
ApacheCN_飞龙
2024/06/26
1730
Transformers 4.37 中文文档(二十六)
如果您在运行此模型时遇到任何问题,请重新安装支持此模型的最后一个版本:v4.30.0。您可以通过运行以下命令来执行:pip install -U transformers==4.30.0。
ApacheCN_飞龙
2024/06/26
3370
Transformers 4.37 中文文档(四十五)
MegatronGPT2 模型是由 Mohammad Shoeybi、Mostofa Patwary、Raul Puri、Patrick LeGresley、Jared Casper 和 Bryan Catanzaro 在使用模型并行训练多十亿参数语言模型的 Megatron-LM中提出的。
ApacheCN_飞龙
2024/06/26
3240
Transformers 4.37 中文文档(四十五)
LLM模型之基于MindSpore通过GPT实现情感分类
在情感分类任务中,首先通过`load_dataset`函数加载IMDB数据集,该数据集分为训练集和测试集,以确保有效利用标注好的电影评论进行模型训练和评估。在此过程中,还对数据进行预处理,包括去除无关字符和标准化文本格式,以提高模型效果。接下来,使用GPT Tokenizer对IMDB数据集中的评论进行分词,这一过程不仅将文本分割成单词或子词,还添加必要的特殊标记,如开始标记(<bos>)和结束标记(<eos>),确保模型能够正确理解文本结构和含义。最后,构建基于预训练GPT模型的情感分类模型,并根据IMDB数据集进行微调训练,以适应二分类任务的需求。
查拉图斯特拉说
2024/07/27
1780
LLM模型之基于MindSpore通过GPT实现情感分类
Transformers 4.37 中文文档(三十八)
GPTBigCode 模型是由 BigCode 在SantaCoder: don’t reach for the stars!中提出的。列出的作者包括:Loubna Ben Allal、Raymond Li、Denis Kocetkov、Chenghao Mou、Christopher Akiki、Carlos Munoz Ferrandis、Niklas Muennighoff、Mayank Mishra、Alex Gu、Manan Dey、Logesh Kumar Umapathi、Carolyn Jane Anderson、Yangtian Zi、Joel Lamy Poirier、Hailey Schoelkopf、Sergey Troshin、Dmitry Abulkhanov、Manuel Romero、Michael Lappert、Francesco De Toni、Bernardo García del Río、Qian Liu、Shamik Bose、Urvashi Bhattacharyya、Terry Yue Zhuo、Ian Yu、Paulo Villegas、Marco Zocca、Sourab Mangrulkar、David Lansky、Huu Nguyen、Danish Contractor、Luis Villa、Jia Li、Dzmitry Bahdanau、Yacine Jernite、Sean Hughes、Daniel Fried、Arjun Guha、Harm de Vries、Leandro von Werra。
ApacheCN_飞龙
2024/06/26
4840
Transformers 4.37 中文文档(三十八)
Transformers 4.37 中文文档(六十二)
**免责声明:**如果您看到异常情况,请提交GitHub 问题并指定@patrickvonplaten
ApacheCN_飞龙
2024/06/26
2770
推荐阅读
相关推荐
Transformers 4.37 中文文档(三十四)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验