Loading [MathJax]/jax/output/CommonHTML/config.js
部署DeepSeek模型,进群交流最in玩法!
立即加群
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >jupyter快捷键运行键_anaconda中的jupyter打不开

jupyter快捷键运行键_anaconda中的jupyter打不开

作者头像
全栈程序员站长
发布于 2022-11-17 02:43:49
发布于 2022-11-17 02:43:49
4510
举报

大家好,又见面了,我是你们的朋友全栈君。

jupyter 快捷键

文章目录

命令行模式

快捷键

功能

快捷键

功能

A

在上面插入代码块

Shift + Space

向上滚动

B

在下面插入代码块

Space

向下滚动

X

剪切选择的代码块

Enter

进入编辑模式

C

复制选择的代码块

Y

把代码块变成代码

Shift + V

粘贴到上面

M

把代码块变成标签

V

粘贴到下面

选择上面的代码块

Z

撤销删除

选择下面的代码块

D (两次)

删除选中单元

Shift + Enter

运行代码块,选择下面的代码块

Shift + L (两次)

在所有单元格中切换行号,并保持设置

Ctrl + Enter

运行选中的代码块

Alt + Enter

运行代码块并且插入下面

编辑模式

快捷键

功能

快捷键

功能

Ctrl + D

删除整行

Esc

进入命令行模式

Ctrl + ↑

跳到单元格起始处

Ctrl + ↓

跳到单元格最后

Ctrl + ←

跳到单元格左边

Ctrl + →

跳到单元格右边

Ctrl + ]

缩进一个Tab

Ctrl + [

取消缩进

Tab

代码完成或者缩进

Shift + Tab

工具提示

Ctrl + /

评论或者注释

Ctrl + D

删除整行

Ctrl + U

撤销选择

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/209930.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022年10月25日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
ChatGPT多烧钱?大模型训练一次200-1200万美元!
随着以ChatGPT为代表的生成式AI兴起,其背后以大模型为基础的人工智能成为业界投入的方向。
芯智讯
2023/03/24
1.6K0
ChatGPT多烧钱?大模型训练一次200-1200万美元!
侵吞全球算力!谷歌Gemini被曝算力达GPT-4五倍,手握TPU王牌碾压OpenAI
今天,著名的SemiAnalysis分析师Dylan Patel和Daniel Nishball,又来爆料行业内幕了。
新智元
2023/09/09
4120
侵吞全球算力!谷歌Gemini被曝算力达GPT-4五倍,手握TPU王牌碾压OpenAI
OpenAI提出的新摩尔定律怎样理解?中国隐藏算力巨头有话说
允中 发自 凹非寺 量子位 | 公众号 QbitAI ChatGPT火遍全世界,与之相关的一切都在风口浪尖。 OpenAI首席执行官Sam Altman看似随意分享的一句话,就成为热议的焦点: 新版摩尔定律很快就要来了,宇宙中的智能每18个月翻一倍。 一些人猜测可能指神经网络的参数量,但和过去几年的数据并不对的上。 一些人理解是包括人和AI在内所有智能体的能力,但这个指标如何衡量又成了问题。 也有很多学者、网友并不认同这个判断,IBM科学家Grady Booch表示这是胡说,就被顶成了热评第一。 对于这
量子位
2023/03/04
7070
OpenAI提出的新摩尔定律怎样理解?中国隐藏算力巨头有话说
ChatGPT 背后的经济账
ChatGPT能否取代Google、百度这样的传统搜索引擎?为什么中国不能很快做出ChatGPT?当前,对这些问题的探讨大多囿于大型语言模型(LLM)的技术可行性,忽略或者非常粗糙地估计了实现这些目标背后的经济成本,从而造成对LLM的开发和应用偏离实际的误判。 本文作者从经济学切入,详细推导了类ChatGPT模型搜索的成本、训练GPT-3以及绘制LLM成本轨迹的通用框架,为探讨LLM成本结构和其未来发展提供了可贵的参考视角。 来源 | OneFlow、作者|Sunyan、翻译|杨婷、徐佳渝、贾川 重点概览:
程序猿DD
2023/02/24
4670
ChatGPT 背后的经济账
揭秘A100、A800、H800、V100在高性能计算与大模型训练中的地位
AGI | NLP | A100 | H100 | Nvidia | Aurora
液冷服务器
2023/06/29
3.9K0
揭秘A100、A800、H800、V100在高性能计算与大模型训练中的地位
研究完llama.cpp,我发现手机跑大模型竟这么简单
最近在开源社区,很多人都在探索大模型的优化方法。有一个叫 llama.cpp 的项目用原始 C++ 重写了 LLaMa 的推理代码,效果极好,获得了人们的广泛关注。
机器之心
2023/09/08
2.3K0
研究完llama.cpp,我发现手机跑大模型竟这么简单
英伟达吞噬世界!新架构超级GPU问世,AI算力一步提升30倍
「这不是演唱会。你们是来参加开发者大会的!」老黄出场时,现场爆发出了巨大的欢呼声。
机器之心
2024/03/19
3220
英伟达吞噬世界!新架构超级GPU问世,AI算力一步提升30倍
MLPref放榜!大模型时代算力领域“潜力股”浮出水面:梅开二度拿下世界第一,今年获双料冠军
金磊 明敏 发自 凹非寺 量子位 | 公众号 QbitAI 后ChatGPT时代下的大模型“算力难”问题,“快、好、省”的解法,又来了一个。 就在今天,享有“AI界奥运会”之称的全球权威AI基准评测MLPerf Inference v3.0,公布了最新结果—— 来自中国的AI芯片公司,墨芯人工智能(下文简称“墨芯”),在最激烈的ResNet50模型比拼中夺冠! 而且在此成绩背后,墨芯给大模型时代下的智能算力问题,提供了一个非常具有价值的方向—— 它夺冠所凭借的稀疏计算,堪称是大模型时代最不容忽视的算力“潜
量子位
2023/04/10
2940
MLPref放榜!大模型时代算力领域“潜力股”浮出水面:梅开二度拿下世界第一,今年获双料冠军
想复现谷歌5400亿参数的PaLM模型?测算租卡最少花1000万美元!
---- 新智元报道   编辑:LRS 【新智元导读】最近有研究人员测算,租卡训练一次谷歌PaLM模型的话,光计算成本就达上千万美元了,还不包括数据、测试的开销等,并且租GPU还比TPU划算一些。 最近谷歌的PaLM语言模型横空出世,接连打破多项自然语言处理任务的sota,这个拥有5400亿参数的Transformer语言模型再次证明了「大力出奇迹」。 论文地址:https://storage.googleapis.com/pathways-language-model/PaLM-paper.pdf
新智元
2022/04/19
2.1K0
想复现谷歌5400亿参数的PaLM模型?测算租卡最少花1000万美元!
英伟达 H100 vs. 苹果M2,大模型训练,哪款性价比更高?
关键词:M2芯片;Ultra;M1芯片;UltraFusion;ULTRAMAN;RTX4090、A800;A100;H100;LLAMA、LM、AIGC、CHATGLM、LLVM、LLM、LLMs、GLM、NLP、ChatGPT、AGI、HPC、GPU、CPU、CPU+GPU、英伟达、Nvidia、英特尔、AMD、高性能计算、高性能服务器、蓝海大脑、多元异构算力、高性能计算、大模型训练、大型语言模型、通用人工智能、GPU服务器、GPU集群、大模型训练GPU集群、大语言模型
液冷服务器
2023/07/28
2.3K0
英伟达 H100 vs. 苹果M2,大模型训练,哪款性价比更高?
ChatGPT专题|做出ChatGPT的OpenAI,是如何打破英伟达在机器学习领域的垄断地位的?
在机器学习领域,无论是硬件还是软件,英伟达无疑均拥有巨大优势,后者用 CUDA 建立起了一道软件的护城河。可惜的是,这家公司缺乏远见,未能利用其在机器学习硬软件方面的巨大优势,让自己成为机器学习默认的编译器。而它对可用性与易用性的忽视,让 OpenAI 与 Meta 得以趁虚而入,其主导地位正在被打破。
用户9861443
2023/02/26
7630
ChatGPT专题|做出ChatGPT的OpenAI,是如何打破英伟达在机器学习领域的垄断地位的?
AI 大模型竞争白热化,算力优化才是“超车点”?
算力是驱动人工智能产业发展的核心动力。在数据、算法和算力三大人工智能要素中,算力是将数据和算法真正通过硬件执行的基础单元,并将数据、算法转化为最终的生产力。
深度学习与Python
2023/08/09
6140
AI 大模型竞争白热化,算力优化才是“超车点”?
比H100快20倍还更便宜!英伟达的“掘墓人”出现了?
6月27日消息,芯片初创公司Etched近日宣布推出了一款针对 Transformer架构专用的ASIC芯片 “Sohu”,并声称其在AI大语言模型(LLM)推理性能方面击败了英伟达(NVIDIA)最新的B200 GPU,AI性能达到了H100的20倍。这也意味着Sohu芯片将可以大幅降低现有AI数据中心的采购成本和安装成本。
芯智讯
2024/07/02
1420
比H100快20倍还更便宜!英伟达的“掘墓人”出现了?
跑ChatGPT体量模型,从此只需一块GPU:加速百倍的方法来了
机器之心报道 编辑:泽南 1750 亿参数,只需要一块 RTX 3090,ChatGPT 终于不再是大厂专属的游戏? 计算成本是人们打造 ChatGPT 等大模型面临的重大挑战之一。 据统计,从 GPT 进化到 GPT-3 的过程也是模型体量增长的过程 —— 参数量从 1.17 亿增加到了 1750 亿,预训练数据量从 5GB 增加到 45TB,其中 GPT-3 训练一次的费用是 460 万美元,总训练成本达 1200 万美元。 除了训练,推理也很花钱。有人估算,现在 OpenAI 运行 ChatGPT
机器之心
2023/02/23
1.5K0
跑ChatGPT体量模型,从此只需一块GPU:加速百倍的方法来了
ChatGPT造孽!中国高校因它算力荒
衡宇 发自 凹非寺 量子位 | 公众号 QbitAI 不做大模型,就没有算力用。 这是ChatGPT点燃AI风口后,国内某top3高校AI实验室的残酷现状。 同一个实验室里,非大模型团队6人用4块3090卡,比起同实验室的大模型团队10个人用10块A800卡,本就已经不算富裕。 现在,校企合作也更偏爱大模型。去年11月ChatGPT发布后,与非大模型团队合作的企业骤减,近期找上门的,也是张口就问: “你们做大模型不?” 做,有高校和企业的通力支持;不做?那就只能眼睁睁看着算力花落别家。 哪怕某量化私募基金的
量子位
2023/03/13
4290
ChatGPT造孽!中国高校因它算力荒
秀!黄仁勋烤箱里端出 7nm 芯片,AI 算力提升 20 倍
突如其来的新冠肺炎大流行打乱了众多公司的产品发布计划,比如本该在今年3月英伟达(NVIDIA)GTC 2020上发布的安培(Ampere)架构曝光多次却一直未发布。今天,英伟达CEO黄仁勋发布了英伟达新一代GPU架构安培,并带来了基于安培架构GPU A100的DGX-A100 AI系统和面向边缘AI计算的EGX A100。
AI科技评论
2020/05/25
7420
秀!黄仁勋烤箱里端出 7nm 芯片,AI 算力提升 20 倍
英伟达发布ChatGPT专用GPU,推理速度提升了10倍
机器之心报道 编辑:泽南、蛋酱 AI 的 iPhone 时刻,要有一块好的芯片。 曾何几时,人工智能因为算力不足进入了长达数十年的瓶颈,GPU 点燃了深度学习。在 ChatGPT 时代,AI 因为大模型再次面临算力不足的问题,这一次英伟达还有办法吗? 3 月 22 日,GTC 大会正式召开,在刚刚进行的 Keynote 上,英伟达 CEO 黄仁勋搬出了为 ChatGPT 准备的芯片。 「加速计算并非易事,2012 年,计算机视觉模型 AlexNet 动用了 GeForce GTX 580,每秒可处理 26
机器之心
2023/03/29
1.2K0
英伟达发布ChatGPT专用GPU,推理速度提升了10倍
英伟达放大招:生成式AI性能提升10倍!计算光刻提速40倍!黄仁勋:AI的“iPhone时刻”已经来临!
当地时间3月21日,一年一度的英伟达(NVIDIA)春季GTC大会正式开幕,英伟达首席执行官黄仁勋公布了一系列重大产品更新:面向ChatGPT的全新GPU推理平台、AI超级计算服务DGX Cloud、突破性的光刻计算库cuLitho、加速企业创建大模型和生成式AI的云服务NVIDIA AI Foundations等,并宣布与日本三菱联合打造了日本第一台用于加速药研的生成式AI超级计算机、与Quantum Machines合作推出了全球首个GPU加速量子计算系统。
芯智讯
2023/03/24
8010
英伟达放大招:生成式AI性能提升10倍!计算光刻提速40倍!黄仁勋:AI的“iPhone时刻”已经来临!
谷歌最强AI超算碾压英伟达A100!TPU v4性能提升10倍,细节首次公开
---- 新智元报道   编辑:好困 桃子 【新智元导读】微软为ChatGPT打造专用超算,砸下几亿美元,用了上万张A100。现在,谷歌首次公布了自家AI超算的细节——性能相较上代v3提升10倍,比A100强1.7倍。此外,据说能和H100对打的芯片已经在研发了。 虽然谷歌早在2020年,就在自家的数据中心上部署了当时最强的AI芯片——TPU v4。 但直到今年的4月4日,谷歌才首次公布了这台AI超算的技术细节。 论文地址:https://arxiv.org/abs/2304.01433 相比于TP
新智元
2023/04/06
5510
谷歌最强AI超算碾压英伟达A100!TPU v4性能提升10倍,细节首次公开
00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!
这一次,号称专为LLM推理加速打造的Sohu芯片,已经成超越Groq,成为最强AI芯片。
新智元
2024/06/27
2290
00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!
推荐阅读
ChatGPT多烧钱?大模型训练一次200-1200万美元!
1.6K0
侵吞全球算力!谷歌Gemini被曝算力达GPT-4五倍,手握TPU王牌碾压OpenAI
4120
OpenAI提出的新摩尔定律怎样理解?中国隐藏算力巨头有话说
7070
ChatGPT 背后的经济账
4670
揭秘A100、A800、H800、V100在高性能计算与大模型训练中的地位
3.9K0
研究完llama.cpp,我发现手机跑大模型竟这么简单
2.3K0
英伟达吞噬世界!新架构超级GPU问世,AI算力一步提升30倍
3220
MLPref放榜!大模型时代算力领域“潜力股”浮出水面:梅开二度拿下世界第一,今年获双料冠军
2940
想复现谷歌5400亿参数的PaLM模型?测算租卡最少花1000万美元!
2.1K0
英伟达 H100 vs. 苹果M2,大模型训练,哪款性价比更高?
2.3K0
ChatGPT专题|做出ChatGPT的OpenAI,是如何打破英伟达在机器学习领域的垄断地位的?
7630
AI 大模型竞争白热化,算力优化才是“超车点”?
6140
比H100快20倍还更便宜!英伟达的“掘墓人”出现了?
1420
跑ChatGPT体量模型,从此只需一块GPU:加速百倍的方法来了
1.5K0
ChatGPT造孽!中国高校因它算力荒
4290
秀!黄仁勋烤箱里端出 7nm 芯片,AI 算力提升 20 倍
7420
英伟达发布ChatGPT专用GPU,推理速度提升了10倍
1.2K0
英伟达放大招:生成式AI性能提升10倍!计算光刻提速40倍!黄仁勋:AI的“iPhone时刻”已经来临!
8010
谷歌最强AI超算碾压英伟达A100!TPU v4性能提升10倍,细节首次公开
5510
00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!
2290
相关推荐
ChatGPT多烧钱?大模型训练一次200-1200万美元!
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档