Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Python学习(一)变量与常用数据类型​

Python学习(一)变量与常用数据类型​

作者头像
xbai921031
发布于 2022-05-25 07:28:28
发布于 2022-05-25 07:28:28
20800
代码可运行
举报
运行总次数:0
代码可运行

1.变量

首先来看下下面这段代码:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
message = "Hello world !"
print(message)

在Pycharm里运行一下可以看到如下结果:

上述代码中,,定义了一个变量message,并且给它赋了一个字符串。

变量命名规则:(同C语言命名规则)

(1)只能用数字,字母和下划线命名

(2)可以以字母和下划线开头,不能以数字开头

(3)不能使用关键字命名

2.数据类型

2.1 字符串

由一对双引号或者单引号括起来的字符就组成一个字符串,如:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
"Hello world !"
'Hello world !'

对字符串的一些修改可以用方法来实现。

例如:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
message = "hello world !"
print(message.title())

结果如下:

message后面加.title(),即为对变量message执行方法title()指定的操作:将每个单词首字母转换为大写形式。Pyhon中还有很多对字符串进行操作的方法,用的时候查一下即可。

字符串的拼接:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
First_Name = "John"
Last_Name = "Reese"
Full_Name = First_Name + ' ' + Last_Name
print("Hello, " + Full_Name + ".")

运行结果为:

2.2 数字

2.2.1 整数

Python中可以对整数进行四则运算,例如:

2.2.2 浮点数

Python中也可以对浮点数进行四则运算,例如:

箭头所指处小数数位出现不确定,跟计算机内部计数方式有关,忽略即可。


以上即为本次分享内容,喜欢的话点个赞吧,笔者在这里谢谢您的支持。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-01-03,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 进击的程序喵 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
LeCun转赞:在苹果M1/M2芯片上跑LLaMA!130亿参数模型仅需4GB内存
---- 新智元报道   编辑:好困 【新智元导读】现在,Meta最新的大语言模型LLaMA,可以在搭载苹果芯片的Mac上跑了! 前不久,Meta前脚发布完开源大语言模型LLaMA,后脚就被网友放出了无门槛下载链接,「惨遭」开放。 消息一出,圈内瞬间就热闹了起来,大家纷纷开始下载测试。 但那些手头没有顶级显卡的朋友们,就只能望模型兴叹了。 不过,问题不大。Georgi Gerganov在最近做了一个名为「llama.cpp」的项目——没有GPU也能跑LLaMA。 项目地址:https://githu
新智元
2023/03/29
1.7K0
LeCun转赞:在苹果M1/M2芯片上跑LLaMA!130亿参数模型仅需4GB内存
250行代码从头搭建Llama 3,GitHub一天4.6k星!Karpathy大赞
Llama系列作为为数不多的优质开源LLM,一直受到开发者们的追捧。在Hugging Face社区的文本生成模型中,几乎是「霸榜」的存在。
新智元
2024/05/22
7990
250行代码从头搭建Llama 3,GitHub一天4.6k星!Karpathy大赞
Karpathy称赞,从零实现LLaMa3项目爆火,半天1.5k star
一个月前,Meta 发布了开源大模型 llama3 系列,在多个关键基准测试中优于业界 SOTA 模型,并在代码生成任务上全面领先。
机器之心
2024/05/22
3460
Karpathy称赞,从零实现LLaMa3项目爆火,半天1.5k star
windows10搭建llama大模型
随着人工时代的到来及日渐成熟,大模型已慢慢普及,可以为开发与生活提供一定的帮助及提升工作及生产效率。所以在新的时代对于开发者来说需要主动拥抱变化,主动成长。
逍遥壮士
2023/09/12
1.2K0
windows10搭建llama大模型
机器学习|从0开发大模型之模型预训练
继续写《从0开发大模型》系列文章,本文主要介绍预训练过程。 预训练是目的是让模型学习知识,需要将预处理的数据(《机器学习|从0开发大模型之数据预处理》)中生成的 pretrain_data.bin 文件的上下文全部学习到,那预训练怎么做呢?
用户1904552
2025/02/27
1710
机器学习|从0开发大模型之模型预训练
mlc-llm 推理优化和大语言模型搭建解析(文末送书)
本文解析一下mlc-llm(https://github.com/mlc-ai/mlc-llm)对大模型推理的流程以及使用的图优化,算子优化策略。mlc-llm的模型部署流程可以查看官方文档:https://mlc.ai/mlc-llm/docs/ ,也可以参考我前段时间写的这篇MLC-LLM 部署RWKV World系列模型实战(3B模型Mac M2解码可达26tokens/s) 。
BBuf
2023/09/26
1.8K0
mlc-llm 推理优化和大语言模型搭建解析(文末送书)
【Rust与AI】LLM模型基本架构
本篇是《Rust与AI》系列的第二篇,上一篇我们主要介绍了本系列的概览和方向,定下了一个基调。本篇我们将介绍LLM的基本架构,我们会以迄今为止使用最广泛的开源模型LLaMA为例展开介绍。
MikeLoveRust
2023/12/30
1.1K0
【Rust与AI】LLM模型基本架构
【LLM系列之LLaMA】LLaMA: Open and Efficient Foundation Language Models
LLaMA 是 Meta AI 发布的包含 7B、13B、33B 和 65B 四种参数规模的基础语言模型集合,LLaMA-13B 仅以 1/10 规模的参数在多数的 benchmarks 上性能优于 GPT-3(175B),LLaMA-65B 与业内最好的模型 Chinchilla-70B 和 PaLM-540B 比较也具有竞争力。
致Great
2023/08/25
1K0
【LLM系列之LLaMA】LLaMA: Open and Efficient Foundation Language Models
构建能够使用 CPU 运行的 MetaAI LLaMA2 中文大模型
本篇文章聊聊如何使用 GGML 机器学习张量库,构建让我们能够使用 CPU 来运行 Meta 新推出的 LLaMA2 大模型。
soulteary
2023/07/24
1.1K0
构建能够使用 CPU 运行的 MetaAI LLaMA2 中文大模型
本篇文章聊聊如何使用 GGML 机器学习张量库,构建让我们能够使用 CPU 来运行 Meta 新推出的 LLaMA2 大模型。
soulteary
2023/09/04
9460
构建能够使用 CPU 运行的 MetaAI LLaMA2 中文大模型
Text Generation Inference源码解读(二):模型加载与推理
本文以TGI对Llama 2的支持为例,解读TGI的模型加载和推理实现,总结其中运用到的推理优化技巧,最后以TGI增加AWQ推理支持为例复盘模型加载逻辑。虽尽力保持行文简洁,但最后成文还是很长,请读者按需跳转阅读。本文所分析TGI代码版本为1.1.1。
BBuf
2024/02/22
2.1K0
Text Generation Inference源码解读(二):模型加载与推理
从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务
本篇文章聊聊,如何使用 Ollama、Dify 和 Docker 来完成本地 Llama 3.1 模型服务的搭建。
soulteary
2024/07/28
2.2K0
从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务
从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务
本篇文章聊聊,如何使用 Ollama、Dify 和 Docker 来完成本地 Llama 3.1 模型服务的搭建。
soulteary
2024/08/01
1.1K0
从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务
多模态大模型篇
在CV方向上,一般我们输入的都是图片,无论这个图片多大,都会resize到一个统一的尺寸。最终经过CNN的提取,变成一个特征向量,那么这个特征向量的维度是一样的。再经过softmax变成一个分类(Class)的概率
算法之名
2023/10/16
9730
多模态大模型篇
音视频开发之旅(92)-多模态Clip论文解读与源码分析
在做分类 检测以及分割任务时,数据的标注非常关键, 比如可用于分类任务的ImageNet数据集共有120万张图片1000个分类,  可用于目标检测和分割任务的COCO数据集共有33万张图片80个目标类别. 传统的图像分类模型通常在标注的数据集上进行训练,但这些数据集的类别和数量相对较小,训练的模型泛化能力也受限,很难直接zero-shot迁移到下游任务.
音视频开发之旅
2024/09/07
3660
音视频开发之旅(92)-多模态Clip论文解读与源码分析
Llama深入浅出
前方干货预警:这可能是你能够找到的最容易懂的最具实操性的学习开源LLM模型源码的教程。
lyhue1991
2023/09/05
2.4K1
Llama深入浅出
使用Python实现深度学习模型:Transformer模型
Transformer模型自提出以来,已经成为深度学习领域,尤其是自然语言处理(NLP)中的一种革命性模型。与传统的循环神经网络(RNN)和长短期记忆网络(LSTM)不同,Transformer完全依赖于注意力机制来捕捉序列中的依赖关系。这使得它能够更高效地处理长序列数据。在本文中,我们将详细介绍Transformer模型的基本原理,并使用Python和TensorFlow/Keras实现一个简单的Transformer模型。
Echo_Wish
2024/06/08
8790
使用Python实现深度学习模型:Transformer模型
无所不能的Embedding6 - 跨入Transformer时代~模型详解&代码实现
上一章我们聊了聊quick-thought通过干掉decoder加快训练, CNN—LSTM用CNN作为Encoder并行计算来提速等方法,这一章看看抛开CNN和RNN,transformer是如何只基于attention对不定长的序列信息进行提取的。虽然Attention is All you need论文本身是针对NMT翻译任务的,但transformer作为后续USE/Bert的重要组件,放在embedding里也没啥问题。以下基于WMT英翻中的任务实现了transfromer,完整的模型代码详见DSXiangLi-Embedding-transformer
风雨中的小七
2021/03/03
9490
无所不能的Embedding6 - 跨入Transformer时代~模型详解&代码实现
从头预训练一只超迷你 LLaMA 3
这次打算用 Hugging Face 的 API 来写一份预训练大(小)模型的代码,也就是用 Trainer 来做预训练。由于只是想练习一下,因此打算选一个极小模型 + 小数据集。为了贴近主流,于是打算预训练一个 LLaMA 3——不过是超迷你版本,大小仅不到 20M。
NewBeeNLP
2024/06/04
9850
从头预训练一只超迷你 LLaMA 3
AI智能体研发之路-模型篇(二):DeepSeek-V2-Chat 训练与推理实战
5月6日私募基金幻方发布DeepSeek-V2,千亿级模型,每百万Tokens仅需1元-2元。5月15日,字节发布白菜价的豆包大模型,5月21日阿里、百度相机大幅下调甚至免费开放自家商用模型接口,大模型价格战正式打响。而被誉为大模型价格屠夫的“DeepSeek-V2”到底是怎么个事儿,是否可以进行训练和推理,今天我们来展开讲一讲。
LDG_AGI
2024/08/13
1.5K0
AI智能体研发之路-模型篇(二):DeepSeek-V2-Chat 训练与推理实战
推荐阅读
相关推荐
LeCun转赞:在苹果M1/M2芯片上跑LLaMA!130亿参数模型仅需4GB内存
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验