Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >量子统计力学1

量子统计力学1

作者头像
HuangWeiAI
发布于 2021-08-24 06:44:49
发布于 2021-08-24 06:44:49
7970
举报
文章被收录于专栏:浊酒清味浊酒清味

密度矩阵和系综

在量子力学里,一个量子算符

A

的量子期望值由下式给定

\langle \psi | A |\psi \rangle

这里

|\psi\rangle

是一个态。如果我们不知道这个系统的态,或者我们考虑一个统计意义上的混合态,那么算符的期望值由下式给定

\langle A \rangle = \sum_i p_i \langle \psi_i | A | \psi_i \rangle

其中

p_i

是系统处于

\psi_i

态的概率。密度矩阵的定义如下

\rho = \sum_i p_i |\psi_i \rangle \langle \psi_i |

求迹可得

\langle A \rangle = {\rm Tr}(\rho A) \equiv \sum_n \langle n | \rho A | n \rangle

这里

\{| n \rangle\}

是完备,正交的态。

如果密度矩阵描述的是一个纯态,那么我们可以把密度矩阵写为

\rho = | \psi \rangle \langle \psi |

其中

\psi

是这个纯态。

密度矩阵有如下三个性质

1.厄米

\rho = \rho^\dagger

2.Tr

\rho=1

3.半正定 对于

|\phi \rangle \in \mathcal H

,有

\langle \phi|\rho |\phi\rangle \geq 0

密度矩阵的另一个重要的性质是

{\rm Tr}\rho^2 = 1 \leftrightarrow \rho 描述了一个纯态

证明

\begin{aligned} \operatorname{Tr} \rho^{2} &=\sum_{n}\left\langle n\left|\left(\sum_{i} p_{i}\left|\psi_{i}\right\rangle\left\langle\psi_{i}\right|\right)\left(\sum_{j} p_{j}\left|\psi_{j}\right\rangle\left\langle\psi_{j}\right|\right)\right| n\right\rangle \\ &=\sum_{i, j} p_{i} p_{j}\left\langle\psi_{j}\left|\left(\sum_{n}|n\rangle\langle n|\right)\right| \psi_{i}\right\rangle\left\langle\psi_{i} \mid \psi_{j}\right\rangle \\ &=\sum_{i, j} p_{i} p_{j}\left|\left\langle\psi_{i} \mid \psi_{j}\right\rangle\right|^{2} \leq \sum_{i, j} p_{i} p_{j}\left\langle\psi_{i} \mid \psi_{i}\right\rangle\left\langle\psi_{j} \mid \psi_{j}\right\rangle \\ &=\left(\sum_{i} p_{i}\right)\left(\sum_{j} p_{j}\right)=1 \end{aligned}

证明过程中用到了柯西-史瓦兹不等式。当且仅当对于每个

i

,

j

都有

|\psi_i \rangle = | \psi_j \rangle

时等号成立。所以当且仅当密度矩阵描述的是一个纯态的时候,等式成立。

利用

\rho

是厄米的这一性质,我们可以得知它的本征向量

\{|\phi_i\rangle\}

是正交的,并且本征值

P_i

是实数。我们也可以把

\rho

用下面的表示写出来

\rho = \sum_i P_i |\phi_i\rangle \langle \phi_i|

在薛定谔绘景下,态的演化

|\psi(t)\rangle = U(t)|\psi(0)\rangle

其中

U(t)\equiv T\bigg\{ \exp \bigg( -i \int_0^t dt' H(t') \bigg) \bigg\}

密度矩阵按照下式演化

\rho(t) = U(t) \rho_0 U^\dagger(t)

也可以写作

\frac{d\rho(t)}{dt} = -i[H,\rho]

在海森堡绘景下,密度矩阵不随时间演化

\begin{align}\nonumber &\langle A(t) \rangle = {\rm Tr}(\rho(t)A) = {\rm Tr}(U(t)\rho_0U^\dagger (t)A) \\ \nonumber &= {\rm Tr} (\rho_0 U^\dagger (t) A U(t)) = {\rm Tr}(\rho_0A(t)) \end{align}

冯诺伊曼熵的定义

S = - {\rm Tr} (\rho \log \rho)

还可写成

S = - \sum_i P_i \log P_i

对于纯态,我们有

P_i = 1

,所以

S = 0 \leftrightarrow \rho是一个纯态

热系综

正则系综

最基本的系综就是正则系综。它描述了恒定温度下的热平衡态。正则系综的期望值如下

\langle A \rangle_\beta = \frac{1}{ Z} \sum_n e^{-\beta E_n} \langle n | A | n \rangle

其中

E_n

是本征值,

\{|n\rangle\}

是本征向量,

\beta = 1/T

密度矩阵

\begin{aligned} \rho_{\beta} &=\frac{1}{Z} \sum_{n} e^{-\beta E_{n}}|n\rangle\langle n|=\frac{1}{Z} \sum_{n} e^{-\beta H}| n\rangle\langle n| \\ &=\frac{e^{-\beta H}}{Z} \sum_{n}|n\rangle\langle n|=\frac{e^{-\beta H}}{Z} \end{aligned}
Z

是配分函数

\begin{align}\nonumber Z & = \sum_n e^{-\beta E_n} = \sum_n e^{-\beta E_n} \langle n | n \rangle \\\nonumber & = \sum_n \langle n | e^{-\beta E_n} | n \rangle = \sum_n \langle n|e^{-\beta H} | n \rangle = {\rm Tr} e^{-\beta H} \end{align}

因此期望值也可以用下式表示

\langle A\rangle_\beta = \frac{{\rm Tr} (e^{-\beta H} A) }{{\rm Tr} e^{-\beta H} }

微正则系综

微正则系综描述了能量在

E_i

附近的小区域的系综。这种系综的期望值如下

\langle A \rangle_{\rm micro, E_i} \equiv \frac{1}{\mathcal N} \sum_{E_n \in [E_i, E_i+\Delta E]}\langle E_n | A | E_n \rangle

密度矩阵

\rho_{\rm micro, E_i} = \frac{1}{\mathcal N} \sum_{E_n \in[E_i, E_i+\Delta E]} |E_n \rangle \langle E_n |

对多数系统来说,正则系综的平均和微正则系综的平均是一样的。在热力学极限下,正则系综的平均趋向于

\langle A \rangle_\beta = \frac{1}{Z} \sum_n \mathcal N (n \Delta E) e^{-\beta n \Delta E} \langle A\rangle_{\rm micro, n \Delta E}

对于多数系统,最终能量的分布会集中在

E_i

附近。此时

\beta

的定义为

\beta = \frac{\partial}{\partial E} \log \mathcal N (E) \bigg|_{E = E_i}

当我们说一个系统或者态是热的时候,这意味着正则系综的平均值是趋向于微正则系综的平均值的。这个过程叫做热化。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-07-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Python学会 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
使用knn算法对鸢尾花数据集进行分类(数据挖掘apriori算法)
一、knn算法描述 1.基本概述 knn算法,又叫k-近邻算法。属于一个分类算法,主要思想如下: 一个样本在特征空间中的k个最近邻的样本中的大多数都属于某一个类别,则该样本也属于这个类别。其中k表示最近邻居的个数。
全栈程序员站长
2022/08/01
2.1K0
使用knn算法对鸢尾花数据集进行分类(数据挖掘apriori算法)
数据分析与数据挖掘 - 09邻近算法
邻近算法又叫做K临近算法或者KNN(K-NearestNeighbor),是机器学习中非常重要的一个算法,but它简单得一塌糊涂,其核心思想就是样本的类别由距离其最近的K个邻居投票来决定。现在假设我们已经有一个已经标记好的数据集,也就是说我们已经知道了数据集中每个样本所属于的类别。这个时候我们拥有一个未标记的数据样本,我们的任务是预测出来这个数据样本所属于的类别。显然邻近算法是属于监督学习(Supervised Learning)的一种,它的原理是计算这个待标记的数据样本和数据集中每个样本的距离,取其距离最近的k个样本,那么待标记的数据样本所属于的类别,就由这距离最近的k个样本投票产生。在这个过程中,有一个动作是标记数据集,这一点在企业中一般是有专门人来负责标记数据的。
马一特
2020/10/09
9420
数据分析与数据挖掘 - 09邻近算法
实验一:鸢尾花数据集分类「建议收藏」
利用机器学习算法构建模型,根据鸢尾花的花萼和花瓣大小,区分鸢尾花的品种。实现一个基础的三分类问题。
全栈程序员站长
2022/08/02
7.8K0
实验一:鸢尾花数据集分类「建议收藏」
机器学习测试笔记(10)——K邻近算法
我们谈起机器学习经常会听到监督学习和非监督学习,它们的区别在哪里呢?监督学习是有标签的,而非监督学习是没有标签的。比如有一批酒,我们知道里面包括红酒和白酒,算法f可以用于鉴别某一个酒是否为红酒和白酒,这时候算法f就称作为监督学习,红酒、白酒即为标签。如果现在另有一批酒,我们知道里面包括不同品种的酒,但是不知道有几类,算法g可以把相同类别的酒归为一类,不同类别的酒归为不同的类(比如:红酒、白酒、啤酒、米酒…), 算法g就称作为非监督学习。在监督学习中我们称作“分类”,在非监督学习中我们称作“聚类”。本文提到的K邻近算法属于监督学习内的“分类”算法。
顾翔
2021/01/04
6170
机器学习测试笔记(10)——K邻近算法
快速入门Python机器学习(九)
所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是上面所说的K个邻居), 这K个实例的多数属于某个类,就把该输入实例分类到这个类中。
顾翔
2022/09/23
2380
快速入门Python机器学习(九)
数据挖掘十大算法之 k-NN
k-NN (k-nearest neighbor) 由 Cover 和 Hart 于 1968 年提出,属于机器学习算法中的监督学习算法,可以用来解决分类和回归问题。
mr.songw
2021/01/22
1.3K0
数据挖掘十大算法之 k-NN
机器学习入门(五):KNN概述 | K 近邻算法 API,K值选择问题
K近邻(K-Nearest Neighbors, KNN)算法作为一种基础且广泛应用的机器学习技术,其API的重要性不言而喻。它提供了快速、直接的方式来执行基于实例的学习,通过查找与待分类样本最邻近的K个样本,并基于这些邻近样本的类别来预测新样本的类别。KNN API的标准化和易用性,使得数据分析师和开发者能够轻松集成该算法到他们的项目中,无需深入算法细节,即可享受其强大的分类与回归能力。此外,KNN API通常还包含参数调整功能,如K值选择、距离度量方法等,使得用户可以根据具体需求优化算法性能,进一步凸显了其在机器学习实践中的不可或缺性。
小言从不摸鱼
2024/09/10
3110
机器学习入门(五):KNN概述 | K 近邻算法 API,K值选择问题
分类算法 -- KNN算法 (理论与python实现)
KNN(K-Nearest Neighbor)是一个分类算法,属于有监督学习。 KNN思想的核心在于:近朱者赤,近墨者黑,根据新样本的k个最近邻居来判定其类别。
用户7886150
2020/12/27
1.2K0
鸢尾花数据集knn算法可视化(在R中找到鸢尾花数据)
kNN(K Nearest Neighbor)算法是机器学习中最基础入门,也是最常用的算法之一,可以解决大多数分类与回归问题。这里以鸢尾花数据集为例,讨论分类问题中的 kNN 的思想。
全栈程序员站长
2022/07/28
2K0
鸢尾花数据集knn算法可视化(在R中找到鸢尾花数据)
KNN算法原理及应用
(5)最后,使用预测模型对这些待测的特征向量进行预测并得到结果(Expected Model)。
@小森
2024/03/15
3080
KNN算法原理及应用
分类算法-K-近邻算法
如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别,即由你的“邻居”来推断出你的类别
后端码匠
2021/08/18
7220
分类算法-K-近邻算法
k最近邻kNN算法入门
k最近邻(kNN)算法是机器学习中最简单、最易于理解的分类算法之一。它基于实例之间的距离度量来进行分类,并且没有显式的训练过程。本文将介绍k最近邻算法的基本原理和使用方法,并通过一个示例来说明其应用过程。
大盘鸡拌面
2023/10/30
3680
K 近邻算法
鸢尾花Iris Dataset数据集是机器学习领域经典数据集,鸢尾花数据集包含了150条鸢尾花信息,每50条取自三个鸢尾花中之一:Versicolour、Setosa和Virginica。
@小森
2024/03/15
1540
K 近邻算法
Python数据挖掘算法入门与实践
数据挖掘是一个通过对大量数据进行清理和处理,以发现其中隐藏的信息和模式的过程。简单来说,它是从大量数据中提取或“挖掘”知识的过程,也称为知识发现。
算法进阶
2024/02/17
1.1K0
Python数据挖掘算法入门与实践
机器学习之KNN最邻近分类算法[通俗易懂]
KNN(K-Nearest Neighbor)最邻近分类算法是数据挖掘分类(classification)技术中最简单的算法之一,其指导思想是”近朱者赤,近墨者黑“,即由你的邻居来推断出你的类别。
全栈程序员站长
2022/08/10
1.3K0
机器学习之KNN最邻近分类算法[通俗易懂]
鸢尾花(Iris)数据集入门
鸢尾花(Iris)数据集是机器学习领域中最经典的数据集之一。它由三种不同品种的鸢尾花的测量数据组成:山鸢尾(setosa)、变色鸢尾(versicolor)和维吉尼亚鸢尾(virginica)。 在这篇文章中,我们将使用Markdown代码格式详细介绍鸢尾花数据集的基本信息以及如何加载和探索这个数据集。
大盘鸡拌面
2023/10/20
2.8K0
K近邻算法实现分类案例
通过上述代码对数据的查验以及数据本身的描述,了解到Iris数据集共有150朵鸢尾数据样本,并且均匀分布在3个不同的亚种;每个数据样本被4个不同的花瓣、花萼的形状特征所描述。
用户3577892
2020/06/11
6950
Python机器学习之旅|手把手带你探索IRIS数据集
大家好,关于数据挖掘或者机器学习的理论我想大家应该都已经了解很多,而数据挖掘的工具例如Pandas、NumPy、Sklearn等在历史文章都有所介绍,因此今天我们将开始第二个案例实战也是使用非常多的IRIS数据集:根据花瓣和花萼的长宽预测鸢尾花的种类。
刘早起
2020/05/12
6210
分类-KNN算法(代码复现和可视化)
K近邻(K Nearest Neighbors,KNN)算法是最简单的分类算法之一,也就是根据现有训练数据判断输入样本是属于哪一个类别。
唔仄lo咚锵
2022/10/04
9360
分类-KNN算法(代码复现和可视化)
深入浅出KNN算法(二) sklearn
上次介绍了KNN的基本原理,以及KNN的几个窍门,这次就来用sklearn实践一下KNN算法。
py3study
2020/01/16
1.9K0
深入浅出KNN算法(二) sklearn
推荐阅读
相关推荐
使用knn算法对鸢尾花数据集进行分类(数据挖掘apriori算法)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档