首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >ChatPDF:解读量化投资论文我可以!

ChatPDF:解读量化投资论文我可以!

作者头像
量化投资与机器学习微信公众号
发布于 2023-04-20 02:57:49
发布于 2023-04-20 02:57:49
1K0
举报

AI不会淘汰人

但AI会淘汰不会用AI的人

——某名言

重点在文末!!!

前言

本文主要讲了一种基于深度学习的股票投资组合构建和收益率预测方法。具体来说,本文提出了一种新方法来提取股票收益率与市场因素之间的残差部分(Residual Factors),并利用这些信息来构建投资组合和预测股票收益率的分布信息。同时,本文还提出了一种新的神经网络结构,可以将金融市场中常见的不变性特征(如幅度不变性和时间尺度不变性)纳入模型中进行预测。通过实验验证,我们发现所提出的方法在投资组合构建和收益率预测方面表现更好,并且每个技术要素都对提高交易策略性能有贡献。因此,我们认为这些技术可能在各种金融问题中具有广泛应用价值。

那么接下来我们当然关心这种提取股票收益与市场因素之间残差的新方法是是什么?以及这个新的神经网络结构是什么?

在本文中,我们提出了一种新的方法来提取金融市场中股票收益率与公共市场因素之间的残差信息,这种方法被称为“谱残差”(spectral residual)。具体来说,我们使用小波变换将原始时间序列分解为多个子频带,并对每个子频带应用一个低通滤波器,以去除高频噪声。接下来,我们将所有子频带合并起来,并通过逆小波变换重构原始时间序列。最后,我们可以通过减去重构的时间序列和原始时间序列得到残差因子。这种方法利用了小波变换的频域表示,并且可以看作是一种基于谱分析的因子模型。也就是下图的第一个部分。

谱残差

在文章的3.1节详细介绍了如何通过“谱残差”提取残差因子,具体来说,给定一个正整数C(小于S),我们将原始收益向量r投影到由具有最小S-C个特征值的主要投资组合所张成的空间中,得到一个向量 ~r。这个向量 ~r 就是谱残差。也就是说普残差就是对收益率协方差矩阵进行PCA分解后取最后S-C个特征值。

在本文中,谱残差(spectral residual)和因子模型(factor model)都是用于提取金融市场中股票收益率的残差信息的方法。具体来说,因子模型使用线性回归等技术来估计股票收益率中与公共市场因素相关的部分,并将其作为因子。而谱残差则利用小波变换将原始时间序列分解为多个子频带,并对每个子频带应用一个低通滤波器,以去除高频噪声,从而提取残差信息。

分布预测与组合构建

分布预测(Distributional Prediction)是指在深度学习模型中,通过预测目标变量的概率分布来进行预测,而不是仅仅预测一个点估计值。在金融市场中,股票价格的变化通常具有一定的随机性和不确定性,因此使用Distributional Prediction可以更好地反映这种不确定性,并提高模型的鲁棒性和泛化能力。在本文中,我们使用Distributional Prediction来预测股票收益率的分布信息,并利用现代投资组合理论提供的最优投资组合标准来构建投资组合。

我们介绍了一种新的投资组合构建方法,该方法基于谱残差(spectral residual)和条件分位数回归(quantile regression)。具体来说,我们首先使用谱残差方法从原始时间序列数据中提取出残差因子。然后,我们使用条件分位数回归方法来估计这些残差因子在不同分位数处的取值,并将它们用于构建投资组合。首先,我们将原始时间序列数据表示为一个矩阵X,其中每一行表示一个时间点的特征向量。然后,我们使用谱残差方法对矩阵X进行变换,得到一个新的矩阵Y。在Y中,每一行表示一个时间点的残差因子。接下来,我们使用条件分位数回归方法来估计Y在不同分位数处的取值。具体来说,我们训练一个函数f(q,x)(这是一个深度神经网络),该函数可以预测给定特征向量x时Y在分位数q处的取值。通过预测多个分位数处的取值,并将它们转换为对应的均值和方差估计值,我们可以得到一个完整的投资组合。

假设我们通过深度学习预测了残差因子的分位数 ,那么可以通过以下等式求的 的均值和方差。

\begin{gathered} \hat{\mu}_t:=\hat{\mu}\left(\tilde{\boldsymbol{y}}_t\right)=\frac{1}{Q-1} \sum_{j=1}^{Q-1} \tilde{y}_t^{(j)} \\ \hat{\sigma}_t:=\hat{\sigma}\left(\tilde{\boldsymbol{y}}_t\right)=\frac{1}{Q-1} \sum\left(\tilde{y}_t^{(j)}-\hat{\mu}_t\right)^2 \end{gathered}

通过以上预测的均值和方差,再结合Mean-Variance-Optimization的传统现代投资组合理论进行组合优化,确定最优权重。

深度神经网络的结构

在本文中,我们提出了一种新的深度学习神经网络结构,称为分形网络(fractal networks)。这种网络结构可以有效地利用时间序列数据中的自相似性,并且可以减少需要训练的参数数量。

具体来说,分形网络由多个分形块组成。每个分形块包含多个子序列,每个子序列具有不同的时间分辨率。在每个分形块中,我们使用相同的操作来处理所有子序列。然后,我们将所有子序列的结果合并起来,并将其作为下一个分形块的输入。

在本文中,我们使用了两种不同类型的分形块:卷积型和循环型。卷积型分形块包含多个卷积层和池化层,用于处理静态时间序列数据。循环型分形块包含多个循环神经网络层和注意力机制层,用于处理动态时间序列数据。

通过使用这种分形网络结构,在保持模型复杂度不变的情况下,我们可以显著提高模型的性能。具体来说,在本文中,我们在美国和日本股票市场数据上进行了实验,并证明了我们提出的方法相对于其他常用方法可以显著提高投资组合收益率和风险控制能力。

实证结果

在本文中,我们进行了一系列实验来评估我们提出的方法在真实市场数据上的有效性。具体来说,我们使用了美国和日本股票市场的数据集,并对我们的方法进行了多个实验。

在第4.2节中,我们首先测试了谱残差的有效性。通过将谱残差与其他常用方法进行比较,我们证明了谱残差可以更准确地捕捉到时间序列中的周期性模式。

在第4.3节中,我们评估了我们提出的系统在美国股票市场数据上的表现。通过与其他基准方法进行比较,包括传统投资组合理论和现代深度学习方法,我们证明了我们提出的方法可以显著提高投资组合的收益率和风险控制能力。在传统投资组合理论方面,我们使用了马科维茨均值方差模型(Markowitz Mean-Variance Model)和最小方差模型(Minimum Variance Model)作为基准方法。在现代深度学习方法方面,我们使用了长短期记忆网络(Long Short-Term Memory Network)和卷积神经网络(Convolutional Neural Network)作为基准方法。

通过与这些基准方法进行比较,我们证明了我们提出的方法可以显著提高投资组合的收益率和风险控制能力。具体来说,在美国股票市场数据上,我们的方法相对于马科维茨均值方差模型可以提高约20%的收益率,并且相对于最小方差模型可以降低约30%的风险;相对于长短期记忆网络和卷积神经网络,我们的方法可以分别提高约10%和15%的收益率,并且相对于这些深度学习模型可以降低约20%至30%的风险。

最后,在附录E中,我们还提供了日本股票市场数据上完整的实验结果。这些结果与美国股票市场数据上的结果相似,并进一步证明了我们提出的方法在不同市场上都具有广泛适用性。

以上内容均有ChatPDF生成

基于本次使用,有以下体会:

1、使用ChatPDF前还是需要对论文的整体结构有一个把握,ChatPDF给出的总结比较宽泛,并不能帮助你非常深入的了解文章内容。

2、ChatPDF可以作为一个随时交流的助教,学习中有任何问题可以随时问它,特别是对于论文中涉及有没有详细说明的知识点。

例如:

3、可以使用ChatPDF推荐相关领域其他的论文,并挑选引用更高更有参考价值的论文。

例如:

如果同样的问题问ChatGPT,我们看到显然没有ChatPDF丰富完善,可见,对于论文研究的场景ChatPDF更适合。

关于ChatPDF的使用

so seay!

用户只需上传一个PDF,便可以开始向它提问了。

它就像ChatGPT一样,但是,聊天的内容不仅限于用户上传的研究论文,可以拓展到论文以外的内容!

www.chatpdf.com

▪ 点左侧 Browse My Computer 从本地电脑中上传。

▪ 点右侧 From URL Find a PDF 从网络上复制一个文章的网址。

之后,ChatPDF会为用户准备一份有关这篇文章的简短摘要。它还会给你提供如何表述问题的例子。

接下来大家就可以开始,围绕着这篇PDF文件,继续向ChatPDF提问题。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-04-03,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量化投资与机器学习 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
一秒十图!英伟达MIT联手刷新SOTA,一步扩散解锁实时高质量可控图像生成
扩散生成模型通常需要50-100次迭代去噪步骤,效率很低,时间步蒸馏技术可以极大提高推理效率,「基于分布的蒸馏」方法,如生成对抗网络GAN及其变分分数蒸馏VSD变体,以及「基于轨迹的蒸馏方法」(如直接蒸馏、渐进蒸馏、一致性模型)可以实现10-100倍的图像生成加速效果。
新智元
2025/04/01
1570
一秒十图!英伟达MIT联手刷新SOTA,一步扩散解锁实时高质量可控图像生成
rebuttal真的有用!这篇ICLR论文,所有审稿人都加了2分,直接跃升排名第9
最近,正处于评议阶段的 ICLR 2025 论文真是看点连连,比如前些天爆出的 ICLR 低分论文作者硬刚审稿人的事件以及今天我们要介绍的这个通过 rebuttal(反驳)硬是将自己的平均分拉高 2 分,直接晋升第 9 名的论文。
机器之心
2025/02/14
1310
rebuttal真的有用!这篇ICLR论文,所有审稿人都加了2分,直接跃升排名第9
终于等来能塞进手机的文生图模型!十分之一体量,SnapGen实现百分百的效果
本文的共同一作为墨尔本大学的胡冬庭和香港科技大学的陈捷润和黄悉偈,完成于在 Snap 研究院 Creative Vision 团队实习期间。主要指导老师为任健、徐炎武和 Anil Kag,他们均来自 Snap Creative Vision 团队。该团队的主要研究方向包括 Efficient AI 和图像/视频/三维生成模型。
机器之心
2025/02/15
1660
终于等来能塞进手机的文生图模型!十分之一体量,SnapGen实现百分百的效果
开源版MetaQuery来了!OpenUni用1.1B参数媲美BLIP3-o-8B,数据代码完全开源
随着 GPT-4o 展现出令人印象深刻的多模态能力,将视觉理解和图像生成统一到单一模型中已成为 AI 领域的研究趋势(如MetaQuery 和 BLIP3-o )。
机器之心
2025/06/23
1810
开源版MetaQuery来了!OpenUni用1.1B参数媲美BLIP3-o-8B,数据代码完全开源
85倍速度碾压:苹果开源FastVLM,能在iphone直接运行的视觉语言模型
当你用苹果手机随手拍图问 AI:「这是什么?」,背后的 FastVLM 模型正在默默解码。
机器之心
2025/05/17
3400
85倍速度碾压:苹果开源FastVLM,能在iphone直接运行的视觉语言模型
基于DiT,支持4K图像生成,华为诺亚0.6B文生图模型PixArt-Σ来了
众所周知,开发顶级的文生图(T2I)模型需要大量资源,因此资源有限的个人研究者基本都不可能承担得起,这也成为了 AIGC(人工智能内容生成)社区创新的一大阻碍。同时随着时间的推移,AIGC 社区又能获得持续更新的、更高质量的数据集和更先进的算法。
机器之心
2024/03/18
3120
基于DiT,支持4K图像生成,华为诺亚0.6B文生图模型PixArt-Σ来了
拳打开源SOTA脚踢商业闭源的LI-DiT是怎样炼成的?(商汤/MMLab/上海AI Lab)
仅基于解码器的 Transformer 的大语言模型(LLMs)与 CLIP 和 T5 系列模型相比,已经展示出卓越的文本理解能力。然而,在文本到图像扩散模型中利用当前先进的大语言模型的范例仍有待探索。本文观察到一个不寻常的现象:直接使用大语言模型作为提示编码器会显著降低图像生成中遵循提示的能力。本文发现了这个问题背后的两个主要障碍:一个是大语言模型中下一token预测训练与扩散模型中对有区别性的提示特征的要求之间的不一致;另一个是仅解码器架构引入的内在位置偏差。为了解决这个问题,本文提出了一个新颖的框架来充分利用大语言模型的能力。通过精心设计的使用指南,有效地增强了用于提示编码的文本表示能力,并消除了其内在的位置偏差。这使得能够灵活地将最先进的大语言模型集成到文本到图像生成模型中。
AIWalker
2024/06/26
2960
拳打开源SOTA脚踢商业闭源的LI-DiT是怎样炼成的?(商汤/MMLab/上海AI Lab)
视觉语言模型导论:这篇论文能成为你进军VLM的第一步
近些年,语言建模领域进展非凡。Llama 或 ChatGPT 等许多大型语言模型(LLM)有能力解决多种不同的任务,它们也正在成为越来越常用的工具。
机器之心
2024/06/17
1K0
视觉语言模型导论:这篇论文能成为你进军VLM的第一步
英伟达开源福利:视频生成、机器人都能用的SOTA tokenizer
在讨论图像、视频生成模型时,人们的焦点更多地集中在模型所采用的架构,比如大名鼎鼎的 DiT。但其实,tokenizer 也是非常重要的组件。
机器之心
2025/02/14
2270
英伟达开源福利:视频生成、机器人都能用的SOTA tokenizer
腾讯混元、英伟达都发混合架构模型,Mamba-Transformer要崛起吗?
在众多非 Transformer 架构中,Mamba 无疑是声量较大且后续发展较好的一个。然而,与最初发布时那种仿佛「水火不容」的局面不同,最近一段时间,这两种架构似乎正在走向融合。
机器之心
2025/03/27
1890
腾讯混元、英伟达都发混合架构模型,Mamba-Transformer要崛起吗?
2024年5月计算机视觉论文推荐:包括扩散模型、视觉语言模型、图像编辑和生成、视频处理和生成以及图像识别等各个主题
我们今天总结下2024年5月发表的最重要的论文,重点介绍了计算机视觉领域的最新研究和进展,包括扩散模型、视觉语言模型、图像编辑和生成、视频处理和生成以及图像识别等各个主题。
deephub
2024/06/03
4700
2024年5月计算机视觉论文推荐:包括扩散模型、视觉语言模型、图像编辑和生成、视频处理和生成以及图像识别等各个主题
统一自监督预训练!视觉模型权重无缝迁移下游任务,SiT收敛提速近47倍
为了解决这些问题,来自高德地图的研究者提出了统一自监督预训练(USP, Unified Self-Supervised Pretraining),该方法通过在变分自编码器(VAE)的潜在空间中进行潜在掩码建模(Masked Latent Modeling)预训练,预训练得到的 ViT 编码器等权重可以无缝迁移到下游任务,包括图像分类、语义分割以及基于扩散模型的图像生成。
机器之心
2025/03/17
1510
统一自监督预训练!视觉模型权重无缝迁移下游任务,SiT收敛提速近47倍
骁龙888实时运行,美团、浙大等打造全流程移动端多模态大模型MobileVLM
MobileVLM 是一款专为移动设备设计的快速、强大和开放的视觉语言助手。它结合了面向移动设备的架构设计和技术,包括从头开始训练的 1.4B 和 2.7B 参数的语言模型、以 CLIP 方式预训练的多模态视觉模型,以及通过投影实现的高效跨模态交互。在各种视觉语言基准测试中,MobileVLM 的性能可媲美大型模型。此外,它还在高通骁龙 888 CPU 和英伟达 Jeston Orin GPU 上展示了最快的推理速度。
机器之心
2024/01/04
4920
骁龙888实时运行,美团、浙大等打造全流程移动端多模态大模型MobileVLM
每周AI论文速递(241202-241206)
尽管视觉-语言-动作 (VLA) 模型在多种机器人任务中取得了进展,但其泛化能力受限,主要因完全依赖成功轨迹的行为克隆。此外,这些模型常针对不同设置下的专家演示进行微调,导致分布偏差,限制了其对多样化操作目标(如效率、安全性和任务完成度)的适应性。为此,我们提出 GRAPE: 通过偏好对齐泛化机器人策略。具体来说,GRAPE 在轨迹层面对齐 VLA,并从成功与失败试验中隐式建模奖励,以提升对多样化任务的泛化能力。同时,GRAPE 将复杂任务分解为独立阶段,并通过大型视觉-语言模型提出的关键点,利用定制时空约束自动引导偏好建模。这些约束灵活,可根据不同目标(如安全性、效率或任务成功)进行定制。我们在真实与模拟环境中广泛评估 GRAPE。实验显示,GRAPE 显著提升最先进 VLA 模型的性能,领域内与未见任务的成功率分别提高 51.79% 和 60.36%。此外,GRAPE 可与多种目标对齐,如安全性与效率,分别降低碰撞率 44.31% 和轨迹步长 11.15%。所有代码、模型及数据均可在 https://grape-vla.github.io/ 获取。
叶子的技术碎碎念
2025/04/08
1230
每周AI论文速递(241202-241206)
每周AI论文速递(240729-240802)
https://github.com/careywyr/AI-Weekly-Paper
叶子的技术碎碎念
2025/04/08
1060
每周AI论文速递(240729-240802)
英伟达市值蒸发近6000亿美元,而DeepSeek刚刚又开源新模型
龙年即将结束,但有些股民可能无心过春节了。受低成本推理模型 DeepSeek-R1 热潮影响,美股昨日开盘后迎来重挫。
机器之心
2025/02/03
1910
英伟达市值蒸发近6000亿美元,而DeepSeek刚刚又开源新模型
英伟达 & MIT 提出 LongVILA ,从 8 帧到 1024 帧 如何实现长视频理解的飞跃 ?
将多个模态理解的集成与长序列能力的集成非常重要。支持更多模态的基础模型可以接受更灵活的输入信号,使人们可以以更多样化的方式与模型进行交互,例如类似 GPT-40 式的多模态聊天机器人,多模态网页代理(Koh 等人,2024年)和现实世界机器人基础模型(Brohan 等人,2022年、2023年;Padalkar 等人,2023年)。更长的上下文允许模型处理更多信息,例如更长的文档,仓库 Level 的代码库和小时的视频,这同样提供了现实世界应用所要求的功能。
AIGC 先锋科技
2024/08/27
7050
英伟达 & MIT 提出 LongVILA ,从 8 帧到 1024 帧 如何实现长视频理解的飞跃 ?
告别Transformer!北大、北邮、华为开源纯卷积DiC:3x3卷积实现SOTA性能,比DiT快5倍!
当整个 AI 视觉生成领域都在 Transformer 架构上「卷生卷死」时,一项来自北大、北邮和华为的最新研究却反其道而行之,重新审视了深度学习中最基础、最经典的模块——3x3 卷积。
机器之心
2025/07/12
1930
告别Transformer!北大、北邮、华为开源纯卷积DiC:3x3卷积实现SOTA性能,比DiT快5倍!
每周AI论文速递(250407-250411)
虽然大型视觉语言模型 (VLMs) 具备卓越性能,但其计算资源需求过高,限制了这类模型在移动和边缘设备上的部署。传统小型 VLMs 通常沿用大型模型的设计方案(例如复杂的图像 Token 化处理),导致 GPU 内存利用率低下,难以满足终端设备的实际应用需求。
叶子的技术碎碎念
2025/04/13
1770
每周AI论文速递(250407-250411)
一句话一张图秒变3D动画,4K级超清画质!英伟达祭出新作,游戏生成世界成真
不满足于只是自己在纸上照着自己的想法去写写画画,但是又没精力去学习专业的3D建模技能,怎么破?
新智元
2025/02/15
2360
一句话一张图秒变3D动画,4K级超清画质!英伟达祭出新作,游戏生成世界成真
推荐阅读
一秒十图!英伟达MIT联手刷新SOTA,一步扩散解锁实时高质量可控图像生成
1570
rebuttal真的有用!这篇ICLR论文,所有审稿人都加了2分,直接跃升排名第9
1310
终于等来能塞进手机的文生图模型!十分之一体量,SnapGen实现百分百的效果
1660
开源版MetaQuery来了!OpenUni用1.1B参数媲美BLIP3-o-8B,数据代码完全开源
1810
85倍速度碾压:苹果开源FastVLM,能在iphone直接运行的视觉语言模型
3400
基于DiT,支持4K图像生成,华为诺亚0.6B文生图模型PixArt-Σ来了
3120
拳打开源SOTA脚踢商业闭源的LI-DiT是怎样炼成的?(商汤/MMLab/上海AI Lab)
2960
视觉语言模型导论:这篇论文能成为你进军VLM的第一步
1K0
英伟达开源福利:视频生成、机器人都能用的SOTA tokenizer
2270
腾讯混元、英伟达都发混合架构模型,Mamba-Transformer要崛起吗?
1890
2024年5月计算机视觉论文推荐:包括扩散模型、视觉语言模型、图像编辑和生成、视频处理和生成以及图像识别等各个主题
4700
统一自监督预训练!视觉模型权重无缝迁移下游任务,SiT收敛提速近47倍
1510
骁龙888实时运行,美团、浙大等打造全流程移动端多模态大模型MobileVLM
4920
每周AI论文速递(241202-241206)
1230
每周AI论文速递(240729-240802)
1060
英伟达市值蒸发近6000亿美元,而DeepSeek刚刚又开源新模型
1910
英伟达 & MIT 提出 LongVILA ,从 8 帧到 1024 帧 如何实现长视频理解的飞跃 ?
7050
告别Transformer!北大、北邮、华为开源纯卷积DiC:3x3卷积实现SOTA性能,比DiT快5倍!
1930
每周AI论文速递(250407-250411)
1770
一句话一张图秒变3D动画,4K级超清画质!英伟达祭出新作,游戏生成世界成真
2360
相关推荐
一秒十图!英伟达MIT联手刷新SOTA,一步扩散解锁实时高质量可控图像生成
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档