首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >告别2019:属于深度学习的十年,那些我们必须知道的经典

告别2019:属于深度学习的十年,那些我们必须知道的经典

作者头像
Datawhale
发布于 2020-02-11 14:30:17
发布于 2020-02-11 14:30:17
8690
举报
文章被收录于专栏:Datawhale专栏Datawhale专栏

当今天的太阳升起时,我们正式告别了上一个十年。

在这十年中,伴随着计算能力和大数据方面的发展,深度学习已经攻克了许多曾经让我们感到棘手的问题,尤其是计算机视觉自然语言处理方面。此外,深度学习技术也越来越多地走进我们的生活,变得无处不在。

这篇文章总结了过去十年中在深度学习领域具有影响力的论文,从 ReLU、AlexNet、GAN 到 Transformer、BERT 等。每一年还有很多荣誉提名,包括了众多名声在外的研究成果。

2011 年:激活函数 ReLU

《Deep Sparse Rectifier Neural Networks(ReLU)》

论文链接:http://proceedings.mlr.press/v15/glorot11a/glorot11a.pdf(被引用量 4071)

早期的神经网络大多使用 sigmoid 激活函数。虽然它具有很好的效果,但是,随着层数的增加,这种激活函数使得梯度很容易出现衰减。在 2011 年的这篇论文中,ReLU 被正式提出。它能够帮助解决梯度消失的问题,为神经网络增加深度铺路。

Sigmoid 及其导数。

当然,ReLU 也有一些缺点。在函数为 0 的时候不可微,而神经元可能会「死亡」。在 2011 年之后,很多针对 ReLU 的改进也被提了出来。

年度荣誉提名:(这一年的大部分研究集中于对激活函数的改进)

1、《Rectifier Nonlinearities Improve Neural Network Acoustic Models(Leaky ReLU)》

基于对 ReLU 进行了改进的激活函数,在 x 为负时不取 0。

论文链接:https://ai.stanford.edu/~amaas/papers/relu_hybrid_icml2013_final.pdf

2、《Fast and Accurate Deep Network Learning by Exponential Linear Units (ELUs)》

论文链接:https://arxiv.org/abs/1511.07289

3、《Self-Normalizing Neural Networks(SELUs)》

论文链接:https://arxiv.org/abs/1706.02515

4、《Gaussian Error Linear Units (GELUs)》

这一激活函数已证明比 ReLU 效果更好,BERT 等模型已使用。

论文链接:https://arxiv.org/abs/1606.08415

2012 年:掀起深度学习浪潮的 AlexNet

《ImageNet Classification with Deep Convolutional Neural Networks(AlexNet)》

论文链接:https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks(被引用量 52025)

AlexNet 架构。

AlexNet 经常被认为是这一波人工智能浪潮的起点,该网络在 ImageNet 挑战赛中的错误率与前一届冠军相比减小了 10% 以上,比亚军高出 10.8 个百分点。AlexNet 是由多伦多大学 SuperVision 组设计的,由 Alex Krizhevsky, Geoffrey Hinton 和 Ilya Sutskever 组成。

AlexNet 是一个 8 层的卷积神经网络,使用 ReLU 激活函数,总共有 6 千万参数量。AlexNet 的最大贡献在于证明了深度学习的能力。它也是第一个使用并行计算和 GPU 进行加速的网络。

在 ImageNet 上,AlexNet 取得了很好的表现。它将识别错误率从 26.2% 降到了 15.3%。显著的性能提升吸引了业界关注深度学习,使得 AlexNet 成为了现在这一领域引用最多的论文。

年度荣誉提名:

1、《ImageNet: A Large-Scale Hierarchical Image Database(ImageNet)》

ImageNet 是斯坦福大学李飞飞等人完成的一个用于图像识别的数据集,是计算机视觉领域检验模型性能的基准数据集。

论文链接:http://www.image-net.org/papers/imagenet_cvpr09.pdf

ImageNet

2、《Flexible, High Performance Convolutional Neural Networks for Image Classification(Jurgen Schmidhuber 为通讯作者)》

论文链接:http://people.idsia.ch/~juergen/ijcai2011.pdf

3、《Gradient-Based Learning Applied to Document Recognition》

论文链接:http://vision.stanford.edu/cs598_spring07/papers/Lecun98.pdf

2013 年:NLP 的经典 word2vec;开启深度强化学习时代

《Distributed Representations of Words and Phrases and their Compositionality(word2vec)》

论文链接:https://papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf(被引用量 16923)

Word2vec 是由谷歌研究团队里 Thomas Mikolov 等人提出的模型,该模型能从非常大的数据集中计算出用以表示词的连续型向量。word2vec 成为了 NLP 领域的深度学习主要的文本编码方式。它基于在相同语境中同时出现词具有相似含义的思路,使文本可以被嵌入为向量,并用于其他下游任务。

年度荣誉提名:

1、《GloVe: Global Vectors for Word Representation》

论文链接:https://nlp.stanford.edu/pubs/glove.pdf

2、《Playing Atari with Deep Reinforcement Learning》

论文链接:https://www.cs.toronto.edu/~vmnih/docs/dqn.pdf(被引用量 3251)

DeepMind 的 DQN 模型玩雅达利游戏

DeepMind 在这一年提出的用 DQN 玩雅达利游戏开启了深度强化学习研究的大门。强化学习过去大多数情况下用在低维环境中,很难在更复杂的环境中使用。雅达利游戏是第一个强化学习在高维环境中的应用。这一研究提出了 Deep Q-learning 算法,使用了一个基于价值的奖励函数。

年度荣誉提名:

1、《Learning from Delayed Rewards(Q-Learning)》

论文链接:http://www.cs.rhul.ac.uk/~chrisw/new_thesis.pdf

2014 年:GAN;Adam;Attention 机制

《Generative Adversarial Networks》

论文链接:https://papers.nips.cc/paper/5423-generative-adversarial-nets(被引用量 13917)

生成对抗网络(Generative Adversarial Network,简称 GAN)是 Ian Goodefellow 等人提出的非监督式学习方法,通过让两个神经网络相互博弈的方式进行学习。自 2014 年 GAN 网络提出以来,其在 Computer Vision(计算机视觉)等领域获得了广泛的关注

生成对抗网络(GAN)的成功在于它能够生成逼真图片。这一网络通过使用生成器和判别器之间的最小最大(minimax)博弈,GAN 能够建模高纬度、复杂的数据分布。在 GAN 中,生成器用于生成假的样本,而判别器进行判断(是否为生成数据)。

年度荣誉提名:

1、《Wasserstein GAN & Improved Training of Wasserstein GANs(WGAN)》

WGAN 是 GAN 的改进版本,取得了更好的效果。

论文链接:https://arxiv.org/abs/1701.07875

2、《StyleGAN》

StyleGAN 生成的图像

论文链接:https://arxiv.org/abs/1812.04948

3、《Neural Machine Translation by Jointly Learning to Align and Translate(attention 机制)》

论文链接:https://arxiv.org/abs/1409.0473(被引用量 9882)

注意力的可视化结果

这篇论文介绍了注意力机制的思路。与其将所有信息压缩到一个 RNN 的隐层中,不如将整个语境保存在内存中。这使得所有的输出都能和输入对应。除了在机器翻译中使用外,attention 机制还被用于 GAN 等模型中。

《Adam: A Method for Stochastic Optimization》

论文链接:https://arxiv.org/abs/1412.6980(被引用量 34082)

Adam 由于其易微调的特性而被广泛使用。它基于对每个参数的不同学习率进行适应这种思想。虽然近来有对 Adam 性能提出质疑的论文出现,但它依然是深度学习中最受欢迎的目标函数优化器。

年度荣誉提名:

1、《Decoupled Weight Decay Regularization》

论文地址:https://arxiv.org/abs/1711.05101

2、《RMSProp》

和 Adam 一样出名的目标函数优化器。

论文地址 https://www.cs.toronto.edu/~tijmen/csc321/slides/lecture_slides_lec6.pdf*

2015:超越人类的 ResNet;神奇的批归一化

《Deep Residual Learning for Image Recognition》

论文链接:https://arxiv.org/abs/1512.03385(被引用量 34635)

Residual Block 结构。

大名鼎鼎的 ResNet,从 ResNet 开始,神经网络在视觉分类任务上的性能第一次超越了人类。这一方法赢得了 ImageNet 2015、以及 COCO 竞赛的冠军,也获得了 CVPR2016 的最佳论文奖:该研究的作者是何恺明、张祥雨、任少卿和孙剑。

最初 ResNet 的设计是用来处理深层 CNN 结构中梯度消失和梯度爆炸的问题,如今 Residual Block 已经成为了几乎所有 CNN 结构中的基本构造。

这个想法很简单:将输入(input)从卷积层的每个块添加到输出(output)。残差网络之后的启示是,神经网络不应分解为更多的层数,在最不理想的情况下,其他层可以简单设置为恒等映射(identity mapping)。但在实际情况中,更深层的网络常常在训练上遇到困难。残差网络让每一层更容易学习恒等映射,并且还减少了梯度消失的问题。

尽管并不复杂,但残差网络很大程度上优于常规的 CNN 架构,尤其在应用于更深层的网络上时。

几种 CNN 之间的对比。

众多 CNN 架构都在争夺「头把交椅」,以下是一部分具有代表意义的样本:

Inceptionv1 结构。

年度荣誉提名:

1、《Going Deeper with Convolutions》

论文链接: https://arxiv.org/abs/1409.4842

2、《Very Deep Convolutional Networks for Large-Scale Image Recognition》

论文链接: https://arxiv.org/abs/1409.1556

3、《Neural Ordinary Differential Equations》

论文链接: https://arxiv.org/abs/1806.07366(NIPS 2018 最佳论文奖)

《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift(批归一化)》

论文链接:https://arxiv.org/abs/1502.03167(14384 次引用)

批归一化(Batch normalization)是如今几乎所有神经网络的主流趋势。批归一基于另外一个简单但是很棒的想法:在训练过程中保持均值和方差统计,借此将 activation 的范围变换为零均值和单位方差。

关于批归一化效果的确切原因还未有定论,但从实践上说确实有效的。

年度荣誉提名:

不同归一化技术的可视化呈现。

1、《层归一化(Layer Normalization)》

论文链接:https://arxiv.org/abs/1607.06450

2、《实例归一化(Instance Normalization)》

论文链接:https://arxiv.org/abs/1607.08022

3、《组归一化(Group Normalization)》

论文链接:https://arxiv.org/abs/1803.08494

2016 年:攻陷最复杂的游戏——AlphaGo

登上 Nature 的 AlphaGo 论文《Mastering the game of Go with deep neural networks and tree search》

论文链接:https://www.nature.com/articles/nature16961(被引用量 6310)

很多人对于现代 AI 的理解始于 DeepMind 的围棋程序 AlphaGo。AlphaGo 研究项目始于 2014 年,目的是为了测试一个使用深度学习的神经网络如何在 Go 上竞争。

AlphaGo 比以前的 Go 程序有了显着的改进,在与其他可用围棋程序(包括 Crazy Stone 和 Zen)的 500 场比赛中,在单台计算机上运行的 AlphaGo 赢得了除一个之外的所有胜利,而运行在多台计算机上的 AlphaGo 赢得了与其他 Go 程序对战的所有 500 场比赛,在与单台计算机上运行的 AlphaGo 比赛中赢下了 77%的对阵。2015 年 10 月的分布式版本使用了 1,202 个 CPU 和 176 个 GPU,当时它以 5: 0 的比分击败了欧洲围棋冠军樊麾(职业 2 段选手),轰动一时。

这是计算机围棋程序第一次在全局棋盘(19 × 19)且无让子的情况下击败了人类职业棋手。2016 年 3 月,通过自我对弈进行练习的加强版 AlphaGo 在比赛中以 4: 1 击败了世界围棋冠军李世石,成为第一个在无让子情况下击败围棋职业九段棋手的计算机程序,载入史册。赛后,AlphaGo 被韩国棋院授予名誉职业九段的称号。

年度荣誉提名:

1、DeepMind 的另一篇 AlphaGo Nature 论文《Mastering the game of Go without human knowledge》

论文链接:https://www.nature.com/articles/nature24270

作为 AlphaGo 的后继版本,2017 年 10 月,DeepMind 发布最新强化版的 AlphaGo Zero,这是一个无需用到人类专业棋谱的版本,比之前的版本都强大。通过自我对弈,AlphaGo Zero 经过三天的学习就超越了 AlphaGo Lee 版本的水平,21 天后达到 AlphaGo Maseter 的实力,40 天内超越之前所有版本。

2017 年:几乎人人都用的 Transformer

《Attention Is All You Need》

论文链接:https://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf(被引用量 5059)

著名的 Transformer 架构出现了。2017 年 6 月,谷歌宣布又在机器翻译上更进了一步,实现了完全基于 attention 的 Transformer 机器翻译网络架构,并且还在 WMT 2014 的多种语言对的翻译任务上超越了之前 Facebook 的成绩,实现了新的最佳水平。

在编码器-解码器配置中,显性序列显性转导模型(dominant sequence transduction model)基于复杂的 RNN 或 CNN。表现最佳的模型也需通过注意力机制(attention mechanism)连接编码器和解码器。

谷歌提出了一种新型的简单网络架构——Transformer,它完全基于注意力机制,彻底放弃了循环和卷积。两项机器翻译任务的实验表明,这些模型的翻译质量更优,同时更并行,所需训练时间也大大减少。新的模型在 WMT 2014 英语转德语的翻译任务中取得了 BLEU 得分 28.4 的成绩,领先当前现有的最佳结果(包括集成模型)超过 2 个 BLEU 分值。在 WMT 2014 英语转法语翻译任务上,在 8 块 GPU 上训练了 3.5 天之后,新模型获得了新的单模型顶级 BLEU 得分 41.0,只是目前文献中最佳模型训练成本的一小部分。

Transformer 在其他任务上也泛化很好,把它成功应用到了有大量训练数据和有限训练数据的英语组别分析上。

《Neural Architecture Search with Reinforcement Learning》

论文链接:https://openreview.net/forum?id=r1Ue8Hcxg(被引用量 1186)

神经结构搜索(NAS)表示自动设计人工神经网络(ANN)的过程,人工神经网络是机器学习领域中广泛使用的模型。NAS 的各种方法设计出的神经网络,其性能与手工设计的架构相当甚至更优越。可以根据搜索空间,搜索策略和性能评估策略三个方面对 NAS 的方法进行分类。其他方法,如《Regularized Evolution for Image Classifier Architecture Search》(即 AmoebaNet)使用了进化算法。

2018 年:预训练模型大热

当然是谷歌的 NLP 预训练模型 BERT:《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》,这篇论文现在已经有 3025 次引用量了。

论文链接:https://arxiv.org/abs/1810.04805

本文介绍了一种新的语言表征模型 BERT——来自 Transformer 的双向编码器表征。与最近的语言表征模型不同,BERT 旨在基于所有层的左、右语境来预训练深度双向表征。BERT 是首个在大批句子层面和 token 层面任务中取得当前最优性能的基于微调的表征模型,其性能超越许多使用任务特定架构的系统,刷新了 11 项 NLP 任务的当前最优性能记录。

BERT 与 GPT-2 和 ELMo 的模型结构对比。

年度荣誉提名:

自 BERT 被提出以来,基于 Transformer 的语言模型呈井喷之势。这些论文尚需时间考验,还很难说哪一个最具影响力。

1、《Deep contextualized word representations》

论文链接:https://arxiv.org/abs/1802.05365

2、《Improving Language Understanding by Generative Pre-Training》

论文链接:https://s3-us-west-2.amazonaws.com/openai-assets/research-covers/language-unsupervised/language_understanding_paper.pdf

3、《Language Models are Unsupervised Multitask Learners》——即 OpenAI 在 2 月份推出的,参数量高达 15 亿的预训练模型 GPT-2。

论文链接:https://d4mucfpksywv.cloudfront.net/better-language-models/language_models_are_unsupervised_multitask_learners.pdf

4、《Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context》

以往的 Transformer 网络由于受到上下文长度固定的限制,学习长期以来关系的潜力有限。本文提出的新神经架构 Transformer-XL 可以在不引起时间混乱的前提下,可以超越固定长度去学习依赖性,同时还能解决上下文碎片化问题。

论文链接:https://arxiv.org/abs/1901.02860

5、《XLNet: Generalized Autoregressive Pretraining for Language Understanding》

BERT 带来的影响还未平复,CMU 与谷歌大脑 6 月份提出的 XLNet 在 20 个任务上超过了 BERT 的表现,并在 18 个任务上取得了 SOTA。

论文链接:https://arxiv.org/abs/1906.08237

6、《Neural Machine Translation of Rare Words with Subword Units》

论文链接:https://arxiv.org/abs/1508.07909

2019 年:深度学习的原理改进

论文《Deep Double Descent: Where Bigger Models and More Data Hurt》,本文讨论的 Double Descent 现象与经典机器学习和现代深度学习中的流行观点背道而驰。

论文链接:https://arxiv.org/abs/1912.02292

在本文中研究者证明,各种现代深度学习任务都表现出「双重下降」现象,并且随着模型尺寸的增加,性能首先变差,然后变好。此外,他们表明双重下降不仅作为模型大小的函数出现,而且还可以作为训练时间点数量的函数。研究者通过定义一个新的复杂性度量(称为有效模型复杂性,Effective Model Complexity)来统一上述现象,并针对该度量推测一个广义的双重下降。此外,他们对模型复杂性的概念使其能够确定某些方案,在这些方案中,增加(甚至四倍)训练样本的数量实际上会损害测试性能。

来自 MIT CSAIL 研究者的论文《The Lottery Ticket Hypothesis: Finding Sparse, Trainable Neural Networks》,它也获得了 ICLR 2019 的最佳论文奖。

论文链接:https://arxiv.org/abs/1803.03635

研究者们发现,标准的神经网络剪枝技术会自然地发现子网络,这些子网络经过初始化后能够有效进行训练。基于这些结果,研究者提出了「彩票假设」(lottery ticket hypothesis):密集、随机初始化的前馈网络包含子网络(「中奖彩票」),当独立训练时,这些子网络能够在相似的迭代次数内达到与原始网络相当的测试准确率。

未来?

因为深度学习和基于梯度的神经网络出现技术突破,过去十年是人工智能高速发展的一段时期。这很大程度上是因为芯片算力的显著提高,神经网络正在变得越来越大,性能也越来越强。从计算机视觉到自然语言处理,新的方法已经大面积取代了传统的 AI 技术。

但是神经网络也有其缺点:它们需要大量已标注数据进行续联,无法解释自身的推断机制,难以推广到单个任务之外。不过因为深度学习的推动,AI 领域快速发展,越来越多的研究者正在致力于应对这些挑战。

在未来的几年里,人们对于神经网络的理解还会不断增加。人工智能的前景还是一片光明:深度学习是 AI 领域里最有力的工具,它会使我们进一步接近真正的智能。

让我们期待 2020 年的新成果吧。

参考链接:https://leogao.dev/2019/12/31/The-Decade-of-Deep-Learning/

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-01-04,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Datawhale 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
云计算安全:保护数字资产的前沿策略
随着云计算的广泛应用,数字化资产存储和管理已经变得更加便捷,但也引发了新的安全威胁和挑战。本文将深入探讨云计算安全的前沿策略,包括关键威胁、安全最佳实践以及如何保护您的数字资产。我们还将提供示例代码以帮助理解这些策略的实际应用。
IT_陈寒
2023/12/13
5000
云计算安全:保护数字资产的前沿策略
云计算背景下的安与不安
在企业IT网络通信领域中,安全一直是用户非常关注的话题。云计算、大数据及移动化让企业的安全形势变得更加复杂和严峻。然而,云计算、大数据及移动化是大势所趋,也的确能大大降低企业的成本和提高企业的效率,改
静一
2018/03/16
1.7K0
让你远离云计算安全问题的18个小贴士
云应用的普遍使用给负责管理企业云平台的IT和安全人员带来了很多阻碍和挑战。据Ponemon Institute所做的调查显示超过半数受访者所在企业正在向云端转移机密或敏感数据,然而57%的运维人员承认自己对于敏感信息的存储并没有一个全面的认识。 云计算正在全球范围内向各行各业扩展,显而易见基于云的SaaS应用会越来越多地取代现有的关键业务系统和服务。很多企业都看到了应用云计算的好处,但挑战与顾虑是难免的。本文中列举了帮助企业应对有关云计算的隐私、法规及安全问题的18个小贴士,希望可以使企业更顺利地使用云计算
静一
2018/03/22
9380
让你远离云计算安全问题的18个小贴士
云计算安全:保护你的数据免受黑客侵害
随着云计算的崭露头角,企业和个人用户都越来越依赖于云服务来存储、处理和分享数据。云计算为我们提供了巨大的灵活性和便利性,但与此同时,安全性也变得至关重要。黑客和恶意分子一直在寻找机会窃取云上的数据,因此云计算安全性已经成为一项关键任务。本文将探讨云计算安全的重要性,并提供一些保护数据免受黑客侵害的实用方法。
IT_陈寒
2023/12/13
3940
云计算安全:保护你的数据免受黑客侵害
解锁数据库安全新技能:加密技术与访问控制详解
数据库安全是确保数据机密性、完整性和可用性的关键。数据加密和访问控制是数据库安全的核心技术。以下将详细介绍数据加密技术和访问控制技术的原理、应用及面临的挑战。
Front_Yue
2024/09/05
5780
解锁数据库安全新技能:加密技术与访问控制详解
企业管理“上云”背后的忧思:数据安全该如何保障?
随着云计算、大数据、互联网应用等信息技术的不断发展,信息化管理已经成为企业管理的发展趋势,云计算的出现和快速发展,更是给企业带来了一种全新的管理思维,即通过云端部署,把将企业的基础设施、管理及业务迁移到云端服务器,以用租赁的方式获取云服务商提供的计算、存储、软件及数据服务,以此提高资源配置效率、降低信息化建设成本。 云服务器因为能满足稳定可靠、成本可控、运维简化等需求,备受企业和开发者青睐,通过云端部署的SaaS软件也因此具备灵活、低成本、快速上线等优势,降低企业进入信息化管理的门槛,提高管理效率,并增强企业在市场中的竞争优势,是帮助企业走上云端,实现企业管理数字化、智能化及信息化发展的有效途径。 然而,云端软件应用在给企业和供应商带来收益及便利的同时也带来了挑战:大多数人对于云端储存数据的安全性能否得到有力保障深感怀疑。云端存储数据的安全性成为人们最关心的话题,人们担心数据存放在云端服务器处会被盗用、泄露或出卖。那么,将关键数据存放在云端,安全性该如何得到保障?
Feeney
2019/10/15
2.2K0
企业管理“上云”背后的忧思:数据安全该如何保障?
可能破坏企业运营环境的6个云计算安全问题
即使在云平台中,安全漏洞和潜在的网络攻击也是不可避免的。每个云计算提供商都使用不同的配置选项和参数。用户有责任学习和理解承载其工作负载的平台如何应用这些设置。业务用户、部门和其他实体必须遵守业务的既定标准,以消除漏洞并保持整个组织的安全。
静一
2021/03/12
9770
可能破坏企业运营环境的6个云计算安全问题
《网络安全2022:守望高质量》报告之数据安全热点事件与趋势解读
近日,绿盟科技发布《网络安全2022:守望高质量》报告,报告集合了绿盟科技在区域威胁、漏洞态势、恶意软件、数据安全、物联网安全、工业互联网安全和5G安全等方向的网络安全观察。其中,数据安全是国内外讨论的热点话题,2021年有太多数据安全事件值得回顾和盘点,如大规模泄露与国内源代码泄露、《数据安全法》和《个人信息保护法》双双实施、国内数据安全执法“重拳出击”、“隐私增强计算”技术发展迅速。本文基于报告数据安全观察相关章节,从国内外数据泄露、数据安全监管及数据安全技术三个维度进行解读。
绿盟科技研究通讯
2022/04/14
1.5K0
《网络安全2022:守望高质量》报告之数据安全热点事件与趋势解读
2025年,我们应当如何保护云安全?
随着云计算的广泛应用,越来越多的企业和个人将其关键业务、数据及应用迁移到云端。这种转变大大提升了企业在灵活性、成本效益和业务创新方面的能力,但与此同时,云环境中的安全问题也变得越来越复杂。云服务商提供的基础设施、平台和软件虽然提供了强大的计算和存储能力,但仍然存在着一些关键的漏洞,这些漏洞可能被不法分子利用,导致数据泄露、服务中断、甚至更为严重的安全事故。因此,了解和防范云上的主要漏洞,对于保障云环境的安全至关重要。
星尘安全
2025/01/14
3480
2025年,我们应当如何保护云安全?
首次公开云上攻击路径全景,腾讯安全联合GeekPwn发布《2019云安全威胁报告》
云计算因低成本、高配置以及安全等配套服务等突出优势,成为越来越多企业数字化转型升级的首要选择。 IDC最新预测数据显示,全球公有云收入到2021年将达到2783亿元,较之2017年同比增长87.36%。随着越来越多的企业选择上云,云上安全也成为云服务商和租户共同关注的话题。 近日,腾讯安全云鼎实验室基于对云安全情报数据的统计分析和最新云安全攻防趋势的研究,联合GeekPwn发布了《2019云安全威胁报告》(以下简称《报告》),在整体把握云安全威胁形势的基础上,对基础设施、数据、身份验证和访问管理、云中安
云鼎实验室
2020/01/08
1.7K0
首次公开云上攻击路径全景,腾讯安全联合GeekPwn发布《2019云安全威胁报告》
【大数据安全】大数据安全的挑战与对策&基础设施安全
大数据安全是指在大数据环境下,为了保护数据不被非法获取、篡改或破坏,确保数据的安全性、完整性和可用性的一系列措施和技术。
Francek Chen
2025/01/22
4400
【大数据安全】大数据安全的挑战与对策&基础设施安全
云计算时代如何保护自己的数据
随着越来越多的组织采用云计算,内部部署数据中心的时代将会逐渐终结。从小规模企业到规模最大的跨国公司,无论在哪里,都可以看到云计算应用程序。云计算服务的使用量每年都会持续增长,截至2016年,每个组织平均使用1427个云服务。
静一
2018/07/31
1K0
云安全:云计算安全
云安全是指在云计算环境中保护数据、应用程序和相关服务不受威胁的一系列策略、技术和控制措施。随着云计算的快速发展,云安全已成为企业和个人用户最关心的问题之一。云安全的目标是确保云环境中数据的机密性、完整性和可用性,同时防止数据丢失、服务中断和不正当访问。
久绊A
2024/12/08
5900
首次公开云上攻击路径全景,腾讯安全联合GeekPwn发布《2019云安全威胁报告》
IDC最新预测数据显示,全球公有云收入到2021年将达到2783亿元,较之2017年同比增长87.36%。随着越来越多的企业选择上云,云上安全也成为云服务商和租户共同关注的话题。
腾讯安全
2019/12/30
1.2K0
首次公开云上攻击路径全景,腾讯安全联合GeekPwn发布《2019云安全威胁报告》
保护敏感数据的艺术:数据安全指南
多年来,工程和技术迅速转型,生成和处理了大量需要保护的数据,因为网络攻击和违规的风险很高。为了保护企业数据,组织必须采取主动的数据安全方法,了解保护数据的最佳实践,并使用必要的工具和平台来实现数据安全。
小阑本阑
2023/10/13
8000
保护敏感数据的艺术:数据安全指南
【未来之链:区块链科技的深度探索与全球革新】一篇文章读懂区块链及其技术发展(一万字)
在数字化时代的浪潮中,区块链技术以其去中心化、透明、安全的特性,正成为塑造未来的关键力量。本文深度拓展了区块链技术的多个方面,从基础概念到前沿趋势,系统性地探讨了其在全球数字经济中的崭新角色。多链互通、智能合约演进、社会身份变革,以及对环境和可持续发展的关注,构成了这一未来科技之路的关键节点。在这个由创新和变革构成的时代,区块链正引领着数字革命的浪潮,塑造着我们社会和经济的全新面貌。区块链是一种去中心化的分布式账本技术,被设计用于安全地记录和验证交易,确保数据的透明性和不可篡改性。下面将针对区块链技术进行全面的介绍,让更多的人可以深入了解并学习该项技术。
奥耶可乐冰
2024/05/30
1.2K0
区块链之链上链下协同的实现与挑战
区块链技术具有数据不可篡改的特性,确保了数据的完整性和可靠性。这在金融、供应链等领域具有重要价值,可以降低欺诈风险和提高数据安全性。
天地一小儒
2023/05/06
1.1K0
区块链之链上链下协同的实现与挑战
云数据隐私:将密钥放在哪里?
在任何工作负载迁移项目计划中,最容易被忽视的项目通常是跨多个云服务的密钥管理和合规性。增强自带密钥(BYOK)服务使企业可以将数据位置与加密密钥分开。加密最佳实践有助于提高数据隐私性。
静一
2021/06/01
3.6K0
新技术加速隐私暴露,如何应对?(二)
网络爬虫技术并不是一个新技术,最初是搜索引擎用来抓取散落在因特网上的海量网站,解析后为用户提供搜索服务的一种技术,本质上是模拟浏览器浏览网页的行为,用程序获取网页上展示(或隐藏)的数据。Web 1.0时代,互联网上的个人信息少之又少,以门户、新闻等信息为主,爬虫低调而务实,仅仅是一个搜索引擎收集数据的工具。Web 2.0时代,随着UGC(User Generate Content)的增加,爬虫可以用来做一些群体用户行为分析了。互联网+时代,特别是互联网金融的发展,大数据供应商们绞尽脑汁,寻找一切可以判定个人信用的数据,从最早的信用卡邮箱账单,到社保、公积金、运营商通话详单,甚至通过模拟登陆网贷平台,来判断一个手机号是否曾经注册过,或者登陆B网贷平台,用其额度和利率来作为A平台的风控参考。
数据猿
2019/10/17
8240
云原生安全:如何保护云上应用不受攻击
随着云计算的快速发展,越来越多的企业将应用程序迁移到云上,以实现更高的灵活性和效率。然而,这也使得应用程序更容易受到网络攻击的威胁。为了保护云上的应用程序免受攻击,云原生安全成为一个至关重要的话题。本文将介绍云原生安全的概念,以及如何采取措施来保护云上的应用不受攻击。
IT_陈寒
2023/12/13
3740
云原生安全:如何保护云上应用不受攻击
推荐阅读
相关推荐
云计算安全:保护数字资产的前沿策略
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档