据MIT Technology Review报道,谷歌研究人员已经公布了一个项目的细节,我们下一代的笔记本电脑或智能手机会随着时间的推移学会更好、更快地执行任务。
通常来说,电脑性能会随着使用年限的延长而下降,它们的处理器很难应对新的软件。苹果公司甚至故意放慢iPhone的速度,因为它们的电池正在老化。
研究人员已经解决了计算中最常见的问题之一,即预抓取(prefetching)。计算机处理信息的速度比从内存中提取信息要快得多。为了避免瓶颈,它们试图预测哪些信息可能是需要的,并提前把其抓取出来。随着计算机变得越来越强大,这种预测变得越来越困难。
在本周发布的论文中,谷歌团队描述了使用深度学习(使用大型模拟神经网络的人工智能方法)来改进预抓取功能。尽管研究人员还没有说明其速度变得有多快,但考虑到深度学习给其他任务带来的影响,这种提升可能是巨大的。
加州大学圣克鲁兹分校研究员海纳·利茨(Heiner Litz)说:“我们所做的工作只是冰山一角。”利茨认为,应该可以将机器学习应用到计算机的每个部分,从低级操作系统到与用户交互的软件。
这样的进步是适当的。摩尔定律(Moore’s Law)终于开始放缓,而计算机芯片的基本设计近年来也没有太大变化。麻省理工学院(MIT)副教授蒂姆·克拉斯卡(Tim Kraska)也在探索机器学习如何让电脑工作得更好。他说,这种方法对高级算法也很有用。
举例来说,数据库可以自动学习如何处理与社交网络数据相反的财务数据。或者,应用程序可以教会自己更有效地响应特定用户的习惯。克拉斯卡说:“我们倾向于构建通用的系统和硬件,机器学习使系统能够自动地对用户的特定数据和访问模式进行定制。”
但克拉斯卡警告说,使用机器学习仍然需要计算费用,因此计算机系统不会在一夜之间发生变化。然而,如果有可能克服这些限制,我们开发系统的方式将来可能会发生根本性的改变。
利茨对此更加乐观,他说:“最终远景是构建一个能够不断自我监控和学习的系统,这真的是下一件大事的开始。”
领取专属 10元无门槛券
私享最新 技术干货