Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Android N上一些新特性的介绍「建议收藏」

Android N上一些新特性的介绍「建议收藏」

作者头像
全栈程序员站长
发布于 2022-10-04 02:52:46
发布于 2022-10-04 02:52:46
1.5K0
举报

大家好,又见面了,我是你们的朋友全栈君。

by Li.zhu

随着6月份google的Android N preview 4版本的发布,笔者也借着东风在N6P上体验了一把新系统,试玩之后认为有几点新的感受特记录之。

1.分屏多任务

进入后台多任务管理页面,然后按住其中一个卡片,然后向上拖动至顶部即可开启分屏多任务,支持上下分栏和左右分栏,允许拖动中间的分割线调整两个APP所占的比例。目前,Android N开发者预览版支持全部第三方应用尝试分屏操作,但个别应用适配可能存在问题,分屏后可能导致界面显示不全等问题。

Ø 操作方式:

• 打开【□】菜单的时候,长按【□】按键可以切换分屏模式,同时也可以将【□】按键拖动至任务预览窗口。

在分屏模式下长按【□】将还原全屏。

2. Emoji表情

Android N系统推出了一套全新的emoji表情。它们采用了拟人化的形状以及赏心悦目的配色,看上去不仅更加正常,也更具亲和力。最为重要的是,新的emoji表情将采用人们一贯熟悉的风格,避免用户在使用中产生误解。新版emoji表情不仅采用了全新的设计风格,还提供了多种肤色选择

在旧版的emoji中,例如“警官”表情只是在黄色小布丁头上扣了一顶警帽,新版则变成了一个实实在在的小警察。如果说旧版的“舞蹈”表情或许会让接收者误解并感到不快,新版中则明显是一位正在表演的舞者。

3. 新的系统快捷开关

在Android N中,下拉打开通知栏顶部即可显示5个用户常用的快捷开关,支持单击开关以及长按进入对应设置。如果继续下拉通知栏即可显示全部快捷开关,此外在快捷开关页右下角也会显示一个“编辑”按钮,点击之后即可自定义添加/删除快捷开关,或拖动进行排序。

4.通知信息快速回复

Android N加入了全新的API,支持第三方应用通知的快捷操作和回复,例如来电会以横幅方式在屏幕顶部出现,提供接听/挂断两个按钮;信息/社交类应用通知,还可以直接打开键盘,在输入栏里进行快捷回复

5.通知消息归拢

Android N会将同一应用的多条通知提示消息归拢为一项,而不是像现在之前四处散落;点击该项即可展开此前的全部通知,允许用户对每个通知执行单独操作。

6.流量保护模式

Android N新增的流量保护模式不仅可以禁止应用在后台使用流量,还会进一步减少该应用在前台时的流量使用。其具体实现原理目前尚不清楚,推测其有可能使用了类似Chrome浏览器的数据压缩技术。

此外,谷歌还扩展了ConnectivityManager API的能力,使得应用可以检测系统是否开启了流量保护模式,或者检测自己是否在白名单中。 Android N允许用户单独针对每个应用,选择是否开启数据保护模式。

7.全新设置样式

或许是为了让用户能够更快速地在同一级菜单的选项中切换,Android N 系统设置采用“汉堡包”菜单,比如在“设置-开发者选项”中就可以点击左上角“三杠”图标调出上一级菜单、也就是设置中的第一级菜单,以此类推。

整个系统设置界面也有改变,第一级菜单中同一类设置选项内部不再标出分割线,且每一个选项下会显示主要信息,比如在 WiFi 选项下会显示设备已连接的 WiFi 信号、在数据使用选项下会显示已使用的流量,用户不用进入下一级菜单就能一目了然了。

有趣的是,Android N 的“勿扰模式”开关会一直显示在设置界面的顶部,即便进入第二级菜单也是如此,不过它会随着向下滑动菜单而移动。此外,Android N 设置中通知音和媒体音量已经独立显示,均位于第一级菜单当中。

8. 改进的Doze休眠机制

在Android 6.0中,谷歌带来了全新的休眠机制Doze。据官方表示开启Doze后,手机的续航可以延长数小时。实际测试中虽然没有Google官方说的那般优秀,但依旧对续航起到了一定的改善作用。Doze休眠机制是当设备处于空闲状态时,通过推迟应用的 CPU 和网络活动以实现省电目的的系统模式。

在 Android N 中,Doze休眠机制又前进了一步。只要屏幕关闭了一段时间,且设备未插入电源,Doze休眠机制开启,系统会尝试通过限制网络访问以及CPU密集的服务来保存电量,这意味着用户即使将设备放入口袋里也可以省电。

具体点来说,就是屏幕关闭片刻后,设备在使用电池时,Doze休眠机制将限制网络访问,同时延迟作业和同步。在短暂的维护时间范围后,其允许应用访问网络,并执行延迟的作业/同步。打开屏幕或将设备插入电源会使设备退出Doze休眠机制。当设备再次处于静止状态时,屏幕关闭且使用电池一段时间,Doze休眠机制针对PowerManager.WakeLock,AlarmManager警报和 GPS/Wi-Fi 扫描应用完整 CPU 和网络限制。

9. 系统级电话黑名单功能

在Android N中,谷歌将电话拦截功能变成了一个系统级功能。其它应用可以调用这个拦截名单,但只有个别应用可以写入,包括拨号应用、默认的短信应用等。被拦截号码将不会出现在来电记录中,也不会出现通知。另外用户也可以通过账户体系备份和恢复这个拦截名单,以便快速导入其它设备或账号。

10. 菜单键快速应用切换

双击菜单键,就能自动切换到上一个应用。此外,如果你不停地点击菜单键的话,就会在所有应用中不间断地轮换,应用窗口会自动放大,顶部还会出现倒计时条,停止点击且倒计时结束后,当前应用会自动放大并返回到前台。

Ø 操作方式:

• 在主屏时双击【□】可快速跳转至最后一次使用的应用。

• 应用打开时,双击【□】可以跳转至此前打开的应用。

• 连续点击【□】可让各项任务卡片窗口循环显示,停止时选中的应用将全屏显示。

• 打开【□】菜单的时候,长按【□】按键可以切换分屏模式,同时也可以将【□】按键拖动至任务预览窗口。

在分屏模式下长按【□】将还原全屏。

11. 更快应用安装速度

Android N中采用了一项具有实时代码剖析功能的ARI JIT编译器,它能够在安卓应用程序在运行时不断提高自身的性能,其带来的另一项优势就是能够为应用安装引入一种新的“快速通道”(quick path),能够大大加快应用安装和系统更新的速度,即便是那些大型的应用程序如游戏,在安卓6.0中需要几分钟时间才能安装和优化完成的,在安卓7.0中仅仅需要几秒钟就可以搞定。同时,因为省去了一些优化步骤, Android N的系统更新速度也会大大提升。

12. 紧急个人救护信息功能

这项功能可以在Android N的“设置”——“用户”下面找到,当点击之后,系统就会要求你填写一些个人紧急救护信息,比如你的姓名、家庭住址、血型、药物过敏史、正在服用的药物、以及过往疾病史等信息,还可以填写数个紧急联系人信息。

紧急信息窗口仅在当你设置了安全锁屏且在紧急拨号面板下才会显示出来,毕竟当遇到突发急症等险境时,如果在手机上设置了锁屏,别人就无法主动通过手机联系家人或朋友。如果你设置了个人紧急信息,在锁屏下进入紧急拨号面板时,你就会看到上方会有红色的紧急信息提示框,连续点击两次便可看到此前输入的个人信息和紧急联系人,点击可以直接进行拨叫。救援人员无法访问除了救援信息之外的任何私人信息。

14. 可调节显示尺寸

Android N将带来一系列新的辅助功能,现在你不只可以调整字体大小,还可以调整显示的尺寸。此前的调整字体大小弱爆了,新的可调节显示设置,可以改变整个用户界面的比例,实时改变包括诸如按钮,图标和搜索栏的大小。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022年9月5日 下,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
加州大学伯克利分校研究人员推出无监督强化学习基准 (URLB)
强化学习 (RL) 是一种强大的人工智能范式,用于处理各种问题,包括自动驾驶汽车控制、数字助理和资源分配等。然而即使是当今最好的 RL 代理也很窄。目前大部分 RL 算法只能解决他们所训练的单一工作,没有跨任务或跨域泛化能力。
代码医生工作室
2021/12/29
6150
加州大学伯克利分校研究人员推出无监督强化学习基准 (URLB)
强化学习也能预训练?效果可提升20倍,华人新作引爆RL新范式!
从计算机视觉到自然语言处理等多个领域,这种「预训练-微调」的模式已经取得了巨大成功。
新智元
2025/06/30
680
强化学习也能预训练?效果可提升20倍,华人新作引爆RL新范式!
【越好奇,越强大】伯克利研究人员使用内在激励,教AI学会好奇
来源:Quanta Magazine 编译:Cecilia 【新智元导读】伯克利研究人员正在开发具有好奇心的AI。他们想创造有内在自我驱动能力的AI,而不是依赖人类指令的伪智能。相比外在的奖惩机制,建立方法让智能体拥有内在的好奇心更加重要。研究人员将让AI感到“吃惊”的指数,即对环境预测的误差,作为内在激励函数。吃惊越大,奖励越多,以此让AI迅速掌握环境。 你可能不记得第一次玩“超级马里奥兄弟”是什么感觉,但试着想像一下:蓝色的天空,棋盘石的地面,还有一个蹲着的红色男人在静静等待。他面向右方,你把他推到那个
新智元
2018/03/21
9200
【越好奇,越强大】伯克利研究人员使用内在激励,教AI学会好奇
加州大学伯克利分校研究人员开源RAD来改进强化学习算法
作者 | Michael Laskin、Kimin Lee、Adam Stooke、Lerrel Pinto、Pieter Abbeel、
代码医生工作室
2020/06/16
9440
加州大学伯克利分校研究人员开源RAD来改进强化学习算法
学界 | 不设目标也能通关「马里奥」的AI算法,全靠好奇心学习
通过与任务匹配的奖励函数最大化来训练智能体策略。对于智能体来说,奖励是外在的,并特定于它们定义的环境。只有奖励函数密集且定义良好时,多数的 RL 才得以成功实现,例如在电子游戏中的「得分」。然而设计一个定义良好的奖励函数非常困难。除了「塑造」外在奖励外,也可以增加密集的内在奖励,即由智能体本身产生奖励。内在奖励包括使用预测误差作为奖励信号的「好奇心」和阻止智能体重新访问相同状态的「访问计数」。其思想是,这些内在奖励通过引导智能体对环境进行有效地探索,以寻找下一个外在奖励,从而缩小与稀疏外在奖励间的差距。
机器之心
2018/09/20
4290
学界 | 不设目标也能通关「马里奥」的AI算法,全靠好奇心学习
系统回顾深度强化学习预训练,在线、离线等研究这一篇就够了
近年来,强化学习 (RL) 在深度学习的带动下发展迅速,从游戏到机器人领域的各种突破,激发了人们对设计复杂、大规模 RL 算法和系统的兴趣。然而,现有 RL 研究普遍让智能体在面对新的任务时只能从零开始学习,难以利用预先获取的先验知识来辅助决策,导致很大的计算开销。
机器之心
2022/12/16
8380
系统回顾深度强化学习预训练,在线、离线等研究这一篇就够了
强化学习如何使用内在动机?
「内在动机」 (Intrinsic Motivation) 这一概念最初是在心理学中提出并发展起来的。由于其在制造开放式学习机器和机器人方面的潜力,这一概念正日益受到认知科学的关注。
机器之心
2020/05/26
8280
强化学习如何使用内在动机?
深度 | 超越DQN和A3C:深度强化学习领域近期新进展概览
我觉得,深度强化学习最让人喜欢的一点是它确实实在难以有效,这一点不同于监督学习。用神经网络来解决一个计算机视觉问题可能能达到 80% 的效果;而如果用神经网络来处理强化学习问题,你可能就只能眼睁睁地看着它失败——而且你每次尝试时遭受的失败都各不相同。
机器之心
2018/12/06
7540
深度 | 超越DQN和A3C:深度强化学习领域近期新进展概览
如何解决稀疏奖励下的强化学习?
强化学习(Reinforcement Learning,RL)是实现强人工智能的方法之一,在智能体(Agent)与环境的交互过程中,通过学习策略(Policy)以最大化回报或实现特定的目标。在实际应用场景中,RL 面临一个重要的问题:agent 无法得到足够多的、有效的奖励(Reward),或者说 agent 得到的是稀疏奖励(Sparse Reward),进而导致 agent 学习缓慢甚至无法进行有效学习。
机器之心
2020/07/09
4.4K0
如何解决稀疏奖励下的强化学习?
只用图像也能思考,强化学习造就推理模型新范式!复杂场景规划能力Max
近年来,LLM 及其多模态扩展(MLLM)在多种任务上的推理能力不断提升。然而, 现有 MLLM 主要依赖文本作为表达和构建推理过程的媒介,即便是在处理视觉信息时也是如此 。
机器之心
2025/05/26
1550
只用图像也能思考,强化学习造就推理模型新范式!复杂场景规划能力Max
打通智能体「自我进化」全流程!复旦推出通用智能体平台AgentGym
LLM-based Agent,已经不再需要人类监督者的帮助,开始实现「自我进化」!
机器之心
2024/06/17
4380
强化学习也有基础模型了!DeepMind重磅发布AdA,堪比人类的新环境适应能力
---- 新智元报道   编辑:LRS 【新智元导读】强化学习也要进入预训练时代了! 基础模型(foundation models)在监督和自监督学习问题上展现出强大的领域适应性(adaption)和可扩展性(scalability),但强化学习领域仍然没有基础模型。 最近DeepMind的Adaptive Agents团队提出了一种人-时间尺度(human-timescale)自适应智能体AdA(Adaptive Agent),证明经过大规模训练后的RL智能体也能具有通用上下文的学习能力,该算法可以
新智元
2023/02/24
5450
强化学习也有基础模型了!DeepMind重磅发布AdA,堪比人类的新环境适应能力
大视频模型是世界模型?DeepMind/UC伯克利华人一作:预测下一帧就能改变世界
但Google DeepMind、UC伯克利和MIT的研究人员更进一步,在他们眼里,「大视频模型」也许能够像世界模型一样,真正的做到理解我们身处的这个世界。
新智元
2024/03/05
1750
大视频模型是世界模型?DeepMind/UC伯克利华人一作:预测下一帧就能改变世界
DeepSeekMath:突破开放式语言模型中数学推理能力的极限,提出了GRPO,值得关注学习
由于数学推理具有复杂且结构化的特性,这对语言模型构成了重大挑战。在本文中,我们介绍了 DeepSeekMath 7B 模型,该模型在 DeepSeek-Coder-Base-v1.5 7B 模型的基础上,使用从 Common Crawl 获取的 1200 亿个与数学相关的标记,以及自然语言和代码数据继续进行预训练。在不依赖外部工具包和投票技术的情况下,DeepSeekMath 7B 在竞赛级 MATH 基准测试中取得了 51.7% 的优异成绩,接近 Gemini-Ultra 和 GPT-4 的性能水平。通过对 DeepSeekMath 7B 生成的 64 个样本进行自洽性验证,其在 MATH 基准测试上的准确率达到了 60.9%。DeepSeekMath 的数学推理能力归因于两个关键因素:首先,我们通过精心设计的数据选择流程,充分利用了公开可用的网络数据的巨大潜力。其次,我们引入了组相对策略优化(Group Relative Policy Optimization,GRPO)算法,这是近端策略优化(Proximal Policy Optimization,PPO)算法的一个变体,它在增强数学推理能力的同时,还能优化 PPO 的内存使用。
AI浩
2025/06/08
1600
DeepSeekMath:突破开放式语言模型中数学推理能力的极限,提出了GRPO,值得关注学习
UC伯克利等新算法让四足机器人“稳得一批”:跨石滩、过草地…泼了油也不打滑!
人类具有适应环境变化的强大能力:我们可以迅速地学会住着拐杖走路、也可以在捡起位置物品时迅速地调整自己的力量输出,甚至小朋友在不同地面上行走都能轻松自如地切换自己的步态和行走模式。这样的适应能力对于在复杂多变的环境中生存活动十分重要。
大数据文摘
2021/07/29
6580
性能提升、成本降低,这是分布式强化学习算法最新研究进展
深度强化学习(Deep Reinforcement Learning,DRL)是一种公认的解决连续决策问题的有效技术。为了应对 DRL 的数据低效(data inefficiency)问题,受到分布式机器学习技术的启发,分布式深度强化学习 (distributed deep reinforcement learning,DDRL) 已提出并成功应用于计算机视觉和自然语言处理领域。有观点认为,分布式强化学习是深度强化学习走向大规模应用、解决复杂决策空间和长期规划问题的必经之路。
机器之心
2024/02/26
4680
性能提升、成本降低,这是分布式强化学习算法最新研究进展
让机器像人类一样学习? 伯克利 AI 研究院提出新的元强化学习算法!
AI 科技评论按:如果要让机器人拥人的学习能力,应该怎么做?伯克利 AI 研究院给出了一个很好的答案——元强化学习(meta-RL)。但这一次伯克利 AI 研究院不只是使用了元强化学习,还考虑POMDP、异步策略梯度等等知识体系,最终得到了一个高样本效率、高探索效率的新算法「PEARL」。这一成果不仅为解决 AI 的实际问题提供新的思考角度;同时也是实现在现实系统中规模化应用元强化学习的的第一步。伯克利 AI 研究院发布博文介绍了这一成果,AI 科技评论编译如下。
AI科技评论
2019/06/18
4660
让机器像人类一样学习? 伯克利 AI 研究院提出新的元强化学习算法!
1/10训练数据超越GPT-4o!清华等提出隐式过程奖励模型PRIME,在线刷SOTA
近日,来自清华UIUC等机构的研究者提出了PRIME(Process Reinforcement through IMplicit REwards):通过隐式奖励来进行过程强化。
新智元
2025/02/15
940
1/10训练数据超越GPT-4o!清华等提出隐式过程奖励模型PRIME,在线刷SOTA
「人造太阳」精准放电!DeepMind实现AI可控核聚变新突破
秘密研发3年,DeepMind去年宣称,首次成功用AI控制「托卡马克」内部等离子体。其重磅成果登上Nature。
新智元
2023/08/07
3960
「人造太阳」精准放电!DeepMind实现AI可控核聚变新突破
大型语言模型的幻觉研究|减轻及避免大模型LLM幻觉(二)
“ 本文及上一篇综述了最近关于语言模型中幻觉问题的研究进展,主要集中在ChatGPT发布后的研究。文章讨论了如何评估、追踪和消除幻觉,并探讨了现有挑战和未来方向。希望本文能为对LLM幻觉问题感兴趣的朋友提供有价值的资源,促进LLM的实际应用。”
技术人生黄勇
2024/07/19
9080
大型语言模型的幻觉研究|减轻及避免大模型LLM幻觉(二)
推荐阅读
加州大学伯克利分校研究人员推出无监督强化学习基准 (URLB)
6150
强化学习也能预训练?效果可提升20倍,华人新作引爆RL新范式!
680
【越好奇,越强大】伯克利研究人员使用内在激励,教AI学会好奇
9200
加州大学伯克利分校研究人员开源RAD来改进强化学习算法
9440
学界 | 不设目标也能通关「马里奥」的AI算法,全靠好奇心学习
4290
系统回顾深度强化学习预训练,在线、离线等研究这一篇就够了
8380
强化学习如何使用内在动机?
8280
深度 | 超越DQN和A3C:深度强化学习领域近期新进展概览
7540
如何解决稀疏奖励下的强化学习?
4.4K0
只用图像也能思考,强化学习造就推理模型新范式!复杂场景规划能力Max
1550
打通智能体「自我进化」全流程!复旦推出通用智能体平台AgentGym
4380
强化学习也有基础模型了!DeepMind重磅发布AdA,堪比人类的新环境适应能力
5450
大视频模型是世界模型?DeepMind/UC伯克利华人一作:预测下一帧就能改变世界
1750
DeepSeekMath:突破开放式语言模型中数学推理能力的极限,提出了GRPO,值得关注学习
1600
UC伯克利等新算法让四足机器人“稳得一批”:跨石滩、过草地…泼了油也不打滑!
6580
性能提升、成本降低,这是分布式强化学习算法最新研究进展
4680
让机器像人类一样学习? 伯克利 AI 研究院提出新的元强化学习算法!
4660
1/10训练数据超越GPT-4o!清华等提出隐式过程奖励模型PRIME,在线刷SOTA
940
「人造太阳」精准放电!DeepMind实现AI可控核聚变新突破
3960
大型语言模型的幻觉研究|减轻及避免大模型LLM幻觉(二)
9080
相关推荐
加州大学伯克利分校研究人员推出无监督强化学习基准 (URLB)
更多 >
交个朋友
加入腾讯云官网粉丝站
蹲全网底价单品 享第一手活动信息
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档