前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Android Studio 无法打开(MAC环境下)

Android Studio 无法打开(MAC环境下)

作者头像
艳龙
发布于 2022-05-13 10:01:38
发布于 2022-05-13 10:01:38
4.6K00
代码可运行
举报
文章被收录于专栏:yanlongli_艳龙yanlongli_艳龙
运行总次数:0
代码可运行

记录一次工作中遇到的坑: 今天升级了Android studio 3.5 版本, 正常升级后安装一切正常,接下来修改Android Studio内存大小来提高工作效率。 这次没有和以往一样直接修改 包内容/Contents/bin/studio.vmoptions 中的值, 通过Studio 中的 Help/ Edit Custom VM Options... 来修改为如下值

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
-Xms4096m
-Xmx4096m
-XX:ReservedCodeCacheSize=4096m

重启Android Studio 然后 Studio 无法启动了

一脸漫然, 发现重新安装也依然是无法启动... 经过google后才找到了问题原因和解决方法

解决方案

  1. 打开包内容/Contents/MacOS/studio 脚本,可以看到启动失败的错误信息

Invalid ReservedCodeCacheSize=4096M. Must be at most 2048M. 2019-09-14 10:40:36.313 studio[7750:149093] JNI_CreateJavaVM (/Applications/Android Studio.app/Contents/jre/jdk) failed: 4294967295 logout Deleting expired sessions...30 completed.

从错误信息中可以看到原因是 ReservedCodeCacheSize 的值设置的有问题,最大只能设置为2048

2.打开包内容/Contents/bin/studio.vmoptions 中 找到 ReservedCodeCacheSize

-Xms256m -Xmx1280m -XX:ReservedCodeCacheSize=240m -XX:+UseCompressedOops -Dfile.encoding=UTF-8 -XX:+UseConcMarkSweepGC -XX:SoftRefLRUPolicyMSPerMB=50 -XX:CICompilerCount=2 -Dsun.io.useCanonCaches=false -Djava.net.preferIPv4Stack=true -Djdk.http.auth.tunneling.disabledSchemes="" -Djna.nosys=true -Djna.boot.library.path=

XX:ReservedCodeCacheSize 不是 4096 和错误提示的不一样, 那肯定还有另一个文件配置了这个参数

查找发现 /Users/***/Library/Preferences/AndroidStudio3.5 目录中也配置了这样一个文件

-Xms4096m -Xmx4096m -XX:ReservedCodeCacheSize=4096m -XX:+UseCompressedOops -Dfile.encoding=UTF-8 -XX:+UseConcMarkSweepGC -XX:SoftRefLRUPolicyMSPerMB=50 -Dsun.io.useCanonCaches=false -Djava.net.preferIPv4Stack=true -Djna.nosys=true -Djna.boot.library.path=

果然错误是这里配置了4096, 修改为提示中的2048,重新启动Studio , 问题解决了。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022-05-13,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
3个关键点,把你的TensorFlow代码重构为分布式!
对于机器学习模型,分布式大致分两类:模型分布式和数据分布式: 模型分布式非常复杂和灵活, 它把整个机器学习模型分割,分散在多个节点上,在每个节点上计算模型的各个部分, 最后把结果拼接起来。如果你造了
崔庆才
2018/06/25
7300
学习笔记 TF061 : 分布式 TensorFlow,分布式原理、最佳实践
文章主要介绍了如何利用深度学习对图像进行特征提取和分类。首先介绍了传统特征提取方法和深度学习特征提取方法的区别,然后详细介绍了卷积神经网络(CNN)的组成和原理,以及如何使用CNN进行图像分类。最后,介绍了一种基于CNN的图像分类系统,该系统包括图像预处理、特征提取、模型训练和模型预测等模块。整个系统采用模块化设计,方便进行扩展和定制。
利炳根
2017/11/10
5.1K0
TensorFlow分布式实践
大数据时代,基于单机的建模很难满足企业不断增长的数据量级的需求,开发者需要使用分布式的开发方式,在集群上进行建模。而单机和分布式的开发代码有一定的区别,本文就将为开发者们介绍,基于TensorFlow进行分布式开发的两种方式,帮助开发者在实践的过程中,更好地选择模块的开发方向。
个推
2019/01/29
8040
TensorFlow分布式实践
强化学习异步分布式训练实现
本文介绍基于Tensorflow的强化学习off policy算法的分布式实现,包括多机共享replay buffer。分布式 TensorFlow 允许我们在多台机器上运行一个模型,所以训练速度或加速效果能显著地提升。
CreateAMind
2019/08/09
1.8K1
tensorflow学习笔记(十九):分布式Tensorflow
最近在学习怎么分布式Tensorflow训练深度学习模型,看官网教程看的云里雾里,最终结合着其它资料,终于对分布式Tensorflow有了些初步了解.
ke1th
2019/05/26
5780
TensorFlow分布式全套(原理,部署,实例)
TF的实现分为了单机实现和分布式实现,在分布式实现中,需要实现的是对client,master,worker process不在同一台机器上时的支持。数据量很大的情况下,单机跑深度学习程序,过于耗时,
用户1332428
2018/03/08
3K0
TensorFlow分布式全套(原理,部署,实例)
分布式TensorFlow入门教程
深度学习在各个领域实现突破的一部分原因是我们使用了更多的数据(大数据)来训练更复杂的模型(深度神经网络),并且可以利用一些高性能并行计算设备如GPU和FPGA来加速模型训练。但是有时候,模型之大或者训练数据量之多可能超出我们的想象,这个时候就需要分布式训练系统,利用分布式系统我们可以训练更加复杂的模型(单机无法装载),还可以加速我们的训练过程,这对于研究者实现模型的超参数优化是非常有意义的。2017年6月,Facebook发布了他们的论文Accurate, Large Minibatch SGD:Training ImageNet in 1 Hour,文中指出他们采用分布在32个服务器上的256块GPUs将Resnet-50模型在ImageNet数据集上的训练时间从两周缩短为1个小时。在软件层面,他们使用了很大的minibatch(8192)来训练模型,并且使学习速率正比于minibatch的大小。这意味着,采用分布式系统可以实现模型在成百个GPUs上的训练,从而大大减少训练时间,你也将有更多的机会去尝试各种各样的超参数组合。作为使用人数最多的深度学习框架,TensorFlow从version 0.8开始支持模型的分布式训练,现在的TensorFlow支持模型的多机多卡(GPUs和 CPUs)训练。在这篇文章里面,我将简单介绍分布式TensorFlow的基础知识,并通过实例来讲解如何使用分布式TensorFlow来训练模型。
机器学习算法工程师
2018/07/27
1K0
分布式TensorFlow入门教程
分布式TensorFlow入坑指南:从实例到代码带你玩转多机器深度学习
选自GitHub 作者:Matthew Rahtz 机器之心编译 通过多 GPU 并行的方式可以有很好的加速效果,然而一台机器上所支持的 GPU 是有限的,因此本文介绍了分布式 TensorFlow。分布式 TensorFlow 允许我们在多台机器上运行一个模型,所以训练速度或加速效果能显著地提升。本文简要概述了分布式 TensorFlow 的原理与实践,希望能为准备入坑分布式训练的读者提供一些介绍。 不幸的是,关于分布式 TensorFlow 的官方文档过于简略。我们需要一个稍微易懂的介绍,即通过 Jup
机器之心
2018/05/10
9242
TensorBoard计算加速
1. 如何使用log_device_placement参数来打印运行每一个运算的设备。
py3study
2020/01/15
7820
TensorFlow 分布式集群
上一篇博客说了怎样创建一个 Local Server 的集群,今天说说怎样创建一个真正的分布式集群。 我们准备了两个机器,如下: 192.168.0.192 192.168.0.193 我们将使用这两个机器来组成一个集群,然后把 tensorflow task 扔到其中的某个节点上运行。 我们准备了两个 server 程序,用来分别在两个机器上启动来组成一个集群,并接收task。 创建一个 client 程序,用来向集群提交 task。 server1.py import sys import time i
kongxx
2018/05/14
8710
tensorflow的GPU加速计算
tensorflow程序可以通过tf.device函数来指定运行每一个操作的设备,这个设备可以是本地的CPU或者GPU,也可以是某一台远程的服务器。tensorflow会给每一个可用的设备一个名称,tf.device函数可以通过设备的名称来指定执行运算的设备,比如CPU在tensorflow中的名称为/cpu:0。在默认情况下,即使机器有多CPU,tensorflow也不会区分它们,所有CPU都使用/cpu:0作为名称。而一台机器上不同为/gpu:0,第二个GPU名称为/gpu:1,以此类推。
狼啸风云
2019/03/04
7.6K0
tensorflow的GPU加速计算
精通 TensorFlow 1.x:11~15
TensorFlow 模型在开发环境中经过训练和验证。一旦发布,它们需要托管在某个地方,提供用工程师和软件工程师使用,以集成到各种应用中。 TensorFlow 为此提供了一个高表现服务器,称为 TensorFlow 服务。
ApacheCN_飞龙
2023/04/23
1.7K0
分布式TensorFlow编程模型演进
引言 TensorFlow从15年10月开源至今,可谓是发展迅猛,从v0.5到如今的v2.0.0-alpha,经历了无数个功能特性的升级,性能、可用性、易用性等都在稳步提升。相对来说,对于我们工业界,大家可能更关注分布式TensorFlow的发展,本文尝试梳理下分布式TensorFlow从问世到现在经历过的变迁。 分布式TensorFlow运行时基本组件 用户基于TensorFlow-API编写好代码提交运行,整体架构如下图所示。 [ dist-tf ] Client 可以把它看成是TensorFlo
腾讯Bugly
2019/05/16
1.9K0
分布式TensorFlow编程模型演进
浅尝TensorFlow on Kubernetes
Author: xidianwangtao@gmail.com 更多关于Kubernetes的深度文章,请到我oschina/WalonWang的博客主页。 Distributed TensorFlow 2016年4月TensorFlow发布了0.8版本宣布支持分布式计算,这个特性,我们称之为Distributed TensorFlow。 这是非常重要的一个特性,因为在AI的世界里,训练数据的size通常会大到让人瞠目结舌。比如Google Brain实验室今年发表的论文OUTRAGEOUSLY LA
Walton
2018/04/16
1.5K0
浅尝TensorFlow on Kubernetes
资源 | TensorFlow分布式计算机制解读:以数据并行为重
选自clindatsci 作者:Neil Tenenholtz 机器之心编译 参与:Jane W、黄小天 Tensorflow 是一个为数值计算(最常见的是训练神经网络)设计的流行开源库。在这个框架中,计算流程通过数据流程图(data flow graph)设计,这为更改操作结构与安置提供了很大灵活性。TensorFlow 允许多个 worker 并行计算,这对必须通过处理的大量训练数据训练的神经网络是有益的。此外,如果模型足够大,这种并行化有时可能是必须的。在本文中,我们将探讨 TensorFlow 的
机器之心
2018/05/08
9580
资源 | TensorFlow分布式计算机制解读:以数据并行为重
深度学习_1_神经网络_4_分布式Tensorflow
​ 1,创建一个tf.train.ClusterSpec,用于对集群的所有任务进行描述,该描述对于所有任务相同
Dean0731
2020/05/08
3090
Tensorflow笔记:高级封装——tf.Estimator
Google官方给出了两个tensorflow的高级封装——keras和Estimator,本文主要介绍tf.Estimator的内容。tf.Estimator的特点是:既能在model_fn中灵活的搭建网络结构,也不至于像原生tensorflow那样复杂繁琐。相比于原生tensorflow更便捷、相比与keras更灵活,属于二者的中间态。
共产主义搬砖人
2021/09/24
2.4K0
[源码解析] 深度学习分布式训练框架 horovod (18) --- kubeflow tf-operator
Horovod 是一款基于 AllReduce 的分布式训练框架。凭借其对 TensorFlow、PyTorch 等主流深度学习框架的支持,以及通信优化等特点,Horovod 被广泛应用于数据并行的训练中。
罗西的思考
2021/07/27
1.4K0
[源码解析] TensorFlow 分布式环境(1) --- 总体架构
在具体介绍 TensorFlow 分布式的各种 Strategy 之前,我们首先需要看看分布式的基础:分布式环境。只有把基础打扎实了,才能在以后的分析工作之中最大程度的扫清障碍,事半功倍。
罗西的思考
2022/05/09
5800
[源码解析] TensorFlow 分布式环境(1) --- 总体架构
TensorFlow简单介绍
TensorFlow深度学习框架 Google不仅是大数据和云计算的领导者,在机器学习和深度学习上也有很好的实践和积累,在2015年年底开源了内部使用的深度学习框架TensorFlow。 与Caffe、Theano、Torch、MXNet等框架相比,TensorFlow在Github上Fork数和Star数都是最多的,而且在图形分类、音频处理、推荐系统和自然语言处理等场景下都有丰富的应用。最近流行的Keras框架底层默认使用TensorFlow,著名的斯坦福CS231n课程使用TensorFlow作为授课和
IT派
2018/03/28
1K0
TensorFlow简单介绍
推荐阅读
相关推荐
3个关键点,把你的TensorFlow代码重构为分布式!
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验