首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >java对文件的操作如下

java对文件的操作如下

作者头像
热心的社会主义接班人
发布于 2018-12-14 08:34:45
发布于 2018-12-14 08:34:45
46000
代码可运行
举报
文章被收录于专栏:cscs
运行总次数:0
代码可运行
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
package day20181122;
import java.io.BufferedReader;
import java.io.BufferedWriter;
import java.io.File;
import java.io.FileInputStream;
import java.io.FileWriter;
import java.io.InputStreamReader;

public class ReadTxt {
    
  private   String fileName="stu.txt";
  
  public ReadTxt(String fileName) {
    
      this.fileName=fileName;
//    System.out.println("cionstruct");
  }
    
    public void readFile()
    {
     
        try {
            File file=new File(fileName);
            
            InputStreamReader in;
            in = new InputStreamReader(new FileInputStream(file),"utf-8");
            
             
            BufferedReader br=new BufferedReader(in);
            
             String line="";
            
              line=br.readLine();
              
              
              while(line!=null)
              {
                  
                  String[] data=line.split(";");
                  
                  int len=data.length;
                  
                  for(int i=0; i<len; i++)
                      System.out.println(data[i]+"-------");
                  
                  System.out.println(line);
                  line=br.readLine();             
              }                
              br.close();
            
        } catch (Exception e) {
            
            e.printStackTrace();
        }   
    }
    
    
 public void writeTxt(String filed)
 {
     
     String writeFileName="src/day20181122/student.txt";
     
     try {
         
         File f=new File(writeFileName);
         if(f.exists())
         f.createNewFile(); 
         BufferedWriter bw=new BufferedWriter(new FileWriter(f));
         bw.write(filed);
         bw.flush();
         bw.close();
         System.out.println("write file succeed");   
         
     }catch(Exception e) {
         e.printStackTrace();
     }
      
 }
    
     

}

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018.11.22 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
字节跳动开源高性能分布式训练框架BytePS,支持PyTorch、TensorFlow等
最近,字节跳动发布了一款通用高性能分布式训练框架 BytePS,该框架支持 TensorFlow、Keras、PyTorch 和 MXNet,并且可以在 TCP 或 RDMA 网络上运行。
机器之心
2019/07/12
1.2K0
字节跳动开源高性能分布式训练框架BytePS,支持PyTorch、TensorFlow等
字节跳动开源分布式训练框架BytePS,登上GitHub热榜
字节跳动开源了通用分布式训练框架BytePS,支持TensorFlow、Keras、PyTorch、MXNet,可以运行在TCP或RDMA网络中,大大优于现有的开源分布式训练框架。
昱良
2019/07/04
9940
字节跳动开源分布式训练框架BytePS,登上GitHub热榜
字节跳动开源分布式训练框架BytePS,登上GitHub热榜
字节跳动开源了通用分布式训练框架BytePS,这个框架支持TensorFlow、Keras、PyTorch、MXNet,可以运行在TCP或RDMA网络中。
量子位
2019/07/08
1.3K0
字节跳动开源分布式训练框架BytePS,登上GitHub热榜
基于Pytorch多机分布式训练的实现
由Uber公司的开发的Horovod架构,是一个集成了多个深度学习的统一平台,提供分布式训练效率的同事,让深度学习分布式训练变得更方便。
house.zhang
2022/03/28
1.6K0
新晋IEEE Fellow给字节跳动设计这样一张网!
今年 数据通信领域喜报连连 先有Nick大神荣获Bell Medal 然后研发IPv6路由的张老师喜提院士 上月最新IEEE Fellow评选揭晓字节跳动 郭传雄因对数据中心网络设计的贡献而获选 IEEE Fellow,即为 IEEE 会士,是 IEEE 最高等级会员,是 IEEE 授予成员的最高荣誉,在学术科技界被认定为权威的荣誉和重要的职业成就。当选人需要对工程科学与技术的进步或应用做出重大贡献,为社会带来重大价值。当选人数不超过 IEEE 当年会员总数的 0.1%。 郭大神当年在微软时 就专注于RDM
用户6874558
2023/02/15
1.8K0
新晋IEEE Fellow给字节跳动设计这样一张网!
分布式深度学习最佳入门(踩坑)指南
本文主要介绍了分布式深度学习的各框架以及一些分布式深度学习训练中的常见问题,如:docker及ssh环境问题、nccl多机通信问题等。
计算机视觉
2021/01/14
3.6K0
分布式深度学习最佳入门(踩坑)指南
伯克利与微软联合发布:任意网络结构下的最优GPU通信库Blink
随着机器学习模型,和数据量的不断增长,模型训练逐渐由单机训练,转变为分布式的多机训练。在分布式深度学习中,数据并行是最为常用的模型训练方式。然而数据并行的模型训练过程中,需要频繁的做数据聚合/模型同步。参与运算的 GPU 数量越多,其对应的数据聚合的开销也会越大。当下单个 GPU 的算力不断增加,GPU 间的数据聚合成成了新的分布式机器学习的瓶颈。
机器之心
2019/12/05
6100
突破 PyTorch、TensorFlow 并行瓶颈的开源训练加速框架到底是啥?
随着摩尔定律的失效,单个计算单元的能力已经远远无法满足数据的指数级增长。比如,快手每天上传的新视频超过千万条,即便训练简单的分类模型(比如 ResNet),使用单机单卡的算力,训练快手日内新增视频都需要超过一百天的时间。因此,在数据爆炸性增长的互联网行业,多机多卡的并行训练成为了大数据时代的必然。随着深度学习模型功能的日益强大,分布式训练任务的通信成本和所需算力也随之急剧增长。
代码医生工作室
2021/10/19
5440
一万亿模型要来了?谷歌大脑和DeepMind联手发布分布式训练框架Launchpad
正如吴恩达所言,当代机器学习算法的成功很大程度上是由于模型和数据集大小的增加,在大规模数据下进行分布式训练也逐渐变得普遍,而如何在大规模数据、大模型的情况下进行计算,还是一个挑战。
新智元
2021/07/06
5410
快手八卦!突破TensorFlow、PyTorch并行瓶颈的开源分布式训练框架来了!
近日,快手和苏黎世理工宣布开源分布式训练框架 Bagua(八卦),相比于 PyTorch、TensorFlow 等现有深度学习开源框架仅针对系统层面进行优化,Bagua 突破了这一点,专门针对分布式场景设计了特定的优化算法,实现了算法和系统层面的联合优化,性能较同类提升 60%。
Ai学习的老章
2021/07/28
8020
[源码解析] 深度学习分布式训练框架 Horovod (1) --- 基础知识
Horovod 是Uber于2017年发布的一个易于使用的高性能的分布式训练框架,在业界得到了广泛应用。
罗西的思考
2021/06/10
2.2K0
[源码解析] 深度学习分布式训练框架 Horovod (1) --- 基础知识
Tensorflow框架是如何支持分布式训练的?
大数据时代的互联网应用产生了大量的数据,这些数据就好比是石油,里面蕴含了大量知识等待被挖掘。深度学习就是挖掘数据中隐藏知识的利器,在许多领域都取得了非常成功的应用。然而,大量的数据使得模型的训练变得复杂,使用多台设备分布式训练成了必备的选择。
AI科技大本营
2019/05/06
1.5K0
Tensorflow框架是如何支持分布式训练的?
OneFlow | 新深度学习框架后浪(附源代码)
随着深度学习的发展,用户越来越依赖 GPU 或者其他加速器进行大规模运算。人工智能(Artificial Intelligence)需要更优秀的软件来释放硬件的能量已成业界共识。一方面,各种框架需要进一步降低编写深度学习分布式训练程序的门槛;另一方面,用户期待系统可以支持不同的深度学习网络模型,并实现线性加速。各知名深度学习框架正在朝这方面努力,但用户在使用这些框架时仍会遇到横向扩展性的难题,或者是投入很多计算资源但没有看到效率收益,或者是问题规模超过 GPU 显存限制而无法求解。
计算机视觉研究院
2020/08/06
1.1K0
OneFlow | 新深度学习框架后浪(附源代码)
大幅提升训练性能,字节提出新型分布式DNN训练架构
现有的分布式 DNN 训练架构无法充分利用异构资源实现高性能训练。近期,来自字节跳动和清华大学的研究人员提出一种新型分布式 DNN 训练架构——BytePS,解决了这一问题,实现了大规模训练性能的显著提升。这项工作已在国际顶级计算机系统会议 OSDI’20 上发表,其开源代码在 GitHub 上获得 2400 stars。
石晓文
2020/12/22
1.9K0
大幅提升训练性能,字节提出新型分布式DNN训练架构
6个github中star数最多的基于pytorch的衍生库
截止2022年11月8日,统计了下github中获星较多的pytorch生态库,有
用户9875047
2022/12/07
6960
6个github中star数最多的基于pytorch的衍生库
GPU 分布式 AI 训练加速引擎 TACO-Training 容器方案首发!
背景 随着 AI 模型规模的越来越大,训练数据的越来越多,用户对模型的迭代效率也要求越来越高,单个 GPU 的算力显然无法满足大部分业务场景,使用单机多卡或多机多卡训练成为趋势。单机多卡训练场景的参数同步借助目前 NVIDIA NVLINK 技术已经得到了很好地解决,而多机多卡场景由于对网络通信的强依赖就没有那么简单。 目前网卡厂商提供的 RoCE 等 RDMA 技术,使得多机通信效率大幅提升,但是如何在25G或 50G VPC 网络环境下提升分布式训练系统的通信效率,仍然是目前公有云厂商亟需解决的
腾讯云计算产品团队
2021/11/26
1.5K0
GPU 分布式 AI 训练加速引擎 TACO-Training 容器方案首发!
冯克环,腾讯云异构计算研发工程师,专注于云上 AI 训练加速相关技术,对 GPU 虚拟化、GPU 训练加速有深厚的积累,目前负责腾讯云 AI 训练加速相关技术的研发以及性能优化工作。 张锐,腾讯云网络虚拟化研发工程师,在之前的工作中专注于 AI 训练网络优化方面的工作,在 RDMA、GPU 通信优化等方面有较多经验,目前专注于做云上AI训练通信优化方面的工作。 背景 随着 AI 模型规模的越来越大,训练数据的越来越多,用户对模型的迭代效率也要求越来越高,单个 GPU 的算力显然无法满足大部分业务场景,使
腾讯云原生
2021/11/26
1.3K0
聊一聊深度学习分布式训练
在深度学习时代,训练数据特别大的时候想要单卡完成训练基本是不可能的。所以就需要进行分布式深度学习。在此总结下个人近期的研究成果,欢迎大佬指正。
NewBeeNLP
2022/06/06
3.5K2
聊一聊深度学习分布式训练
云原生分布式深度学习初探
大规模数据以及大型的神经网络结合在很多机器学习的任务上带来了超凡的表现。在训练深度学习模型的时候,当数据以及参数量变大的时候计算资源是决定我们算法迭代速度的关键要素之一。
溪歪歪
2020/09/09
1.7K1
云原生分布式深度学习初探
为了加速在GPU上进行深度学习训练,NVIDIA原来还做了这么多事情,你都知道么?
不同行业采用人工智能的速度取决于最大化数据科学家的生产力。NVIDIA每个月都会发布优化的NGC容器,为深度学习框架和库提供更好的性能,帮助科学家最大限度地发挥他们的潜力。英伟达持续投资于完整的数据科学栈,包括GPU架构、系统和软件栈。这种整体的方法为深度学习模型培训提供了最好的性能,NVIDIA赢得了提交给MLPerf的所有六个基准测试,这是第一个全行业的AI基准测试。NVIDIA在最近几年引入了几代新的GPU架构,最终在Volta和图灵GPU上实现了张量核心架构,其中包括对混合精度计算的本机支持。NVIDIA在MXNet和PyTorch框架上完成了这些记录,展示了NVIDIA 平台的多功能性。
GPUS Lady
2019/04/29
2.4K0
为了加速在GPU上进行深度学习训练,NVIDIA原来还做了这么多事情,你都知道么?
推荐阅读
相关推荐
字节跳动开源高性能分布式训练框架BytePS,支持PyTorch、TensorFlow等
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档