我正在使用此代码从文件中提取块
// info is FileInfo object pointing to file
var percentSplit = info.Length * 50 / 100; // extract 50% of file
var bytes = new byte[percentSplit];
var fileStream = File.OpenRead(fileName);
fileStream.Read(bytes, 0, bytes.Length);
fileStream.Dispose();
File.WriteAllBytes(splitName, bytes);
有什么方法可以加速这个过程吗?
目前,对于一个530MB的文件,大约需要4-5秒。这个时间还能改进吗?
发布于 2013-02-10 19:56:01
有几个案例你的问题,但没有一个是语言相关的。
下面是一些需要关注的事情
在c#中,你几乎没有比File.Copy
更快的方法,它在内部调用WINAPI
的CopyFile
。然而,由于百分比是50%,遵循代码可能不会更快的。它复制整个文件,然后设置目标文件的长度
var info=new FileInfo(fileName);
var percentSplit=info.Length*50/100; // extract 50% of file
File.Copy(info.FullName, splitName);
using(var outStream=File.OpenWrite(splitName))
outStream.SetLength(percentSplit);
此外,如果
在文件驱动器与源驱动器相同后,您不能保留原始源
然后,你能做的最好的事情就是,在中不要复制文件。例如,如果源文件位于FAT
或FAT32
文件系统上,则可以执行以下操作
G237
如果您的文件系统是NTFS
,那么您可能需要花费很长时间来研究该规范。
祝好运!
发布于 2013-02-26 02:27:58
var percentSplit = (int)(info.Length * 50 / 100); // extract 50% of file
var buffer = new byte[8192];
using (Stream input = File.OpenRead(info.FullName))
using (Stream output = File.OpenWrite(splitName))
{
int bytesRead = 1;
while (percentSplit > 0 && bytesRead > 0)
{
bytesRead = input.Read(buffer, 0, Math.Min(percentSplit, buffer.Length));
output.Write(buffer, 0, bytesRead);
percentSplit -= bytesRead;
}
output.Flush();
}
刷新可能不需要,但不会造成伤害,这非常有趣,将循环更改为do-while而不是一段时间对性能有很大影响。我想IL没有那么快。我的pc在4-6秒内运行了原始代码,附加的代码似乎运行了大约1秒。
发布于 2013-02-11 20:21:14
在以几兆字节为单位进行读/写时,我得到了更好的结果。性能也会根据数据块的大小而变化。
FileInfo info = new FileInfo(@"C:\source.bin");
FileStream f = File.OpenRead(info.FullName);
BinaryReader br = new BinaryReader(f);
FileStream t = File.OpenWrite(@"C:\split.bin");
BinaryWriter bw = new BinaryWriter(t);
long count = 0;
long split = info.Length * 50 / 100;
long chunk = 8000000;
DateTime start = DateTime.Now;
while (count < split)
{
if (count + chunk > split)
{
chunk = split - count;
}
bw.Write(br.ReadBytes((int)chunk));
count += chunk;
}
Console.WriteLine(DateTime.Now - start);
https://stackoverflow.com/questions/14794640
复制相似问题