腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
3
回答
包含字符串的打印行:奇数行为
、
、
我正在
使用
Python3试图模仿我编写了一些可以工作的代码,但是它停止在第一个实例上,而不是找到包含指定字符/字符串的所有行。/usr/bin/env python3#Made by Devyn Collier Johnson, NCLA,
Linux+
, LPIC-1, DCTS我正在
使用
这个文件和字符串进行测试。#!/usr
浏览 4
提问于2013-12-06
得票数 0
回答已采纳
1
回答
持久GPU共享
内存
、
、
、
我是CUDA编程的新手,由于性能原因,我主要
使用
每个块的共享
内存
。按照我现在的程序结构,我
使用
一个
内核
加载共享
内存
,
使用
另一个
内核
读取预先加载的共享
内存
。但是,据我所知,共享
内存
不能在两个不同的
内核
之间持久。第一个解决方案:我
使用
一个
内核
,而不是
使用
两个
内核
。在加载共享
内存
之
浏览 1
提问于2012-06-22
得票数 1
回答已采纳
1
回答
CUDA
内核
代码的设备
内存
:它是否可显式管理?
、
上下文: GeForce GTX480上的CUDA 4.0,Linux64位,NVIDIA UNIX x86_64
内核
模块270.41.19。 我尝试在我的程序中查找(设备)
内存
泄漏。我
使用
运行时API和cudaGetMemInfo(空闲,总
内存
)来测量设备
内存
使用
情况。我注意到在
内核
执行后有一个很大的损失(在这个例子中是31M)。
内核
代码本身不分配任何设备
内存
。所以我猜它是保留在设备
内存
中的
内核
代
浏览 3
提问于2011-08-22
得票数 1
3
回答
linux
内核
中的mmap()访问未映射
内存
、
、
、
、
我正在尝试
使用
linux
内核
中提供的mamp()功能。当我们在用户空间中调用mmap()时,我们尝试将用户空间进程的虚拟
内存
区域映射到
内核
空间中的
内存
。
内核
中mamp()的定义是在我的
内核
模块中完成的,它试图在页面中分配一些
内存
&在mmap系统调用期间映射它。这个
内核
空间
内存
的
内存
内容可以由这个模块来填充。我想问的问题是,在
内存
映射之后,用户空间进程可以通过-out任何额外
浏览 6
提问于2013-01-24
得票数 0
3
回答
堆栈
内存
是如何增加的?
、
、
在一个典型的C程序中,linux
内核
提供了84K - ~100K的
内存
。当进程
使用
给定的
内存
时,
内核
如何为堆栈分配更多的
内存
。当进程占用堆栈的所有
内存
并且现在
使用
下一个连续的
内存
时,理想情况下,它应该分页错误,然后
内核
处理分页错误。在这里,
内核
为给定进程的堆栈提供了更多的
内存
,linux
内核
中的哪个数据结构标识了该进程的堆栈的大小?
浏览 9
提问于2010-07-09
得票数 2
1
回答
使用
大量主机
内存
对OpenCL进行排队的
内核
我正在
使用
OpenCL
内核
对我的系统的大量副本执行monte扫描。在最初的调试阶段之后,我将一些参数增加到更真实的值,并注意到程序突然消耗了大量的主机
内存
。我正在对大约4000个副本执行1000次扫描,每个扫描包含两个
内核
调用。这导致了大约800万次
内核
调用。 当
内核
执行被排队时,
内存
使用
量就会增加。当
内核
执行时,
内存
使用</e
浏览 11
提问于2015-08-10
得票数 1
回答已采纳
1
回答
OpenCL常量
内存
缓存
、
如果我执行一个
使用
一小块常量
内存
的
内核
,然后在
内核
运行时写入该常量
内存
,
内核
是立即看到更改,还是在
内核
启动时将常量
内存
的内容“缓存”-或者OpenCL驱动程序是否无条件地延迟常量
内存
更新,直到
内核
运行完毕如果出现第一个或第三个选项,那么如何
使用
不同的常量
内存
数据同时执行相同的
内核
?我需要创建多个
内核
/常量缓冲区对象并
使用</em
浏览 0
提问于2012-05-29
得票数 1
回答已采纳
1
回答
CUDA统一
内存
可以用作固定
内存
(统一虚拟
内存
)吗?
、
、
如我所知,我们可以在
内核
内存
中分配固定
内存
区域。(来自)但是问题是linux
内核
数据应该被安排为数组。但是,当节点访问下一个节点时,会发生
内存
访问错误。 我想知道统一
内存
是否可以在
内核
内存
中作为固定
内存
区域分配?因此,树可以在统一
内存
区域中构建
浏览 3
提问于2016-03-21
得票数 3
1
回答
协同是一种由用户程序本身管理的线程(而不是由
内核
管理)吗?
、
、
、
、
照我的想法,Process是正在运行的程序的别名,其程序在用户
内存
区域中有独立的
内存
空间。哪个进程可以得到CPU的
使用
,完全由
内核
来管理;Coroutine是正在运行的程序的别
浏览 2
提问于2022-05-19
得票数 -2
1
回答
内核
如何访问其他进程的
内存
?
、
、
、
、
我在上读过以下文章 我几乎可以肯定的是,
内核
不能访问物理
内存
,只能访问虚拟
内存
。而且由于
内核
可以访问所有进程的所有页面表(我猜想这些页表存在于
内核
空间中),那么如果
内核
想要访问Process A的
内存
--例如,它可以
使用
Process A的页表,并通过这个页面表访问ProcessA的
内存
。
浏览 1
提问于2017-06-16
得票数 1
回答已采纳
1
回答
测量某个Linux驱动模块的
内存
使用
情况
、
、
、
我想检查一下我刚刚完成的
内核
驱动模块是否有
内存
泄漏问题。但我不知道如何在
内核
空间这样做。我认为动态
内存
分配很难处理。谁有在
内核
空间中调试这样的
内存
问题的经验?或者,我可以
使用
哪个工具来测量特定
内核
模块的动态
内存
使用
情况?
浏览 1
提问于2015-06-07
得票数 3
回答已采纳
2
回答
arm体系结构中的高
内存
、
、
、
当物理
内存
的大小接近或超过虚拟
内存
的最大大小时,
使用
高
内存
(highmem)。
使用
这种方法的架构的传统拆分是3:1,3GiB用于用户空间,顶部1GiB用于
内核
空间。这意味着
内核
最多只能映射1 GiB的物理
内存
。物理
内存
为1G的设备是否需要高
内存
?
使用
highmem c
浏览 1
提问于2013-01-31
得票数 1
回答已采纳
2
回答
用户空间和
内核
空间有什么区别?
、
、
当
内核
代表用户程序(即系统调用)执行时,是否
使用
内核
空间?或者是所有
内核
线程(例如调度程序)的地址空间?如果是第一个,那么这是否意味着普通用户程序的
内存
不能超过3GB (如果除法是3GB + 1GB)?此外,在这种情况下,
内核
如何
使用
高
内存
,因为高
内存
中的页面将被映射到哪个虚拟
内存
地址,1GB的
内核
空间将被逻辑映射?
浏览 0
提问于2013-08-21
得票数 111
回答已采纳
1
回答
帕伽索斯iOS攻击&
内核
内存
损坏
、
、
、
、
目前,我在Lookout上读到了iOS上
使用
3天零天的恶意软件--飞马号。关于飞马座的博客 我是一年级的cs学生,我知道恶意软件需要获得
内核
特权的访问权限才能完全控制系统,但我不明白这个过程是如何工作的。我真的很好奇,并在以后的学习中考虑专攻信息安全。对不起,我从来没有做过网络开发)从safari到
内核
?它是否
使用
恶意的javascript代码,或者我应该如何想象呢?那么它如何破坏webkit的
内存
,为什么给我
内存
位置呢?为什么程序/攻击者知道
内核
的
内
浏览 0
提问于2016-08-26
得票数 7
回答已采纳
1
回答
Linux 3/1拆分与物理映射
、
、
用户空间的所有
内存
都去哪里了?让
内核
始终保持不变的一件事可能是,在上下文开关上,current保持不变,不需要更改cr3。这个答案说: 高
内存
是用户空间程序可以处理的
内存
段.它不能触摸低
内存
。
浏览 0
提问于2019-02-12
得票数 3
回答已采纳
1
回答
OpenCL
内核
上GPU性能慢
、
、
、
该行动如下:
内存
对象#3上的
内核
#3以及
内核
#1和#2的输出
内存<
浏览 5
提问于2017-07-13
得票数 3
回答已采纳
1
回答
Linux
内存
映射
、
、
关于linux
内存
管理,我有几个问题(假设x86 32位平台) 有人能解释一下X86逻辑地址映射限制来自哪里吗?在"linux设
浏览 3
提问于2013-08-29
得票数 2
3
回答
如何在CUDA的
内核
调用之间
使用
共享
内存
?
、
、
我想在一个
内核
的
内核
调用之间
使用
共享
内存
。我可以在
内核
调用之间
使用
共享
内存
吗?
浏览 2
提问于2012-05-16
得票数 1
2
回答
Linux
内核
线程如何
使用
上一次运行进程的
内存
描述符(Mm_struct)?
、
因此,
内核
线程的进程描述符的mm字段为NULL。
内核
线程没有地址空间,并且mm为NULL。因此,当调度
内核
线程时,
内核
会注意到mm为NULL,并保持前一个进程的地址空间已加载。然后,
内核
会更新
内核
线程的进程描述符中的act
浏览 3
提问于2014-12-17
得票数 3
1
回答
CUDA常量
内存
分配是如何工作的?
、
、
、
、
我想深入了解常量
内存
是如何分配的(
使用
CUDA 4.2)。我知道总的可用常量
内存
是64KB。但是这个
内存
是什么时候在设备上实际分配的呢?这个限制是适用于每个
内核
、cuda上下文还是整个应用程序?假设在一个.cu文件中有几个
内核
,每个
内核
使用
不到64K的常量
内存
。但总的常量
内存
使用
量超过64K。是否可以按顺序调用这些
内核
?如果
使用
不同的流同时调用它们,会发生什么?如
浏览 5
提问于2013-01-23
得票数 13
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
微软 Win10 全新内核数据保护:内核内存变为只读
内存泄漏?从用户态跟踪到内核去
开发者发布补丁集,减少编译Linux内核时的最大内存使用量
Linux 内核将弃用并删除 SLOB 内存分配器
【精通内核】计算机程序的本质、内存组成与ELF格式
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券