作者:cluo
共享内存广泛用于Redis,Kafka,RabbitMQ 等高性能组件中,本文主要提供一个共享内存在广告埋点数据采集的实战场景。
在Linux中,每个进程都有属于自己的进程控制块(PCB)和地址空间(Addr Space),并且都有一个与之对应的页表,负责将进程的虚拟地址与物理地址进行映射,通过内存管理单元(MMU)进行管理。两个不同的虚拟地址通过页表映射到物理空间的同一区域,它们所指向的这块区域即共享内存。
当两个进程通过页表将虚拟地址映射到物理地址时,在物理地址中有一块共同的内存区,即共享内存,这块内存可以被两个进程同时看到。这样当一个进程进行写操作,另一个进程读操作就可以实现进程间通信。但是,我们要确保一个进程在写的时候不能被读,因此我们使用信号量来实现同步与互斥。
对于一个共享内存,实现采用的是引用计数的原理,当进程脱离共享存储区后,计数器减一,挂架成功时,计数器加一,只有当计数器变为零时,才能被删除。当进程终止时,它所附加的共享存储区都会自动脱离。
共享内存可以说是最有用的进程间通信方式,也是最快的IPC形式, 因为进程可以直接读写内存,而不需要任何 数据的拷贝。对于像管道和消息队列等通信方式,则需要在内核和用户空间进行四次的数据拷贝 共享内存则只拷贝两次数据: 一次从输入文件到共享内存区,另一次从共享内存区到输出文件。
实际上,进程之间在共享内 存时,并不总是读写少量数据后就解除映射,有新的通信时,再重新建立共享内存区域。而是保持共享区域,直 到通信完毕为止,这样,数据内容一直保存在共享内存中,并没有写回文件。共享内存中的内容往往是在解除映 射时才写回文件的。因此,采用共享内存的通信方式效率是非常高的。
传统文件
UNIX 访问文件的传统方法是用 open 打开它们,如果有多个进程访问同一个文件,则每一个进程在自己的地址空间都包含有该文件的副本,这不必要地浪费了存储空间。
下图说明了两个进程同时读一个文件的同一页的情形。系统要将该页从磁盘读到高速缓冲区中,每个进程再执行一个存储器内的复制操作将数据从高速缓冲区读到自己的地址空间。
共享存储映射
现在考虑另一种处理方法:进程 A 和进程 B 都将该页映射到自己的地址空间,当进程 A 第一次访问该页中的数据时, 它生成一个缺页中断。内核此时读入这一页到内存并更新页表使之指向它。以后,当进程B访问同一页面而出现缺页中断时,该页已经在内存,内核只需要将进程 B 的页表登记项指向次页即可。
(1)mmap()系统调用
mmap()系统调用使得进程之间通过映射同一个普通文件实现共享内存。普通文件被映射到进程地址空间后,进程可以向访问普通内存一样对文件进行访问,不必再调用read(),write()等操作。
mmap()系统调用形式如下:
void* mmap ( void * addr , size_t len , int prot , int flags , int fd , off_t offset )
mmap的作用是映射文件描述符fd指定文件的 [off,off + len]区域至调用进程的[addr, addr + len]的内存区域:
(2)mmap()返回地址的访问
对mmap()返回地址的访问,linux采用的是页式管理机制。
对于用mmap()映射普通文件来说,进程会在自己的地址空间新增一块空间,空间大小由mmap()的len参数指定,注意,进程并不一定能够对全部新增空间都能进行有效访问。
进程能够访问的有效地址大小取决于文件被映射部分的大小。
简单的说,能够容纳文件被映射部分大小的最少页面个数决定了进程从mmap()返回的地址开始,能够有效访问的地址空间大小。
超过这个空间大小,内核会根据超过的严重程度返回发送不同的信号给进程。可用如下图示说明:
VCS(vivo control system): 负责全网所有类型的监控指标采集,为上游运维平台提供底层命令通道能力和全网插件升级管控能力。
为了要确保一个进程在写的时候不能被读,我们使用idx来标记可读块。
下图描述的是从连续内存空间转化成【规则,维度,值】语义的过程:
通用监控上报协议:
general.proto
syntax = "proto2";
package general;
message Data {
map<string, string> kv = 1;
}
message GeneralData {
optional string rule_id = 1;
repeated Data data = 2;
optional int64 count = 3;
optional int64 left_size = 4;
optional int32 version = 5;
}
| 4k protect | magincNum1(4byte) | idx(4byte) | OssMapSz(1024*128byte)*2 | 4*64byte预留长度 | magincNum2(4byte) | 4k protect |
package moni_shm
const (
OssShmId uint32 = 0x3eeff00
MagicNum1 uint32 = 0x650a218
MagicNum2 uint32 = 0x138a4f2
CreateShmLock = "/var/run/.oss_shm_lock"
OssMapOneAttrCnt = 1024 * 128 //1024 个规则
OssOneAttrEntryCnt = 128 //每个规则有128个指标
EntrySz = 4
OssMapCnt = 2
OneAttrSz = OssOneAttrEntryCnt * EntrySz
OssMapSz = OssMapOneAttrCnt * OneAttrSz
OssAttrSz = OssMapSz*OssMapCnt + 4 + 4 + 64*4 + 4
defaultIntervalSec = 60
defaultTopic = "moni_general_shared_memory"
)
内存清零工具和"整页"分配:
cd package moni_shm
import (
"unsafe"
)
//取整分配
func align(actual, to uint64) uint64 {
return (actual + to - 1) / to * to
}
//连续空间清0
func zero(ptr uintptr, bts uint64) {
if 0 == bts {
return
}
const sz = 4096
var next uint64
cnt := 0
for ; next+sz <= bts; { //按页清零
arr := (*[sz]byte)(unsafe.Pointer(ptr))
for i := range *arr {
(*arr)[i] = 0
}
next += sz
ptr += uintptr(sz)
cnt++
}
if next == bts {
return
}
var i uintptr
for i = 0; i < uintptr(bts-next); i++ { //剩余空间清零
*(*byte)(unsafe.Pointer(ptr + i)) = 0
}
}
共享内存采集逻辑对应 “规则指标和值”:
var (
_basePtr uintptr = 0
_shmUtil = NewShmUtil(OssShmId, OssAttrSz)
_intervalSec = defaultIntervalSec
_topic = defaultTopic
_on bool = false
)
func Stat(on bool) {
_on = on
}
func Start() {
go collect() //开始采集
}
func tryInitBaseptr() error {
var err error
if _basePtr == 0 {
_basePtr, err = _shmUtil.GetData() //获取当前共享内存数据块首地址
if nil != err {
logrus.Warnf("init base ptr failed, retrying: %v", err)
}
}
return err
}
func collect() {
var (
cost time.Duration
start time.Time
first = true
)
for {
if !first {
time.Sleep(time.Second*(time.Duration(_intervalSec)) - cost) //周期对齐
}
first = false
start = time.Now()
if !_on {
cost = time.Since(start)
continue
}
if _basePtr == 0 {
if err := tryInitBaseptr(); nil != err {
cost = time.Since(start)
continue
}
}
d := collectOnce()
for _, v := range d {
moni_report.ProductReportData(*v)
}
cost = time.Since(start)
}
}
func collectOnce() []*moni_report.ReportData {
now := time.Now()
var ret []*moni_report.ReportData
data := make(map[uint32]*general.GeneralData)
d := SwitchAndFetch(_basePtr)
logrus.Infof("sending %d data from shm", len(d))
for _, v := range d {
ruleId := strconv.FormatUint(uint64(v[0]), 10)
dim := strconv.FormatUint(uint64(v[1]), 10)
value := strconv.FormatUint(uint64(v[2]), 10)
if _, ok := data[v[0]]; !ok {
data[v[0]] = &general.GeneralData{
RuleId: proto.String(ruleId),
Data: []*general.Data{},
}
}
data[v[0]].Data = append(data[v[0]].Data, &general.Data{
Kv: map[string]string{
dim: value,
"timestamp": strconv.FormatInt(now.Unix()*1000, 10),
"ip": viper.GetString("host.inner_ip"),
},
})
}
logrus.Infof("collect format shm data:%v", data)
for _, v := range data {
bts, err := proto.Marshal(v)
if nil != err {
logrus.Errorf("marshal shm data failed: %v", err)
continue
}
ret = append(ret, &moni_report.ReportData{
DataBytes: bts,
Topic: _topic,
})
}
return ret
}
每60秒根据idx值切换可读区,采集后上报后,清零,切换到下一区。
package moni_shm
import (
"fmt"
"log"
"os"
"syscall"
"unsafe"
"github.com/sirupsen/logrus"
)
const (
IpcCreate = 00001000
)
var (
ErrNotCreated = fmt.Errorf("shm not created")
ErrCreateFailed = fmt.Errorf("shm create failed")
)
type shmOpt func(*ShmUtil)
func WithCreate(b bool) shmOpt {
return func(u *ShmUtil) {
u.create = b
}
}
/*共享内存数据结构
|1page mprotect|page align data|1page mprotect|
| 4k protect | magincNum1(4byte) | idx(4byte) | OssMapSz(1024*128byte)*2 | 4*64byte预留长度 | magincNum2(4byte) | 4k protect |
*/
type ShmUtil struct {
pageSz int
dataSz uint64
total uint64
shmKey uint32
create bool
base uintptr
data uintptr
}
func NewShmUtil(key uint32, sz uint64, cfgs ...shmOpt) *ShmUtil {
if key == 0 {
panic("invalid shm key: 0")
}
ret := &ShmUtil{
dataSz: sz,
shmKey: key,
}
ret.pageSz = os.Getpagesize() //获取页大小
ret.dataSz = align(ret.dataSz, uint64(ret.pageSz)) //按页分配“包体”大小
ret.total = ret.dataSz + uint64(ret.pageSz)*2 // 总空间大小=包体大小 + 头尾各2页保护地址
for _, c := range cfgs {
c(ret)
}
return ret
}
func (s *ShmUtil) attachShm(flag int) error {
created := false
shmid, _, errno := syscall.Syscall(syscall.SYS_SHMGET, uintptr(s.shmKey), uintptr(s.total), uintptr(flag)) //使用已存在的共享内存,返回共享内存标识符
if 0 != errno {
return errno
}
if shmid < 0 {
if !s.create { //不允创建,直接返回
return ErrNotCreated
}
shmid, _, errno = syscall.Syscall(syscall.SYS_SHMGET, uintptr(s.shmKey), uintptr(s.total), uintptr(flag|IpcCreate)) //新创建共享内存
if 0 != errno {
return fmt.Errorf("shm create: %v", errno)
}
if shmid < 0 {
return ErrCreateFailed
}
created = true
}
addr, _, errno := syscall.Syscall(syscall.SYS_SHMAT, shmid, 0, 0) //挂接共享内存到当前进程
if 0 != errno {
return fmt.Errorf("shmat: %v", errno)
}
if created {
zero(addr, s.total)//新创建的共享内存,初始化共享内存数据
}
s.base = addr //记录共享内存首地址 用于之后的释放
s.data = s.base + uintptr(s.pageSz) //写数据的起始地址
_, _, errno = syscall.Syscall(syscall.SYS_MPROTECT, s.base, uintptr(s.pageSz), 0)
if 0 != errno { //锁定共享内存头,锁指定的内存区间必须包含整个内存页(4K)
s.detach()
return fmt.Errorf("mprotect head: %v", errno)
}
_, _, errno = syscall.Syscall(syscall.SYS_MPROTECT, s.data+uintptr(s.dataSz), uintptr(s.pageSz), 0) //锁指定共享内存尾,区间开始的地址start必须是一个内存页的起始地址,并且区间长度len必须是页大小的整数倍。
if 0 != errno {
s.detach()
return fmt.Errorf("mprotect tail: %v", errno)
}
return nil
}
func (s *ShmUtil) detach() { //进程去关联共享内存
if 0 != s.base {
syscall.Syscall(syscall.SYS_SHMDT, s.base, 0, 0)
s.base = 0
s.data = 0
}
}
/*
获取内存并且返回数据段起始位置
s.create 决定是否新申请共享内存
*/
func (s *ShmUtil) GetData() (uintptr, error) {
if s.data != 0 {
return s.data, nil
}
if err := s.attachShm(0666); nil != err { //初始化共享内存,并关联到进程
return 0, err
}
return s.data, nil
}
func SwitchAndFetch(ptr uintptr) [][3]uint32 { //从共享内存读取 [][3]uint32{ossid,key,value}
if ptr == 0 {
return nil
}
m1 := (*uint32)(unsafe.Pointer(ptr))
m2 := (*uint32)(unsafe.Pointer(ptr + 8 + OssMapSz*2 + 4*64))
if MagicNum1 != *m1 || MagicNum2 != *m2 {
logrus.Errorf("magic 1 in header: wrote:%v\tread:%v\n", MagicNum1, *m1)
logrus.Errorf("magic 2 in tail: wrote:%v\tread:%v\n", MagicNum2, *m2)
return nil
}
idx := (*uint32)(unsafe.Pointer(ptr + 4)) //切换块标志
old := *idx
*idx = 1 - *idx
ret := PartialRead(ptr, old) //读取当前idx块数据
zero(ptr+8+uintptr(old)*OssMapSz, OssMapSz) //读完清0
return ret
}
//根据idx轮流读数据区域
func PartialRead(ptr uintptr, idx uint32) [][3]uint32 { //根据idx获取块起始地址
startPtr := ptr + 8 + uintptr(idx)*OssMapSz
ret := ReadOssMap(startPtr)
log.Printf("result: %v\n", ret)
return ret
}
func ReadOssMap(ptr uintptr) [][3]uint32 { //1个周期内的指标总容量为 128*1024 = 128k = 13W
var ret [][3]uint32
var i uint32 = 0
for i = 0; i < OssMapOneAttrCnt; i++ { //1个周期最多支持1024个业务
for _, v := range ReadOneAttr(ptr) {
ret = append(ret, [3]uint32{i, v[0], v[1]}) // [osID,keyID,value]
}
ptr += OneAttrSz // OneAttrSz = OssOneAttrEntryCnt * EntrySz= 128*4
}
return ret
}
func ReadOneAttr(ptr uintptr) [][2]uint32 {
var ret [][2]uint32
var i uint32 = 0
for i = 0; i < OssOneAttrEntryCnt; i++ { //目前默认一个业务下最多有128单维度指标, OssOneAttrEntryCnt = 128
v := *(*uint32)(unsafe.Pointer(ptr))
if v != 0 {
ret = append(ret, [2]uint32{i, v}) // [keyID, value]
}
ptr += EntrySz // 4yte 读取一个指标
}
return ret
}
本文通过共享内存的原理和详细分析了一个共享内存在生产上的应用场景,希望能为大家抛砖引玉。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。