Go中的缓存现状

每个数据库都需要一个智能的缓存系统。缓存需要保存最近最频繁访问的内容,并且支持配置一些限制上的配置。

作为一个图形数据库,Dgraph可以在每次查询中,访问数千甚至数百万的key。这个功能主要依赖于他中间结果的数量。由于通过键值对访问数据库会导致磁盘上的查询操作,出于对性能方面的考虑(磁盘访问速度不及内存),我们希望优化这块的性能。

通常的访问模式都遵循 ZipFian分布,访问频率最高的key,比其他的key访问次数要多很多。从Dgraph中也能看到这一点(热点Key的问题)。

我们非常高兴能用Go语言来实现我们的Dgraph 组件,关于为什么Go语言适合做后端开发,这个内容太多了,在这里不赘述了。尽管Go的生态还不够健全,但不能否认Go是一个很不错的编程语言,而且我们也不会用别的语言来替代Go。

关于Go生态缺失的怨言随处可见。但是我觉得Go是成熟的,他已经实现了对机器内核的快速编译,执行和利用内核完成工作。但是作为一个致力于构建高并发的编程语言,对于性能上仍然有一些缺陷,并发库可以很好地扩展内核数量。对于并发的数组和字典,用户可以自由的使用和练习。对于串行语言来说,这样是合理的,但是对于以并行构建的编程语言,这点上似乎有一些缺陷。

特别的是,Go缺少并发的LRU/LFU 缓存,这两者可以很好地扩展到全局缓存中。在这片博客里面,我会带你一起来了解一下通常情况下的各种处理方式,包括在我的的Dgraph中进行的一些测试。Aman 同时也会展示一些目前Go生态中的设计理念,性能,命令率等的一些实践内容。

缓存框架的必备需求

  1. 并发
  2. 内存限制(限制最大的可使用空间)
  3. 在多核和多goroutines之间更好的扩展
  4. 在非随机密钥的情况下,很好地扩展(eg. Zipf)
  5. 更高的缓存命中率

Go map 与 sync.Mutex的结合使用

Go map 结合 sync.Mutex 是应对缓存的常见形式(独占所)。但这也确实会导致所有的Goroutines同时在一个地方锁住, 产生严重的锁竞争问题。而且也不能对内存的使用量做限制。所以对于有内存限制要求的场景,这个方案不适用。

不满足 上面的2,3,4条

Go maps 与 lock striping

这个方式的原理与上面的一样,但是锁的粒度更小(详见这里),很多程序员错误的认为,降低锁的粒度可以很好地避免竞争,特别是在分片数超过程序的线程数时(GOMAXPROCS)

在我们尝试编写一个简单的内存限制缓存的时候,我们也是这样做的。为了保证内存可以在释放之后还给操作系统。我们定期扫描我们的分片,然后释放掉创建的map,方便以后被再次使用。这种粗浅的方式却很有效,并且性能优于LRU(后面会解释),但是也有很多不足。

  1. Go请求内存很容易,但释放给操作系统却很难。当碎片被清空的同时,goroutines去访问key的时候,会开始分配内存空间,此时之前的内存空间并没有被完全释放,这导致内存的激增,甚至会出发OOM错误。
  2. 我们没有意识到,访问的模式还受Zipf定律的束缚。最常访问的几个key仍然存在几个锁,因此产生goroutines的竞争问题。这种方式不满足多核之间的扩展的需求。

不满足 上面的2,4条

LRU 缓存

Go 里面,groupcache 实现了一个基本的LRU 缓存,在通过lock striping实现失败之后,我们通过引入lock的方式优化了LRU的这部分内容,使它支持了并发。虽然这样解决了上面描述的内存激增的问题,但是我们意识到他同样地会引入竞争的问题。

这个缓存的大小同样也依赖于缓存的条数,而不是他们消耗的内存量。在Go的堆上面计算复杂的数据结构所消耗的内存大小是非常麻烦的,几乎不可能实现。我们尝试了很多方式,但是都无法奏效。缓存被放入之后,大小也在不停地变化(我们计划之后避免这种情况)

我们无法预估缓存会引起多少的竞争。在使用了近一年的情况下,我们意识到缓存上面的竞争有多严重,删除掉这块之后,我们的缓存效率提高了10倍。

在这块的实现上,每次读取缓存会更新链表中的相对位置。因此每个访问都在等待一个互斥锁。此外LRU的速度比Map要慢,而且在反复的进行指针的释放,维护一个map和一个双向链表。尽管我们在惰性加载上面不断地优化,但依然遭受到竞争的而影响。

不满足3,4

分片LRU 缓存

我们没有实际的去尝试,但是依据我们的经验,这只会是一个暂时的解决方法,而且并不能很好地扩展。(不过在下面的测试里面,我们依然实现了这个解决方案)

不满足4

流行的缓存实现方式

许多方法的优化点是节省GC在map碎片上花费的时间。GC的时间会随着map存数数量的增加而增大。减少的方案就是分配更少的数量,单位空间更大的区域,在每个空间上存储更多的内容。这确实是一个有效地方法,我们在Badger里面大量的使用了这个方法(Skiplist,Table builder 等)。 很多Go流行的缓存框架也是这么做的。

BigCache的缓存

BigCache会通过Hash的方式进行分片。 每个分片都包含一个map和一个ring buffer。无论如何添加元素,都会将它放置在对应的ring buffer中,并将位置保存在map中。如果多次设置相同的元素,则ring buffer中的旧值则会被标记为无效,如果ring buffer太小,则会进行扩容。

每个map的key都是一个uint32的 hash值,每个值对应一个存储着元数据的ring buffer。如果hash值碰撞了,BigCache会忽略旧key,然后把新的值存储到map中。预先分配更少,更大的ring buffer,使用map [uint32] uint32是避免支付GC扫描成本的好方法

FreeCache

FreeCache 将缓存分成了256段,每段包括256个槽和一个ring buffer存储数据。当一个新的元素被添加进来的时候,使用hash值下8位作为标识id,通过使用LSB 9-16的值作为槽ID。将数据分配到多个槽里面,有助于优化查询的时间(分治策略)。

数据被存储在ring buffer中,位置被保存在一个排序的数组里面。如果ring buffer 内存不足,则会利用LRU的策略在ring buffer逐个扫描,如果缓存的最后访问时间小于平均访问的时间,就会被删掉。要找到一个缓存内容,在槽中是通过二分查找法对一个已经排好的数据进行查询。

GroupCache

GroupCache使用链表和Map实现了一个精准的LRU删除策略的缓存。为了进行公平的比较,我们在GroupCache的基础上,实现了一个包括256个分片的切片结构。

性能对比

为了比较各种缓存的性能,我们生成了一个zipf分布式工作负载,并使用n1-highcpu-32机器运行基准测试。下表比较了三个缓存库在只读工作负载下的性能。

只读情况

img

我们可以看到,由于读锁是无消耗的,所以BigCache的伸缩性更好。FreeCache和GroupCache读锁是有消耗的,并且在并发数达到20的时候,伸缩性下降了。(Y轴越大越好)

只写情况

img

设置最大缓存

debug.SetMaxStack函数

debug.SetMaxStack函数的功能是约束单个Groutine所能申请的栈空间的最大尺寸。

debug.SetMaxThreads函数

debug.SetMaxThreads函数的功能是对go语言运行时系统所使用的内核线程的数量(确切的说是M的数量)进行设置

runtime.GC函数

会让运行时系统进行一次强制性的垃圾收集,

  1. 强制的垃圾回收:不管怎样,都要进行的垃圾回收。
  2. 非强制的垃圾回收:只会在一定条件下进行的垃圾回收(即运行时,系统自上次垃圾回收之后新申请的堆内存的单元(也成为单元增量)达到指定的数值)。

debug.SetGCPercent函数

用于设置一个比率(垃圾收集比率),前面所说的单元增量与前一次垃圾收集时的岁内存的单元数量和此垃圾手机比率有关。

<触发垃圾收集的堆内存单元增量>=<上一次垃圾收集完的堆内存单元数量>*(<垃圾收集比率>/100)

发表评论

邮箱地址不会被公开。 必填项已用*标注