Go 通过 Map/Filter/ForEach 等流式 API 高效处理数据的思路详解
用过 java 的同学都熟悉 stream api,那么在 go 里我们可以用类似的方式处理集合数据吗?本文给大家介绍 go-zero 内置的 stream api,为了帮助理解,函数主要分为三类:获取操作、中间处理操作、终结操作。
什么是流处理
如果有 java 使用经验的同学一定会对 java8 的 stream 赞不绝口,极大的提高了们对于集合类型数据的处理能力。
int sum = widgets.stream() .filter(w -> w.getcolor() == red) .maptoint(w -> w.getweight()) .sum();
stream 能让我们支持链式调用和函数编程的风格来实现数据的处理,看起来数据像是在流水线一样不断的实时流转加工,最终被汇总。stream 的实现思想就是将数据处理流程抽象成了一个数据流,每次加工后返回一个新的流供使用。
stream 功能定义
动手写代码之前,先想清楚,把需求理清楚是最重要的一步,我们尝试代入作者的视角来思考整个组件的实现流程。首先把底层实现的逻辑放一下 ,先尝试从零开始进行功能定义 stream 功能。
stream 的工作流程其实也属于生产消费者模型,整个流程跟工厂中的生产流程非常相似,尝试先定义一下 stream 的生命周期:
- 创建阶段/数据获取(原料)
- 加工阶段/中间处理(流水线加工)
- 汇总阶段/终结操作(最终产品)
下面围绕 stream 的三个生命周期开始定义 api:
创建阶段
为了创建出数据流 stream 这一抽象对象,可以理解为构造器。
我们支持三种方式构造 stream,分别是:切片转换,channel 转换,函数式转换。
注意这个阶段的方法都是普通的公开方法,并不绑定 stream 对象。
// 通过可变参数模式创建 stream func just(items ...interface{}) stream // 通过 channel 创建 stream func range(source <-chan interface{}) stream // 通过函数创建 stream func from(generate generatefunc) stream // 拼接 stream func concat(s stream, others ...stream) stream
加工阶段
加工阶段需要进行的操作往往对应了我们的业务逻辑,比如:转换,过滤,去重,排序等等。
这个阶段的 api 属于 method 需要绑定到 stream 对象上。
结合常用的业务场景进行如下定义:
// 去除重复item distinct(keyfunc keyfunc) stream // 按条件过滤item filter(filterfunc filterfunc, opts ...option) stream // 分组 group(fn keyfunc) stream // 返回前n个元素 head(n int64) stream // 返回后n个元素 tail(n int64) stream // 转换对象 map(fn mapfunc, opts ...option) stream // 合并item到slice生成新的stream merge() stream // 反转 reverse() stream // 排序 sort(fn lessfunc) stream // 作用在每个item上 walk(fn walkfunc, opts ...option) stream // 聚合其他stream concat(streams ...stream) stream
加工阶段的处理逻辑都会返回一个新的 stream 对象,这里有个基本的实现范式
汇总阶段
汇总阶段其实就是我们想要的处理结果,比如:是否匹配,统计数量,遍历等等。
// 检查是否全部匹配 allmatch(fn predicatefunc) bool // 检查是否存在至少一项匹配 anymatch(fn predicatefunc) bool // 检查全部不匹配 nonematch(fn predicatefunc) bool // 统计数量 count() int // 清空stream done() // 对所有元素执行操作 forall(fn forallfunc) // 对每个元素执行操作 foreach(fn foreachfunc)
梳理完组件的需求边界后,我们对于即将要实现的 stream 有了更清晰的认识。在我的认知里面真正的架构师对于需求的把握以及后续演化能达到及其精准的地步,做到这一点离不开对需求的深入思考以及洞穿需求背后的本质。通过代入作者的视角来模拟复盘整个项目的构建流程,学习作者的思维方法论这正是我们学习开源项目最大的价值所在。
好了,我们尝试定义出完整的 stream 接口全貌以及函数。
接口的作用不仅仅是模版作用,还在于利用其抽象能力搭建项目整体的框架而不至于一开始就陷入细节,能快速的将我们的思考过程通过接口简洁的表达出来,学会养成自顶向下的思维方法从宏观的角度来观察整个系统,一开始就陷入细节则很容易拔剑四顾心茫然。。。
rxoptions struct { unlimitedworkers bool workers int } option func(opts *rxoptions) // key生成器 //item - stream中的元素 keyfunc func(item interface{}) interface{} // 过滤函数 filterfunc func(item interface{}) bool // 对象转换函数 mapfunc func(intem interface{}) interface{} // 对象比较 lessfunc func(a, b interface{}) bool // 遍历函数 walkfunc func(item interface{}, pip chan<- interface{}) // 匹配函数 predicatefunc func(item interface{}) bool // 对所有元素执行操作 forallfunc func(pip <-chan interface{}) // 对每个item执行操作 foreachfunc func(item interface{}) // 对每个元素并发执行操作 parallelfunc func(item interface{}) // 对所有元素执行聚合操作 reducefunc func(pip <-chan interface{}) (interface{}, error) // item生成函数 generatefunc func(source <-chan interface{}) stream interface { // 去除重复item distinct(keyfunc keyfunc) stream // 按条件过滤item filter(filterfunc filterfunc, opts ...option) stream // 分组 group(fn keyfunc) stream // 返回前n个元素 head(n int64) stream // 返回后n个元素 tail(n int64) stream // 获取第一个元素 first() interface{} // 获取最后一个元素 last() interface{} // 转换对象 map(fn mapfunc, opts ...option) stream // 合并item到slice生成新的stream merge() stream // 反转 reverse() stream // 排序 sort(fn lessfunc) stream // 作用在每个item上 walk(fn walkfunc, opts ...option) stream // 聚合其他stream concat(streams ...stream) stream // 检查是否全部匹配 allmatch(fn predicatefunc) bool // 检查是否存在至少一项匹配 anymatch(fn predicatefunc) bool // 检查全部不匹配 nonematch(fn predicatefunc) bool // 统计数量 count() int // 清空stream done() // 对所有元素执行操作 forall(fn forallfunc) // 对每个元素执行操作 foreach(fn foreachfunc) }
channel() 方法用于获取 stream 管道属性,因为在具体实现时我们面向的是接口对象所以暴露一个私有方法 read 出来。
// 获取内部的数据容器channel,内部方法 channel() chan interface{}
实现思路
功能定义梳理清楚了,接下来考虑几个工程实现的问题。
如何实现链式调用
链式调用,创建对象用到的 builder 模式可以达到链式调用效果。实际上 stream 实现类似链式的效果原理也是一样的,每次调用完后都创建一个新的 stream 返回给用户。
// 去除重复item distinct(keyfunc keyfunc) stream // 按条件过滤item filter(filterfunc filterfunc, opts ...option) stream
如何实现流水线的处理效果
所谓的流水线可以理解为数据在 stream 中的存储容器,在 go 中我们可以使用 channel 作为数据的管道,达到 stream 链式调用执行多个操作时异步非阻塞效果。
如何支持并行处理
数据加工本质上是在处理 channel 中的数据,那么要实现并行处理无非是并行消费 channel 而已,利用 goroutine 协程、waitgroup 机制可以非常方便的实现并行处理。
go-zero 实现
core/fx/stream.go
go-zero 中关于 stream 的实现并没有定义接口,不过没关系底层实现时逻辑是一样的。
为了实现 stream 接口我们定义一个内部的实现类,其中 source 为 channel 类型,模拟流水线功能。
stream struct { source <-chan interface{} }
创建 api
channel 创建 range
通过 channel 创建 stream
func range(source <-chan interface{}) stream { return stream{ source: source, } }
可变参数模式创建 just
通过可变参数模式创建 stream,channel 写完后及时 close 是个好习惯。
func just(items ...interface{}) stream { source := make(chan interface{}, len(items)) for _, item := range items { source <- item } close(source) return range(source) }
函数创建 from
通过函数创建 stream
func from(generate generatefunc) stream { source := make(chan interface{}) threading.gosafe(func() { defer close(source) generate(source) }) return range(source) }
因为涉及外部传入的函数参数调用,执行过程并不可用因此需要捕捉运行时异常防止 panic 错误传导到上层导致应用崩溃。
func recover(cleanups ...func()) { for _, cleanup := range cleanups { cleanup() } if r := recover(); r != nil { logx.errorstack(r) } } func runsafe(fn func()) { defer rescue.recover() fn() } func gosafe(fn func()) { go runsafe(fn) }
拼接 concat
拼接其他 stream 创建一个新的 stream,调用内部 concat method 方法,后文将会分析 concat 的源码实现。
func concat(s stream, others ...stream) stream { return s.concat(others...) }
加工 api
去重 distinct
因为传入的是函数参数keyfunc func(item interface{}) interface{}
意味着也同时支持按照业务场景自定义去重,本质上是利用 keyfunc 返回的结果基于 map 实现去重。
函数参数非常强大,能极大的提升灵活性。
func (s stream) distinct(keyfunc keyfunc) stream { source := make(chan interface{}) threading.gosafe(func() { // channel记得关闭是个好习惯 defer close(source) keys := make(map[interface{}]lang.placeholdertype) for item := range s.source { // 自定义去重逻辑 key := keyfunc(item) // 如果key不存在,则将数据写入新的channel if _, ok := keys[key]; !ok { source <- item keys[key] = lang.placeholder } } }) return range(source) }
使用案例:
// 1 2 3 4 5 just(1, 2, 3, 3, 4, 5, 5).distinct(func(item interface{}) interface{} { return item }).foreach(func(item interface{}) { t.log(item) }) // 1 2 3 4 just(1, 2, 3, 3, 4, 5, 5).distinct(func(item interface{}) interface{} { uid := item.(int) // 对大于4的item进行特殊去重逻辑,最终只保留一个>3的item if uid > 3 { return 4 } return item }).foreach(func(item interface{}) { t.log(item) })
过滤 filter
通过将过滤逻辑抽象成 filterfunc,然后分别作用在 item 上根据 filterfunc 返回的布尔值决定是否写回新的 channel 中实现过滤功能,实际的过滤逻辑委托给了 walk method。
option 参数包含两个选项:
- unlimitedworkers 不限制协程数量
- workers 限制协程数量
filterfunc func(item interface{}) bool func (s stream) filter(filterfunc filterfunc, opts ...option) stream { return s.walk(func(item interface{}, pip chan<- interface{}) { if filterfunc(item) { pip <- item } }, opts...) }
使用示例:
func testinternalstream_filter(t *testing.t) { // 保留偶数 2,4 channel := just(1, 2, 3, 4, 5).filter(func(item interface{}) bool { return item.(int)%2 == 0 }).channel() for item := range channel { t.log(item) } }
遍历执行 walk
walk 英文意思是步行,这里的意思是对每个 item 都执行一次 walkfunc 操作并将结果写入到新的 stream 中。
这里注意一下因为内部采用了协程机制异步执行读取和写入数据所以新的 stream 中 channel 里面的数据顺序是随机的。
// item-stream中的item元素 // pipe-item符合条件则写入pipe walkfunc func(item interface{}, pipe chan<- interface{}) func (s stream) walk(fn walkfunc, opts ...option) stream { option := buildoptions(opts...) if option.unlimitedworkers { return s.walkunlimited(fn, option) } return s.walklimited(fn, option) } func (s stream) walkunlimited(fn walkfunc, option *rxoptions) stream { // 创建带缓冲区的channel // 默认为16,channel中元素超过16将会被阻塞 pipe := make(chan interface{}, defaultworkers) go func() { var wg sync.waitgroup for item := range s.source { // 需要读取s.source的所有元素 // 这里也说明了为什么channel最后写完记得完毕 // 如果不关闭可能导致协程一直阻塞导致泄漏 // 重要, 不赋值给val是个典型的并发陷阱,后面在另一个goroutine里使用了 val := item wg.add(1) // 安全模式下执行函数 threading.gosafe(func() { defer wg.done() fn(item, pipe) }) } wg.wait() close(pipe) }() // 返回新的stream return range(pipe) } func (s stream) walklimited(fn walkfunc, option *rxoptions) stream { pipe := make(chan interface{}, option.workers) go func() { var wg sync.waitgroup // 控制协程数量 pool := make(chan lang.placeholdertype, option.workers) for item := range s.source { // 重要, 不赋值给val是个典型的并发陷阱,后面在另一个goroutine里使用了 val := item // 超过协程限制时将会被阻塞 pool <- lang.placeholder // 这里也说明了为什么channel最后写完记得完毕 // 如果不关闭可能导致协程一直阻塞导致泄漏 wg.add(1) // 安全模式下执行函数 threading.gosafe(func() { defer func() { wg.done() //执行完成后读取一次pool释放一个协程位置 <-pool }() fn(item, pipe) }) } wg.wait() close(pipe) }() return range(pipe) }
使用案例:
返回的顺序是随机的。
func test_stream_walk(t *testing.t) { // 返回 300,100,200 just(1, 2, 3).walk(func(item interface{}, pip chan<- interface{}) { pip <- item.(int) * 100 }, withworkers(3)).foreach(func(item interface{}) { t.log(item) }) }
分组 group
通过对 item 匹配放入 map 中。
keyfunc func(item interface{}) interface{} func (s stream) group(fn keyfunc) stream { groups := make(map[interface{}][]interface{}) for item := range s.source { key := fn(item) groups[key] = append(groups[key], item) } source := make(chan interface{}) go func() { for _, group := range groups { source <- group } close(source) }() return range(source) }
获取前 n 个元素 head
n 大于实际数据集长度的话将会返回全部元素
func (s stream) head(n int64) stream { if n < 1 { panic("n must be greather than 1") } source := make(chan interface{}) go func() { for item := range s.source { n-- // n值可能大于s.source长度,需要判断是否>=0 if n >= 0 { source <- item } // let successive method go asap even we have more items to skip // why we don't just break the loop, because if break, // this former goroutine will block forever, which will cause goroutine leak. // n==0说明source已经写满可以进行关闭了 // 既然source已经满足条件了为什么不直接进行break跳出循环呢? // 作者提到了防止协程泄漏 // 因为每次操作最终都会产生一个新的stream,旧的stream永远也不会被调用了 if n == 0 { close(source) break } } // 上面的循环跳出来了说明n大于s.source实际长度 // 依旧需要显示关闭新的source if n > 0 { close(source) } }() return range(source) }
使用示例:
// 返回1,2 func testinternalstream_head(t *testing.t) { channel := just(1, 2, 3, 4, 5).head(2).channel() for item := range channel { t.log(item) } }
获取后 n 个元素 tail
这里很有意思,为了确保拿到最后 n 个元素使用环形切片 ring 这个数据结构,先了解一下 ring 的实现。
// 环形切片 type ring struct { elements []interface{} index int lock sync.mutex } func newring(n int) *ring { if n < 1 { panic("n should be greather than 0") } return &ring{ elements: make([]interface{}, n), } } // 添加元素 func (r *ring) add(v interface{}) { r.lock.lock() defer r.lock.unlock() // 将元素写入切片指定位置 // 这里的取余实现了循环写效果 r.elements[r.index%len(r.elements)] = v // 更新下次写入位置 r.index++ } // 获取全部元素 // 读取顺序保持与写入顺序一致 func (r *ring) take() []interface{} { r.lock.lock() defer r.lock.unlock() var size int var start int // 当出现循环写的情况时 // 开始读取位置需要通过去余实现,因为我们希望读取出来的顺序与写入顺序一致 if r.index > len(r.elements) { size = len(r.elements) // 因为出现循环写情况,当前写入位置index开始为最旧的数据 start = r.index % len(r.elements) } else { size = r.index } elements := make([]interface{}, size) for i := 0; i < size; i++ { // 取余实现环形读取,读取顺序保持与写入顺序一致 elements[i] = r.elements[(start+i)%len(r.elements)] } return elements }
总结一下环形切片的优点:
- 支持自动滚动更新
- 节省内存
环形切片能实现固定容量满的情况下旧数据不断被新数据覆盖,由于这个特性可以用于读取 channel 后 n 个元素。
func (s stream) tail(n int64) stream { if n < 1 { panic("n must be greather than 1") } source := make(chan interface{}) go func() { ring := collection.newring(int(n)) // 读取全部元素,如果数量>n环形切片能实现新数据覆盖旧数据 // 保证获取到的一定最后n个元素 for item := range s.source { ring.add(item) } for _, item := range ring.take() { source <- item } close(source) }() return range(source) }
那么为什么不直接使用 len(source) 长度的切片呢?
答案是节省内存。凡是涉及到环形类型的数据结构时都具备一个优点那就省内存,能做到按需分配资源。
使用示例:
func testinternalstream_tail(t *testing.t) { // 4,5 channel := just(1, 2, 3, 4, 5).tail(2).channel() for item := range channel { t.log(item) } // 1,2,3,4,5 channel2 := just(1, 2, 3, 4, 5).tail(6).channel() for item := range channel2 { t.log(item) } }
元素转换map
元素转换,内部由协程完成转换操作,注意输出channel并不保证按原序输出。
mapfunc func(intem interface{}) interface{} func (s stream) map(fn mapfunc, opts ...option) stream { return s.walk(func(item interface{}, pip chan<- interface{}) { pip <- fn(item) }, opts...) }
使用示例:
func testinternalstream_map(t *testing.t) { channel := just(1, 2, 3, 4, 5, 2, 2, 2, 2, 2, 2).map(func(item interface{}) interface{} { return item.(int) * 10 }).channel() for item := range channel { t.log(item) } }
合并 merge
实现比较简单,我考虑了很久没想到有什么场景适合这个方法。
func (s stream) merge() stream { var items []interface{} for item := range s.source { items = append(items, item) } source := make(chan interface{}, 1) source <- items return range(source) }
反转 reverse
反转 channel 中的元素。反转算法流程是:
- 找到中间节点
- 节点两边开始两两交换
注意一下为什么获取 s.source 时用切片来接收呢? 切片会自动扩容,用数组不是更好吗?
其实这里是不能用数组的,因为不知道 stream 写入 source 的操作往往是在协程异步写入的,每个 stream 中的 channel 都可能在动态变化,用流水线来比喻 stream 工作流程的确非常形象。
func (s stream) reverse() stream { var items []interface{} for item := range s.source { items = append(items, item) } for i := len(items)/2 - 1; i >= 0; i-- { opp := len(items) - 1 - i items[i], items[opp] = items[opp], items[i] } return just(items...) }
使用示例:
func testinternalstream_reverse(t *testing.t) { channel := just(1, 2, 3, 4, 5).reverse().channel() for item := range channel { t.log(item) } }
排序 sort
内网调用 slice 官方包的排序方案,传入比较函数实现比较逻辑即可。
func (s stream) sort(fn lessfunc) stream { var items []interface{} for item := range s.source { items = append(items, item) } sort.slice(items, func(i, j int) bool { return fn(i, j) }) return just(items...) }
使用示例:
// 5,4,3,2,1 func testinternalstream_sort(t *testing.t) { channel := just(1, 2, 3, 4, 5).sort(func(a, b interface{}) bool { return a.(int) > b.(int) }).channel() for item := range channel { t.log(item) } }
拼接 concat
func (s stream) concat(steams ...stream) stream { // 创建新的无缓冲channel source := make(chan interface{}) go func() { // 创建一个waigroup对象 group := threading.newroutinegroup() // 异步从原channel读取数据 group.run(func() { for item := range s.source { source <- item } }) // 异步读取待拼接stream的channel数据 for _, stream := range steams { // 每个stream开启一个协程 group.run(func() { for item := range stream.channel() { source <- item } }) } // 阻塞等待读取完成 group.wait() close(source) }() // 返回新的stream return range(source) }
汇总 api
全部匹配 allmatch
func (s stream) allmatch(fn predicatefunc) bool { for item := range s.source { if !fn(item) { // 需要排空 s.source,否则前面的goroutine可能阻塞 go drain(s.source) return false } } return true }
任意匹配 anymatch
func (s stream) anymatch(fn predicatefunc) bool { for item := range s.source { if fn(item) { // 需要排空 s.source,否则前面的goroutine可能阻塞 go drain(s.source) return true } } return false }
一个也不匹配 nonematch
func (s stream) nonematch(fn func(item interface{}) bool) bool { for item := range s.source { if fn(item) { // 需要排空 s.source,否则前面的goroutine可能阻塞 go drain(s.source) return false } } return true }
数量统计 count
func (s stream) count() int { var count int for range s.source { count++ } return count }
清空 done
func (s stream) done() { // 排空 channel,防止 goroutine 阻塞泄露 drain(s.source) }
迭代全部元素 forall
func (s stream) forall(fn forallfunc) { fn(s.source) }
迭代每个元素 foreach
func (s stream) forall(fn forallfunc) { fn(s.source) }
小结
至此 stream 组件就全部实现完了,核心逻辑是利用 channel 当做管道,数据当做水流,不断的用协程接收/写入数据到 channel 中达到异步非阻塞的效果。
回到开篇提到的问题,未动手前想要实现一个 stream 难度似乎非常大,很难想象在 go 中 300 多行的代码就能实现如此强大的组件。
实现高效的基础来源三个语言特性:
- channel
- 协程
- 函数式编程
参考资料
项目地址
https://github.com/zeromicro/go-zero
到此这篇关于go 通过 map/filter/foreach 等流式 api 高效处理数据的文章就介绍到这了,更多相关go 流式 api 处理数据内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!
上一篇: 前端如何更好的展示后端返回的十万条数据
下一篇: golang 数组随机排序的实现