2. 中国科学院 软件研究所, 北京 100190;
3. 中国科学院大学, 北京 100049;
4. 计算机科学国家重点实验室, 北京 100190
2. Institute of Software, Chinese Academy of Sciences, Beijing 100190, China;
3. University of Chinese Academy of Sciences, Beijing 100049, China;
4. State Key Laboratory of Computer Science, Beijing 100190, China
随着信息时代的到来, 互联网、物联网、云计算等技术的飞速发展和广泛应用, 数据在各个行业不断地产生、积累并爆发式增长, 已经成为一种重要的生产因素, 并渗透到每一个行业和业务职能领域[1]. 大数据被喻为“未来的新石油”[2], 已经成为社会各界关注的热点, 甚至成为各界争夺的焦点, 大数据时代已经到来. 相较于传统的数据, 大数据具有数据规模大、数据类型多、数据处理速度快、数据价值密度低等特征, 这些特征对大数据处理和应用提出了更高的要求和更大的挑战.
目前对大数据处理的形式主要包括批式处理和流式处理[3]. 其中, 批式处理是指对静态有界数据的处理, 对计算的实时性要求不高且应用场景广泛, 具有代表性的批量大数据处理系统有Apache Hadoop[4]和Apache Spark[5]等. 但是, 随着社交网络、电子商务等技术的飞速发展和应用, 越来越多的应用场景要求从海量的数据中及时获取价值, 并以很低的延迟来分析实时数据. 例如, 以阿里巴巴为代表的电商平台基于流式大数据处理系统实时统计和分析用户行为, 更新商品搜索引擎. 因此, 针对流式大数据的实时处理越来越流行, 应用场景也越来越重要. 流式大数据处理系统的地位日渐凸显, 在业界也已经有了非常广泛的应用, 常见的有Apache Strom[6]、Apache Flink[7]、Apache Spark Streaming[8]等.
流式数据本身的实时性、难重复以及动态变化等特性, 以及流式数据计算所需的数据无限性、计算有界性、计算实时性等特征, 对流式大数据处理系统的性能和可靠性提出了更高的要求. 流式大数据处理系统需要提供低延迟的数据处理, 同时保证计算的正确性. 然而, 随着集群规模的扩大, 系统发生故障的概率也会增大, 无法预知的错误可能会随时出现在任意一个节点. 一旦大数据处理系统出现问题, 可能会产生不可挽回的损失. 因此, 针对流式大数据处理系统及其基准测试框架的研究已经成为了一个热点问题.
现今已有多种流式大数据基准测试框架, 如Yahoo! Streaming Benchmark[9]和HiBench[10]等. 但Yahoo! Streaming Benchmark应用场景单一, 覆盖程度较低; HiBench仅能够支持简单流式数据, 本质仍是一个批式大数据基准测试框架. 因此, 现有流式大数据处理系统基准测试框架仍存在不足, 比如应用场景的设计较为简单, 评价指标选取上较为单一, 集中在吞吐量和延迟等.
针对现有流式大数据处理系统基准测试框架的不足和面临的挑战, 本文设计并实现了一个股票交易场景下的流式大数据处理系统基准测试框架. 该框架包括流式数据生成方法、应用场景构造和评价指标3个部分, 以Socket作为流式数据源, 选取真实的股票交易数据构造了三个数据流, 具体应用覆盖GroupBy操作和Join操作, 并选取延迟、吞吐量、GC时间和CPU利用率作为评价指标, 构建了一个实时计算与结构化数据相结合的场景. 此外, 本文还针对数据输入速率和执行器内核数量设计了两个实验, 在Apache Spark Streaming中对该框架进行实际的集群测试, 对测试结果进行分析并得出结论, 分析系统性能表现, 同时发现大数据处理系统存在的问题, 并分析瓶颈所在, 从而尽大可能地减少实际运行过程中可能出现的故障. 本文的主要贡献如下:
(1)总结了现有流式大数据处理系统基准测试框架特点及其不足.
(2)提出了一种流式数据生成方法, 并使用多种测试指标进行结果评测.
(3)设计并实现了一个基于股票交易场景的流式大数据处理系统基准测试框架.
(4)应用流式大数据处理系统基准测试框架对Apache Spark Streaming进行性能测试, 发现并分析系统的不足.
1 相关工作不同于批式大数据处理, 流式大数据处理起步较晚, 目前在业内并没有统一的基准测试标准. 现有的流式大数据处理系统基准测试框架的相关研究如下.
Hesse和Lorenz[11]从体系结构等方面对比了Apache Storm、Flink、Spark Streaming 和Samza platforms. Gradvohl等人[12]从系统容错方面分析对比了Google Millwheel[13]、Yahoo Apache S4[14]、Spark Streaming和Storm. 然而, 这两篇文献仅限于概念性讨论, 没有实验性的定量性能评估. Nabi等人[15]提出了一个基准测试, 测量Apache Spark和Apache Storm的延迟和吞吐量, 为流处理平台的实验比较创造了第一步. Dayarathna和Suzumura[16]使用基准测试比较了3个流处理系统的吞吐量、CPU和内存消耗以及网络使用情况.
此外, 部分流式大数据处理系统的开发厂商选择了自己认为有代表性、能验证系统功能性的应用场景进行测试. 如Yahoo!开发的分布式流计算平台S4选取了广告点击率计算(Click-Through Rate)进行性能验证, 以测试S4处理流式数据的极限[2]. Apache Storm选取一个简单的应用, 统计了不同应用下参与的用户数, 并测试其在故障下的表现[17]. Apache Spark Streaming仅对Grep、WordCount、TopKCount这3个常见应用的吞吐量和故障恢复能力进行测试. 应用场景简单以及流式计算特征的覆盖率低使得这些测试框架无法全面的剖析流式大数据处理系统所面临的性能及可靠性问题.
现有的针对多种流式大数据处理系统的基准测试框架, 其测试系统大多以Apache Storm、Apache Spark和Apace Flink为主. 例如Lopez等人[18]提出了一个针对Apache Storm、Apache Spark和Apace Flink的基准测试框架, 测试了3个系统在节点故障情况下的吞吐量. Karimov等人[19]提出了一个分布式流处理引擎基准测试框架, 对Apache Storm、Apache Spark和Apache Flink的性能进行评估, 并定义和测试流式大数据处理系统的可持续性能. 由Yahoo!的一个团队设计并实现的Yahoo! Streaming Benchmark通过Kafka和Redis进行数据检索和存储, 对Apache Storm、Apache Spark和Apace Flink进行实验, 测量了延迟和吞吐量[9]. Perera等人使用Yahoo! Streaming Benchmark和Karamel[20]在云环境中提供Apache Spark和Apache Flink的可复制批处理和流基准[21]. 但Yahoo! Streaming Benchmark 在应用场景上覆盖度较低, 且只支持一个工作负载.
综上所述, 现有的流式大数据处理系统基准测试框架还存在各种不足, 应用用场景设计较为简单, 评价指标选取上较为单一, 集中在吞吐量和延迟. 针对现有的流式大数据处理系统基准测试框架存在的不足, 本文构造了股票高频交易场景, 并选择延迟、吞吐量、GC时间和CPU利用率作为评价指标.
2 流式大数据系统基准测试框架设计与实现本文基于流式大数据及其特征, 设计并实现了一个流式大数据处理系统基准测试框架, 包括流式数据生成方法、应用场景构造和评价指标.
通过流式数据生成方法, 生成符合流式特征的股票交易数据; 通过应用场景构造, 构建一个股票交易场景用于系统测试; 通过明确测试评价指标, 收集并分析指标数据, 从而分析系统性能并得出测试结论. 基准测试系统架构图如图1所示.
2.1 流式数据生成方法
一般的批式大数据可以预先产生和存储, 使用方便. 而由于流式计算的有界性和实时性等特点, 数据生成需提供实时、高速的流式数据, 从而通过测试发现系统的瓶颈, 保证基准测试的有效性, 这些都对流式大数据的生成方式提出了更为严格的要求.
Apache Spark Streaming提供了两种数据源, 基础数据源和高级数据源. 基础数据源是Streaming API中直接提供的数据源, 如socket套接字、文件系统等. 高级数据源是通过第三方类提供支持, 如Kafka、Flume、Kinesis、Twitter等. 由于使用第三方工具生成数据本身会对性能有所影响[22], 因此本文选用基础的Socket传输方式作为Apache Spark Streaming的数据源. Socket传输方式可通过程序控制向指定端口发送数据, 并可以通过调节参数改变数据的传输速度, 以生成不同流速的流式大数据.
针对股票高频交易这一应用场景, 本文选择了现实的股票交易数据作为数据源, 主要涉及的数据类型为数值型和字符型, 方便进行流式SQL的计算.
2.2 应用场景构造流式计算的应用场景有很多, 其中比较典型的是在金融银行业的应用. 在金融银行领域的日常运营过程中往往会产生大量的实时数据, 需要对这些海量数据进行实时分析处理以获得其内在价值, 从而帮助金融银行进行分析决策[23]. 其中本文选取的股票的高频交易就是流式处理系统在金融银行业的一个应用.
(1)数据流构造
实验构建了一个股票交易数据分析的场景, 在满足实际生产生活要求的同时, 尽可能多地覆盖流式计算特征. 股票交易数据分析场景涉及3个数据流: 股票变化流、用户交易流和用户持仓流, 如表1所示.
STOCK是股票变化流, 用于描述不同时间点股票的价格情况. 其中, szcode代表股票编号, eventTime代表当前时间, lastPrice代表当前价格.
TRANSACTION是股票交易流, 用于描述不同时间点股票交易情况. 其中, szcode代表交易的股票编号, userID代表用户编号, eventTime代表交易时间, Turnover代表成交量, Price代表成交价格.
POSITION是用户持仓流, 用于描述不同时间点用户股票持仓情况. 其中, userID代表用户编号, szcode代表该用户持有的股票编号, lastPrice代表上次成交价格, openInterest代表持仓量.
(2)具体应用构造
本文主要实现了对GroupBy和Join应用的覆盖, 设计如下:
1) GroupBy
GroupBy是Apache Spark中基本、常见的API, 相当于SQL查询中的groupby()函数. 实验中实时获取用户交易流的数据, 并按照股票编号这一字段进行聚合, 计算每只股票在一段时间内的总成交额.
# SQL Query (GroupBy)
#实时计算n分钟内每只股票的成交额.
SELECT szcode, SUM(Price*Turnover)
FROM TRANSACTION [Range n, Slide s]
GROUP BY szcode
2) Join
实验中对股票变化流和用户持仓流进行Join操作, 按照股票编号进行连接, 实现对各个用户持仓股票市值的实时计算.
# SQL Query (Join)
#每个用户所持股票的市值(用户持有量*当前价格)
SELECT c.userID, SUM(lastPrice* openInterest)
FROM POSITION[Range n, Slide s] as p, STOCK[Range n, Slide s] as s,
ON p.szcode = s.szcode
GROUP BY p.userID
Join可以建立不同数据流之间的连接, 是大数据计算中的高级特性, 复杂且代价大, 但大多数场景都需要进行复杂的Join操作.
Spark Streaming 会将逐条采集的数据按照事先设置好的批处理间隔汇总成一批数据进行处理, Join操作是在每一个批数据上进行的, 因此可通过对批处理间隔的合理设置避免Join操作造成的运算复杂度较高.
2.3 评价指标针对流式大数据处理系统基准测试中评价指标单一的问题, 本文通过延迟、吞吐量、GC时间等个方面对流式大数据处理系统进行评价.
延迟(Latency)是流式大数据处理中的一项常见且重要的指标, 表示在处理过程中由于网络或者计算产生的时间差. 一般可以将延迟分为系统延迟和事件延迟[11]. 本文将延迟定义为数据从源段到输出端所经历的非计算时间.
吞吐量(Throughput)是系统在单位时间内的数据处理量. 本文通过计算单位时间内数据源端输出的数据总量作为系统的吞吐量.
GC时间(GC time)是系统执行过程中垃圾回收机制的执行时间. 垃圾回收即遍历应用程序在Heap上动态分配的所有对象, 识别那些已经死亡即不再被引用的对象, 将该对象占用的内存空间回收. 垃圾回收的开销是流式大数据处理系统内存管理需要考虑的因素之一, 本文通过GC执行时间衡量.
CPU资源(CPU resources)即系统运行时的CPU使用率.
Apache Spark Streaming提供了Web UI界面, 在任务执行过程中, 可以实时查询任务运行情况, 便于测试指标的查看和收集. 本文借助Apache Spark Streaming提供的API接口, 实时收集运行时的延迟、吞吐量、GC时间等评价指标数据, 并以此进行实验分析.
3 实验验证本节对基于Apache Spark Streaming实现的股票交易场景下的应用进行了以下两组测试: (1)测试数据输入速率对系统性能的影响; (2)测试执行器内核数量对系统性能及扩展性的影响. 通过对测试结果的分析, 总结了系统的在不同的测试参数下的性能表现.
3.1 实验环境为了模拟流式大数据处理系统在现实中的应用, 提高大数据处理的效率, 实验搭建了集群, 部署了分布式计算环境用于Apache Spark Streaming测试. 测试集群由五台机器组成, 包括1台Master节点和4台Slave节点, 共20 cores, 集群架构如图2所示, 各个节点的配置信息如表2所示.
3.2 实验设计
实验采用控制变量法, 每次改变单一变量测试系统在不同情况下的性能表现, 每组进行五次测试, 记录平均值. 本文针对Apache Spark Streaming设计了两个实验, 从数据输入速率和任务并发度两个方面考虑.
(1)通过控制socket数据输入端的线程休眠时间, 测试系统输入端的速率、执行时间、任务数、延迟和GC时间.
(2)通过控制每个执行器的内核数, 改变任务并发度, 测试系统的扩展性, 以及吞吐量、延迟和GC时间的影响.
3.3 实验结果及结论(1)测试一: 数据输入速率对系统性能的影响
实验通过Thread.sleep();函数控制socket端向指定端口发送数据的速率, 将线程的休眠时间分别设为500毫秒, 100 ms, 50 ms, 10 ms, 1 ms以及0, 即每间隔500 ms, 100 ms, 50 ms, 10 ms, 1 ms以及无间隔地发送数据. 同时, 将数据的生成时间固定为5 min, 实现对输入端数据速率的控制. 测试一的实验结果如表3所示.
通过实验数据分析, 可得结论如下:
1)发现一: 当数据输入速率较高时, 系统延迟呈现较大的增长.
实验记录了不同速率下的系统总延迟, 如图3所示. 可以发现随着速率的增加, 系统延迟总体呈上升趋势的, 这是符合逻辑的. 但是在输入速率较低、相差不大的情况下, 系统延迟增加缓慢, 控制在一定范围之内, 而当输入速率较高时, 系统延迟会呈现一个较大的增长.
2)发现二: 输入速率的提高会使系统资源利用率增加.
随着输入速率的提高, 实验从GC时间和CPU资源两个方面分析了系统资源利用率的变化.
Apache Spark默认会将每个执行器的60%的内存空间用于缓存RDD, 则在任务执行期间, 只有40%的内存空间可以用来存放创建的对象. 如果创建的对象过大, 超过可用的内存空间, 就会触发java JVM的垃圾回收机制. 从图4中可以看到, 随着输入速率的提高, 系统的GC执行时间也会增加, 这是因为输入速率的提高, 任务数量及创建的对象也会增加, 从而使GC执行次数增加, 即系统运行时的内存占用量增加.
此外, 随着输入速率的提高, CPU利用率呈增长趋势, CPU负载逐步提升. 但即使在速度达到最大时, master节点CPU利用率平均为28.71%, 最大可达48.47%, CPU资源并未得到充分利用.
综上所述, 输入速率的提高会使系统资源利用率增加, 但在Socket输入最大值的情况下, 仍未实现系统资源的充分利用.
3)发现三: 数据输入速率在一定阈值内, 系统性能相对稳定; 数据输入速率超过阈值时, 系统性能下降.
通过对表3实验结果中的数据输入速率与其他性能指标的关系进行分析, 可以发现当数据输入速率在19.30 records/s到92.50 records/s范围内时, 程序执行时间和GC时间分别稳定在8.5 s和6 s, 任务数和延迟波动较小. 当数据输入速率提升到1701.06 records/s时, 系统在执行时间、任务数、延迟、GC等性能指标的度量上略有增长. 然而, 当数据输入速率上升到46 071.31 records/s时, 系统的执行时间比数据输入速率为1701.06 records/s时增长了1 min, 延迟增长了205 ms, 执行的任务数却有所减少. 由此可以得出结论: 数据输入速率在一定阈值内时, 系统的整体性能相对稳定; 当数据输入速率超过这一阈值时, 系统性能会有所下降.
分析原因为随着输入速率的提高, 系统接收的数据越来越多, 系统的数据处理能力趋于饱和, 甚至可能会出现计算过程中一个批次花费的时间大于系统设置的批处理间隔, 这意味着数据接收速率大于数据处理速率, 数据处理能力降低, 系统性能也发生一定程度下降. 但Spark Streaming系统自身带有反压机制(Back Pressure), 即使时间间隔内无法完全处理当前接收的数据, 也不会导致执行器内存泄漏.
此外, 从图5中可以看出, 任务数除了在速率从3.97 records/s上升到19.3 records/s时出现大幅度增长外, 之后不再随着数据输入速率的增加发生较大变化, 且在速率达到最大时出现下降, 可见系统的任务数随着数据输入速率的增加出现瓶颈.
(2)测试二: 执行器内核数量对对系统性能及扩展性的影响
执行器(executor)是Apache Spark任务的执行单元, 运行在worker上, 是一组计算资源的集合. 执行器的内核(core)数量可理解为执行器的工作线程, 实验通过改变执行器的内核数控制系统的并发度.
实验中共系统设置了4个执行器, 将每个执行器的内核个数分别设置为2、4、8和16, 测试了2 min内数据接收情况、系统总延迟以及GC时间. 测试二实验结果如表4所示.
通过实验数据分析, 可得结论如下:
1)发现一: 执行器的内核数对系统吞吐量影响不大.
在数据输入速率相同的情况下, 随着每个执行器内核个数的增加, 系统在2 min内接收的数据整体呈现减少的趋势, 但从图6中可以看到, 在考虑到网络波动的情况下, 系统接收数据的能力相似. 因此, 系统并发度的提升对Apache Spark Streaming的吞吐量并没有太大影响.
2)发现二: 执行器内核数量的增加可降低系统延迟.
结合结论一分析, 在系统接收的数据量相差不大的情况下, 随着每个执行器内核个数的增加, 系统的延迟会大幅度降低, 内核数为16时的延迟只有内核数为2时的1/3, 如图7所示.
分析原因为{任务执行的并发度 = 执行器的总数目 * 每个执行器的内核数}, 当每个执行器内核数量增加时, 任务并发度也会提高, 多任务的并发执行使得从而使系统延迟大幅度降低. 可见系统并行度的提高使得Apache Spark Streaming系统资源的利用率也随之提高, 系统在延迟上的扩展性良好.
3)发现三: 执行器内核数量的增加会造成系统资源利用率增加.
随着内核数量的增加, 任务并发度提高, 导致系统GC时间增加, 如图8所示.
分析原因为内核数量的增加提高了任务并发度, 使得大量的对象会被创建, 出发Java垃圾回收机制的次数也会增加, 从而使GC时间增加. 因此适当减少内核个数也是降低系统GC开销的一种方法.
此外, 系统并发度的提高也使得CPU利用率有所提高, 在16 cores时CPU利用率平均为31.05%,最大可达35.35%.
综上所述, 执行器内核数的增加会提高系统并发度从而增加系统资源利用率.
4 结束语本文设计并实现了一个流式大数据处理系统基准测试框架, 以Socket作为流式数据生成, 构造股票高频交易场景, 并实现了GroupBy和Join两个典型应用, 将实时计算与结构化数据相结合. 测试框架搭建在分布式集群环境下, 选取了Apache Spark Streaming作为待测系统, 从数据输入速率和系统并行度两个方面设计实验, 得到延迟、吞吐量、GC时间等测试指标, 以图表的形式进行分析, 发现流式大数据处理系统中出现的性能问题. 实验结果表明, 随着数据输入速率的提高, 系统性能保持相对稳定, 当输入速率达到一定阈值, 系统会出现性能下降, 资源利用率增加的现象; 系统并行度的增加对吞吐量的影响较小, 但系统延迟会大幅度降低, GC时间有所增加, 提高了系统资源的利用率.
未来将在以下几个方面进行深入研究. 一是可以将基准测试框架应用到不同的处理系统中, 分析系统之间的差异, 进行对比研究. 二是对流式大数据处理系统的基准测试不再仅限于对独立的系统, 而是与第三方工具结合, 如使用Kafka、Flume等高级数据源产生数据, 模拟现实环境下的应用.
[1] |
Manyika J, Chui M, Brown B, et al. Big data: The next frontier for innovation, competition, and productivity. http://www. mckinsey.com/Insights/MGI/Research/Technology_and_Innovation/Big_data_The_next_frontier_for_innovation, 2011.
|
[2] |
李国杰. 大数据研究的科学价值. 中国计算机学会通讯, 2012, 8(9): 8-15. |
[3] |
孙大为, 张广艳, 郑纬民. 大数据流式计算: 关键技术及系统实例. 软件学报, 2014, 25(4): 839-862. |
[4] |
Apache Hadoop v.3.2.0. http://hadoop.apache.org/. [2019-07-31].
|
[5] |
Apache Spark v.2.4.0. https://spark.apache.org/. [2019-07-31].
|
[6] |
Apache Storm v.2.0.0. http://storm.apache.org/. [2019-07-31].
|
[7] |
Apache Flink v.1.7. https: //flink.apache.org/ . [2019-07-31].
|
[8] |
Apache spark streaming guid. http://spark.apache.org/streaming/. [2019-03-31].
|
[9] |
Chintapalli S, Dagit D, Evans B, et al. Benchmarking streaming computation engines: Storm, flink and spark streaming. Proceedings of 2016 IEEE International Parallel and Distributed Processing Symposium Workshops. Chicago, IL, USA. 2016. 1789–1792.
|
[10] |
Huang SS, Huang J, Dai JQ, et al. The HiBench benchmark suite: Characterization of the mapreduce-based data analysis. In: Agrawal D, Candan KS, Li WS, eds. New Frontiers in Information and Software as Services. Berlin, Heidelberg: Springer, 2011. 209–228.
|
[11] |
Hesse G, Lorenz M. Conceptual survey on data stream processing systems. Proceedings of 2015 IEEE 21st International Conference on Parallel and Distributed Systems. Melbourne, VIC, Australia. 2015. 797–802.
|
[12] |
Gradvohl ALS, Senger H, Arantes L, et al. Comparing distributed online stream processing systems considering fault tolerance issues. Journal of Emerging Technologies in Web Intelligence, 2014, 6(2): 174-179. |
[13] |
Akidau T, Balikov A, Bekiroğlu K, et al. MillWheel: Fault-tolerant stream processing at internet scale. Proceedings of the VLDB Endowment, 2013, 6(11): 1033-1044. DOI:10.14778/2536222.2536229 |
[14] |
Neumeyer L, Robbins B, Nair A, et al. S4: Distributed stream computing platform. Proceedings of 2010 IEEE International Conference on Data Mining Workshops. Sydney, NSW, Australia. 2010. 170–177.
|
[15] |
Nabi Z, Bouillet E, Bainbridge A, et al. Of streams and storms. IBM White Paper, 2014: 1–31.
|
[16] |
Dayarathna M, Suzumura T. A performance analysis of system S, S4, and Esper via two level benchmarking. In: Joshi K, Siegle M, Stoelinga M, et al., eds. Quantitative Evaluation of Systems. Berlin, Heidelberg: Springer, 2013. 225–240.
|
[17] |
Toshniwal A, Taneja S, Shukla A, et al. Storm@twitter. Proceedings of the 2014 ACM SIGMOD International Conference on Management of Data. Snowbird, UT, USA. 2014. 147–156.
|
[18] |
Lopez MA, Lobato AGP, Duarte OCMB. A performance comparison of open-source stream processing platforms. Proceedings of 2016 IEEE Global Communications Conference. Washington, DC, USA. 2016. 1–6.
|
[19] |
Karimov J, Rabl T, Katsifodimos A, et al. Benchmarking distributed stream data processing systems. Proceedings of 2018 IEEE 34th International Conference on Data Engineering. Paris, France. 2018. 1507–1518.
|
[20] |
Karamel, Orchestrating Chef Solo. http://www.karamel.io/. [2019-07-31].
|
[21] |
Perera S, Perera A, Hakimzadeh K. Reproducible experiments for comparing apache flink and apache spark on public clouds. arXiv preprint arXiv: 1610.04493, 2016.
|
[22] |
DataArtisans. Extending the Yahoo! Streaming Benchmark. https://www.ververica.com/blog/extending-the-yahoo-streaming-benchmark. (2016-02-02)[2019-07-31].
|
[23] |
程学旗, 靳小龙, 王元卓, 等. 大数据系统和分析技术综述. 软件学报, 2014, 25(9): 1889-1908. DOI:10.13328/j.cnki.jos.004674 |