本文介绍了facebook公司数据分析系统中的rcfile存储结构,该结构集行存储和列存储的优点于一身,在mapreduce环境下的大规模数据分析中扮演重要角色。
facebook曾在2010 icde(ieee international conference on data engineering)会议上介绍了数据仓库hive。hive存储海量数据在hadoop系统中,提供了一套类数据库的数据存储和处理机制。它采用类sql语言对数据进行自动化管理和处理,经过语句解析和转换,最终生成基于hadoop的mapreduce任务,通过执行这些任务完成数据处理。图1显示了hive数据仓库的系统结构。
图1 hive数据仓库的系统结构
基于mapreduce的数据仓库在超大规模数据分析中扮演了重要角色,对于典型的web服务供应商,这些分析有助于它们快速理解动态的用户行为及变化的用户需求。数据存储结构是影响数据仓库性能的关键因素之一。hadoop系统中常用的文件存储格式有支持文本的textfile和支持二进制的sequencefile等,它们都属于行存储方式。facebook工程师发表的rcfile: a fast and spaceefficient data placement structure in mapreducebased warehouse systems一文,介绍了一种高效的数据存储结构——rcfile(record columnar file),并将其应用于facebook的数据仓库hive中。与传统数据库的数据存储结构相比,rcfile更有效地满足了基于mapreduce的数据仓库的四个关键需求,即fast data loading、fast query processing、highly efficient storage space utilization和strong adaptivity to highly dynamic workload patterns。
数据仓库的需求
基于facebook系统特征和用户数据的分析,在mapreduce计算环境下,数据仓库对于数据存储结构有四个关键需求。
fast data loading
对于facebook的产品数据仓库而言,快速加载数据(写数据)是非常关键的。每天大约有超过20tb的数据上传到facebook的数据仓库,由于数据加载期间网络和磁盘流量会干扰正常的查询执行,因此缩短数据加载时间是非常必要的。
fast query processing
为了满足实时性的网站请求和支持高并发用户提交查询的大量读负载,查询响应时间是非常关键的,这要求底层存储结构能够随着查询数量的增加而保持高速的查询处理。
highly efficient storage space utilization
高速增长的用户活动总是需要可扩展的存储容量和计算能力,有限的磁盘空间需要合理管理海量数据的存储。实际上,该问题的解决方案就是最大化磁盘空间利用率。
strong adaptivity to highly dynamic workload patterns
同一份数据集会供给不同应用的用户,通过各种方式来分析。某些数据分析是例行过程,按照某种固定模式周期性执行;而另一些则是从中间平台发起的查询。大多数负载不遵循任何规则模式,这需要底层系统在存储空间有限的前提下,对数据处理中不可预知的动态数据具备高度的适应性,而不是专注于某种特殊的负载模式。
mapreduce存储策略
要想设计并实现一种基于mapreduce数据仓库的高效数据存储结构,关键挑战是在mapreduce计算环境中满足上述四个需求。在传统数据库系统中,三种数据存储结构被广泛研究,分别是行存储结构、列存储结构和pax混合存储结构。上面这三种结构都有其自身特点,不过简单移植这些数据库导向的存储结构到基于mapreduce的数据仓库系统并不能很好地满足所有需求。
行存储
如图2所示,基于hadoop系统行存储结构的优点在于快速数据加载和动态负载的高适应能力,这是因为行存储保证了相同记录的所有域都在同一个集群节点,即同一个hdfs块。不过,行存储的缺点也是显而易见的,例如它不能支持快速查询处理,因为当查询仅仅针对多列表中的少数几列时,它不能跳过不必要的列读取;此外,由于混合着不同数据值的列,行存储不易获得一个极高的压缩比,即空间利用率不易大幅提高。尽管通过熵编码和利用列相关性能够获得一个较好的压缩比,但是复杂数据存储实现会导致解压开销增大。
图2 hdfs块内行存储的例子
列存储
图3显示了在hdfs上按照列组存储表格的例子。在这个例子中,列a和列b存储在同一列组,而列c和列d分别存储在单独的列组。查询时列存储能够避免读不必要的列,并且压缩一个列中的相似数据能够达到较高的压缩比。然而,由于元组重构的较高开销,它并不能提供基于hadoop系统的快速查询处理。列存储不能保证同一记录的所有域都存储在同一集群节点,例如图2的例子中,记录的4个域存储在位于不同节点的3个hdfs块中。因此,记录的重构将导致通过集群节点网络的大量数据传输。尽管预先分组后,多个列在一起能够减少开销,但是对于高度动态的负载模式,它并不具备很好的适应性。除非所有列组根据可能的查询预先创建,否则对于一个查询需要一个不可预知的列组合,一个记录的重构或许需要2个或多个列组。再者由于多个组之间的列交叠,列组可能会创建多余的列数据存储,这导致存储利用率的降低。
图3 hdfs块内列存储的例子
pax混合存储
pax存储模型(用于data morphing存储技术)使用混合存储方式,目的在于提升cpu cache性能。对于记录中来自不同列的多个域,pax将它们放在一个磁盘页中。在每个磁盘页中,pax使用一个迷你页来存储属于每个列的所有域,并使用一个页头来存储迷你页的指针。类似于行存储,pax对多种动态查询有很强的适应能力。然而,它并不能满足大型分布式系统对于高存储空间利用率和快速查询处理的需求,原因在于:首先,pax没有数据压缩的相关工作,这部分与cache优化关系不大,但对于大规模数据处理系统是非常关键的,它提供了列维度数据压缩的可能性;其次,pax不能提升i/o性能,因为它不能改变实际的页内容,该限制使得大规模数据扫描时不易实现快速查询处理;再次,pax用固定的页作为数据组织的基本单位,按照这个大小,在海量数据处理系统中,pax将不会有效存储不同大小类型的数据域。本文介绍的是rcf i l e 数据存储结构在hadoop系统上的实现。该结构强调:第一,rcfile存储的表是水平划分的,分为多个行组, 每个行组再被垂直划分, 以便每列单独存储;第二,rcfile在每个行组中利用一个列维度的数据压缩,并提供一种lazy解压(decompression)技术来在查询执行时避免不必要的列解压;第三,rcfile支持弹性的行组大小,行组大小需要权衡数据压缩性能和查询性能两方面。
rcfile的设计与实现
rcfile(record columnar file)存储结构遵循的是“先水平划分,再垂直划分”的设计理念,这个想法来源于pax。它结合了行存储和列存储的优点:首先,rcfile保证同一行的数据位于同一节点,因此元组重构的开销很低;其次,像列存储一样,rcfile能够利用列维度的数据压缩,并且能跳过不必要的列读取。图4是一个hdfs块内rcfile方式存储的例子。
图4 hdfs块内rcfile方式存储的例子
数据格式
rcfile在hdfs分布式文件系统之上设计并实现,如图4所示,rcfile按照下面的数据格式来存储一张表。
rcfile基于hdfs架构,表格占用多个hdfs块。
每个hdfs块中,rcfile以行组为基本单位来组织记录。也就是说,存储在一个hdfs块中的所有记录被划分为多个行组。对于一张表,所有行组大小都相同。一个hdfs块会有一个或多个行组。
一个行组包括三个部分。第一部分是行组头部的同步标识,主要用于分隔hdfs块中的两个连续行组;第二部分是行组的元数据头部,用于存储行组单元的信息,包括行组中的记录数、每个列的字节数、列中每个域的字节数;第三部分是表格数据段,即实际的列存储数据。在该部分中,同一列的所有域顺序存储。从图4可以看出,首先存储了列a的所有域,然后存储列b的所有域等。
压缩方式
rcfile的每个行组中,元数据头部和表格数据段分别进行压缩。
对于所有元数据头部,rcfile使用rle(run length encoding)算法来压缩数据。由于同一列中所有域的长度值都顺序存储在该部分,rle算法能够找到重复值的长序列,尤其对于固定的域长度。
表格数据段不会作为整个单元来压缩;相反每个列被独立压缩,使用gzip压缩算法。rcfile使用重量级的gzip压缩算法,是为了获得较好的压缩比,而不使用rle算法的原因在于此时列数据非排序。此外,由于lazy压缩策略,当处理一个行组时,rcfile不需要解压所有列。因此,相对较高的gzip解压开销可以减少。
尽管rcfile对表格数据的所有列使用同样的压缩算法,不过如果使用不同的算法来压缩不同列或许效果会更好。rcfile将来的工作之一可能就是根据每列的数据类型和数据分布来自适应选择最好的压缩算法。
数据追加
rcfile不支持任意方式的数据写操作,仅提供一种追加接口,这是因为底层的hdfs当前仅仅支持数据追加写文件尾部。数据追加方法描述如下。
rcfile为每列创建并维护一个内存column holder,当记录追加时,所有域被分发,每个域追加到其对应的column holder。此外,rcfile在元数据头部中记录每个域对应的元数据。
rcfile提供两个参数来控制在刷写到磁盘之前,内存中缓存多少个记录。一个参数是记录数的限制,另一个是内存缓存的大小限制。
rcfile首先压缩元数据头部并写到磁盘,然后分别压缩每个column holder,并将压缩后的column holder刷写到底层文件系统中的一个行组中。
数据读取和lazy解压
在mapreduce框架中,mapper将顺序处理hdfs块中的每个行组。当处理一个行组时,rcfile无需全部读取行组的全部内容到内存。
相反,它仅仅读元数据头部和给定查询需要的列。因此,它可以跳过不必要的列以获得列存储的i/o优势。例如,表tbl(c1, c2, c3, c4)有4个列,做一次查询“select c1 from tbl where c4 = 1”,对每个行组,rcfile仅仅读取c1和c4列的内容。在元数据头部和需要的列数据加载到内存中后,它们需要解压。元数据头部总会解压并在内存中维护直到rcfile处理下一个行组。然而,rcfile不会解压所有加载的列,相反,它使用一种lazy解压技术。
lazy解压意味着列将不会在内存解压,直到rcfile决定列中数据真正对查询执行有用。由于查询使用各种where条件,lazy解压非常有用。如果一个where条件不能被行组中的所有记录满足,那么rcfile将不会解压where条件中不满足的列。例如,在上述查询中,所有行组中的列c4都解压了。然而,对于一个行组,如果列c4中没有值为1的域,那么就无需解压列c1。
行组大小
i/o性能是rcfile关注的重点,因此rcfile需要行组够大并且大小可变。行组大小和下面几个因素相关。
行组大的话,数据压缩效率会比行组小时更有效。根据对facebook日常应用的观察,当行组大小达到一个阈值后,增加行组大小并不能进一步增加gzip算法下的压缩比。
行组变大能够提升数据压缩效率并减少存储量。因此,如果对缩减存储空间方面有强烈需求,则不建议选择使用小行组。需要注意的是,当行组的大小超过4mb,数据的压缩比将趋于一致。
尽管行组变大有助于减少表格的存储规模,但是可能会损害数据的读性能,因为这样减少了lazy解压带来的性能提升。而且行组变大会占用更多的内存,这会影响并发执行的其他mapreduce作业。考虑到存储空间和查询效率两个方面,facebook选择4mb作为默认的行组大小,当然也允许用户自行选择参数进行配置。
小结
本文简单介绍了rcfile存储结构,其广泛应用于facebook公司的数据分析系统hive中。首先,rcfile具备相当于行存储的数据加载速度和负载适应能力;其次,rcfile的读优化可以在扫描表格时避免不必要的列读取,测试显示在多数情况下,它比其他结构拥有更好的性能;再次,rcfile使用列维度的压缩,因此能够有效提升存储空间利用率。
为了提高存储空间利用率,facebook各产品线应用产生的数据从2010年起均采用rcfile结构存储,按行存储(sequencefile/textfile)结构保存的数据集也转存为rcfile格式。此外,yahoo公司也在pig数据分析系统中集成了rcfile,rcfile正在用于另一个基于hadoop的数据管理系统howl(http://wiki.apache.org/pig/howl)。而且,根据hive开发社区的交流,rcfile也成功整合加入其他基于mapreduce的数据分析平台。有理由相信,作为数据存储标准的rcfile,将继续在mapreduce环境下的大规模数据分析中扮演重要角色。
阿尔法机器狗灵活性怎么样,或许比真狗还聪明
通信系统相控电源改造解决方案
NI推出第二款向量信号收发器NI PXIe-5645R
教你如何分析芯片损坏的原因
库克或将终结苹果黄金时代 与乔布斯比差在哪
揭秘:RCFile高效存储结构
一加5什么时候上市?一加5最新消息:一加5今年发两款机?一加5配置曝光,新机配色致敬锤子科技!
反馈的概念与分类
iPhone8会采用隔空充电,国内IC推出隔空充电方案
机器视觉——工业4.0的关键技术
各组织正在利用信息管理和人工智能来加强日常运作?
索尼FE70-300mmG评测 整体偏中高端
除了定位导航,北斗卫星还能授时?
广丰南沙雷凌工厂初体验
贸泽电子线上电阻色码计算器 工程师省时省力的好帮手
三星无线充电器拆解看看无线充电器都有哪些元器件
索尼推出全新智能音箱 受到市场广泛关注
32位M0+核单片机PY32F002A系列
英特尔的雷电 4推动加快Type-C进入“快充标准”
用SST89E564自制51仿真器