首页 >> 大全

Apache Doris 2.0-beta 版本发布:盲测性能 10 倍提升

2023-12-29 大全 33 作者:考证青年

亲爱的社区小伙伴们,我们很高兴地向大家宣布, Doris 2.0-beta 版本已于 2023 年 7 月 3 日正式发布!在 2.0-beta 版本中有超过255位贡献者为 Doris 提交了超过3500个优化与修复,欢迎大家下载使用!

下载链接:

源码:

在今年年初举办的 Doris 年度峰会上,我们曾发布了 Doris 的 2023 年 并提出了新的愿景:

我们希望用户可以基于 Doris 构建多种不同场景的数据分析服务、同时支撑在线与离线的业务负载、高吞吐的交互式分析与高并发的点查询;通过一套架构实现湖和仓的统一、在数据湖和多种异构存储之上提供无缝且极速的分析服务;也可通过对日志/文本等半结构化乃至非结构化的多模数据进行统一管理和分析、来满足更多样化数据分析的需求。

这是我们希望 Doris 能够带给用户的价值,不再让用户在多套系统之间权衡,仅通过一个系统解决绝大部分问题,降低复杂技术栈带来的开发、运维和使用成本,最大化提升生产力。

面对海量数据的实时分析难题,这一愿景的实现无疑需要克服许多困难,尤其是在应对实际业务场景的真实诉求中更是遭遇了许多挑战:

秉持着“将易用性留给用户、将复杂性留给自己”的原则,从理论基础到工程实现、从理想业务场景到极端异常 Case、从内部测试通过到大规模生产可用,我们耗费了更多的时间与精力在功能的开发、验证、持续迭代与精益求精上。值得庆祝的是,在经过近半年的开发、测试与稳定性调优后, Doris 终于迎来了 2.0-beta 版本的正式发布!而这一版本的成功发布也使得我们的愿景离现实更进一步!

全新的查询优化器

高性能是 Doris 不断追求的目标。过去一年在 、TPC-H 等公开测试数据集上的优异表现,已经证明了其在执行层以及算子优化方面做到了业界领先,但从 到真实业务场景之间还存在一定距离:

基于此,我们着手研发了现代架构的全新查询优化器,并在 Doris 2.0-beta 版本全面启用。全新查询优化器采取了更先进的 框架、使用了更丰富的统计信息、实现了更智能化的自适应调优,在绝大多数场景无需任何调优和 SQL 改写即可实现极致的查询性能,同时对复杂 SQL 支持得更加完备、可完整支持 TPC-DS 全部 99 个 SQL。

我们对全新查询优化器的执行性能进行了盲测,仅以 TPC-H 22 个 SQL 为例 ,全新优化器在未进行任何手工调优和 SQL 改写的情况下查询耗时,盲测性能提升了超过 10 倍!而在数十个 2.0 版本用户的真实业务场景中,绝大多数原始 SQL 执行效率得以极大提升,真正解决了人工调优的痛点!

参考文档:

如何开启:SET er=true在 Doris 2.0-beta 版本中全新查询优化器已经默认开启,通过调用命令收集统计信息

自适应的 执行引擎

过去 Doris 的执行引擎是基于传统的火山模型构建,为了更好利用多机多核的并发能力,过去我们需要手动设置执行并发度(例如将这一参数从默认值 1 手工设置为 8 或者 16),在存在大量查询任务时存在一系列问题:

针对以上问题, Doris 2.0 引入了 执行模型作为查询执行引擎。在 执行引擎中,查询的执行是由数据来驱动控制流变化的,各个查询执行过程之中的阻塞算子被拆分成不同 ,各个 能否获取执行线程调度执行取决于前置数据是否就绪,因此实现了以下效果:

通过 执行引擎, Doris 在混合负载场景中的查询性能和稳定性都得以进一步提升。

参考文档:

如何开启:Set ne = true该功能在 Doris 2.0 版本中将默认开启,BE 在进行查询执行时默认将 SQL 的执行模型转变 的执行方式。代表了 SQL 查询进行查询并发的 Task 数目。 Doris 默认配置为0,此时 Doris 会自动感知每个 BE 的 CPU 核数并把并发度设置为 CPU 核数的一半,用户也可以实际根据自己的实际情况进行调整。对于从老版本升级的用户,建议用户将该参数设置成老版本中的值。

多业务资源隔离

随着用户规模的极速扩张,越来越多的用户将 Doris 用于构建企业内部的统一分析平台。这一方面需要 Doris 去承担更大规模的数据处理和分析,另一方面也需要 Doris 同时去应对更多分析负载的挑战,而其中的关键在于如何保证不同负载能够在一个系统中稳定运行。

Doris 2.0 版本中基于 执行引擎增加了 管理器 ,通过对 进行分组管理,以保证内存和 CPU 资源的精细化管控。

在过去版本中 Doris 通过资源标签的方式进行了多租户资源隔离,可以通过节点资源划分来避免不同业务间的相互干扰,而 Group 实现了更精细化的资源管控方式,通过将 Query 与 Group 相关联,可以限制单个 Query 在 BE 节点上的 CPU 和内存资源的百分比,并可以配置开启资源组的内存软限制。当集群资源紧张时,将自动 Kill 组内占用内存最大的若干个查询任务以减缓集群压力。当集群资源空闲时,一旦 Group 使用资源超过预设值时,多个 将共享集群可用空闲资源并自动突破阙值,继续使用系统内存以保证查询任务的稳定执行。

create workload group if not exists etl_group
properties ("cpu_share"="10","memory_limit"="30%","max_concurrency" = "10","max_queue_size" = "20","queue_timeout" = "3000"
);

可以通过Show命令来查看创建的 Group,例如:

作业排队

同时在 Group 中我们还引入了查询排队的功能,在创建 Group 时可以设置最大查询数,超出最大并发的查询将会进行队列中等待执行。

参考文档:

彻底告别 OOM

在内存充足时内存管理通常对用户是无感的,但真实场景中往往面临着各式各样的极端 Case,这些都将为内存性能和稳定性带来挑战,尤其是在面临内存资源消耗巨大的复杂计算和大规模作业时,由于内存 OOM 导致查询失败甚至可能造成 BE 进程宕机。

因此我们逐渐统一内存数据结构、重构 、开始支持查询内存软限,并引入进程内存超限后的 GC 机制,同时优化了高并发的查询性能等。在 2.0 版本中我们引入了全新的内存管理框架,通过有效的内存分配、统计、管控,在 、压力测试和真实用户业务场景的反馈中,基本消除了内存热点以及 OOM 导致 BE 宕机的问题,即使发生 OOM 通常也可依据日志定位内存位置并针对性调优,从而让集群恢复稳定,对查询和导入的内存限制也更加灵活,在内存充足时让用户无需感知内存使用。

通过以上一系列优化, Doris 2.0 版本在应对复杂计算以及大规模 ETL/ELT 操作时,内存资源得以有效控制,系统稳定性表现更上一个台阶。

详细介绍:

更高的实时数据写入效率

导入性能进一步提升

聚焦于实时分析,我们在过去的几个版本中在不断增强实时分析能力,其中端到端的数据实时写入能力是优化的重要方向,在 Doris 2.0 版本中,我们进一步强化了这一能力。通过 不使用 、并行下刷、单副本导入等优化,使得导入性能有了大幅提升:

数据高频写入更稳定

在高频数据写入过程中,小文件合并和写放大问题以及随之而来的磁盘 I/O和 CPU 资源开销是制约系统稳定性的关键,因此在 2.0 版本中我们引入了 以及 ,用以彻底解决 内存问题以及写入过程中的 文件过多问题,资源消耗降低 90%,速度提升 50%,内存占用仅为原先的 10%。

详细介绍:

数据表结构自动同步

在过去版本中我们引入了毫秒级别的 ,而在最新版本 Flink-Doris- 中,我们实现了从 MySQL 等关系型数据库到 Doris 的一键整库同步。在实际测试中单个同步任务可以承载数千张表的实时并行写入,从此彻底告别过去繁琐复杂的同步流程,通过简单命令即可实现上游业务数据库的表结构及数据同步。同时当上游数据结构发生变更时,也可以自动捕获 变更并将 DDL 动态同步到 Doris 中,保证业务的无缝运行。

详细介绍:

主键模型支持部分列更新

在 Doris 1.2 版本中我们引入了 Key 模型的 Merg-on-Write 写时合并模式,在上游数据高频写入和更新的同时可以保证下游业务的高效稳定查询,实现了实时写入和极速查询的统一。而 2.0 版本我们对 Key 模型进行了全面增强。在功能上,支持了新的部分列更新能力,在上游多个源表同时写入时无需提前处理成宽表,直接通过部分列更新在写时完成 Join,大幅简化了宽表的写入流程。

在性能上,2.0 版本大幅增强了 Key 模型 Merge-on-Write 的大数据量写入性能和并发写入能力,大数据量导入较 1.2 版本有超过 50% 的性能提升,高并发导入有超过 10 倍的性能提升,并通过高效的并发处理机制来彻底解决了 (Error -3115) 问题,同时由于 Doris 2.0 高效的 机制,也不会出现 too many (Error-235) 问题。这使得 Merge-on-Write 能够在更广泛的场景下替代 Merge-on-Read 实现,同时我们还利用部分列更新能力来降低 语句和 语句的计算成本,整体性能提升约 50%。

部分列更新的使用示例( Load):

例如有表结构如下

盲测测试范本__91助手2.0.0版本apk

mysql> desc user_profile;
+------------------+-----------------+------+-------+---------+-------+
| Field            | Type            | Null | Key   | Default | Extra |
+------------------+-----------------+------+-------+---------+-------+
| id               | INT             | Yes  | true  | NULL    |       |
| name             | VARCHAR(10)     | Yes  | false | NULL    | NONE  |
| age              | INT             | Yes  | false | NULL    | NONE  |
| city             | VARCHAR(10)     | Yes  | false | NULL    | NONE  |
| balance          | DECIMALV3(9, 0) | Yes  | false | NULL    | NONE  |
| last_access_time | DATETIME        | Yes  | false | NULL    | NONE  |
+------------------+-----------------+------+-------+---------+-------+

用户希望批量更新最近 10s 发生变化的用户的余额和访问时间,可以把数据组织在如下 csv 文件中:

1,500,2023-07-03 12:00:01
3,23,2023-07-03 12:00:02
18,9999999,2023-07-03 12:00:03

然后通过 Load,增加 s:true,并指定要导入的列名即可完成更新

curl  --location-trusted -u root: -H "partial_columns:true" -H "column_separator:," -H 
"columns:id,balance,last_access_time" -T /tmp/test.csv 
http://127.0.0.1:48037/api/db1/user_profile/_stream_load

过去 Doris 凭借在易用性方面的诸多设计帮助用户大幅节约了计算与存储资源成本,而面向未来的云原生架构,我们已经走出了坚实的一步。

从降本增效的趋势出发,用户对于计算和存储资源的需求可以概括为以下几方面:

存算一体的架构在弹性需求不强的场景具有简单和易于维护的优势,但是在弹性需求较强的场景有一定的局限。而存算分离的架构本质是解决资源弹性的技术手段,在资源弹性方面有着更为明显的优势,但对于存储具有更高的稳定性要求,而存储的稳定性又会进一步影响到 OLAP 的稳定性以及业务的存续性,因此也引入了 Cache 管理、计算资源管理、垃圾数据回收等一系列机制。

而在与 Doris 社区广大用户的交流中,我们发现用户对于存算分离的需求可以分为以下三类:

为了满足前两类用户的需求, Doris 2.0 版本中提供了可以兼容升级的存算分离方案:

第一种,计算节点。2.0 版本中我们引入了无状态的计算节点 Node,专门用于数据湖分析。相对于原本存储计算一体的混合节点, Node 不保存任何数据,在集群扩缩容时无需进行数据分片的负载均衡,因此在数据湖分析这种具有明显高峰的场景中可以灵活扩容、快速加入集群分摊计算压力。同时由于用户数据往往存储在 HDFS/S3 等远端存储中,执行查询时查询任务会优先调度到 Node 执行,以避免内表与外表查询之间的计算资源抢占。

参考文档:

第二种,冷热分层。在存储方面,冷热数据往往面临不同频次的查询和响应速度要求,因此通常可以将冷数据存储在成本更低的存储介质中。在过去版本中 Doris 支持对表分区进行生命周期管理,通过后台任务将热数据从 SSD 自动冷却到 HDD,但 HDD 上的数据是以多副本的方式存储的,并没有做到最大程度的成本节约,因此对于冷数据存储成本仍然有较大的优化空间。在 Doris 2.0 版本中推出了冷热数据分层功能,冷热数据分层功能使 Doris 可以将冷数据下沉到存储成本更加低廉的对象存储中,同时冷数据在对象存储上的保存方式也从多副本变为单副本,存储成本进一步降至原先的三分之一,同时也减少了因存储附加的计算资源成本和网络开销成本。通过实际测算,存储成本最高可以降低超过 70%!

参考文档:

后续计算节点会支持查询冷数据和存储节点的数据,从而实现能兼容升级的存算分离方案。

而为了满足第三类用户的需求,我们还将把 Cloud 存算分离方案贡献回社区。这一方案在性能、功能成熟度、系统稳定性等方面经历了上百家企业生产环境的考验,后续功能合入的实际进展我们也将及时同步。

从过去的实时报表和 Ad-hoc 等典型 OLAP 场景到 ELT/ETL、日志检索与分析等更多业务场景, Doris 正在不断拓展应用场景的边界,而日志数据的统一存储与分析正是我们在 2.0 版本的重要突破。

过去业界典型的日志存储分析架构难以同时兼顾 高吞吐实时写入、低成本大规模存储与高性能文本检索分析,只能在某一方面或某几方面做权衡取舍。而在 Doris 2.0 版本中,我们引入了全新倒排索引、以满足字符串类型的全文检索和普通数值/日期等类型的等值、范围检索,同时进一步优化倒排索引的查询性能、使其更加契合日志数据分析的场景需求,同时结合过去在大规模数据写入和低成本存储等方面的优势,实现了更高性价比的日志分析方案。

在相同硬件配置和数据集的测试表现上, Doris 相对于 实现了日志数据写入速度提升 4 倍、存储空间降低 80%、查询性能提升 2 倍,再结合 Doris 2.0 版本引入的冷热数据分层特性,整体性价比提升 10 倍以上。

除了日志分析场景的优化以外,在复杂数据类型方面,我们增加了全新的数据类型 Map/,包括支持以上类型的高效写入、存储、分析函数以及类型之间的相互嵌套,以更好满足多模态数据分析的支持。

详细介绍:

在 Doris 1.2 版本中,我们发布了 Multi- 功能,支持了多种异构数据源的元数据自动映射与同步,实现了数据湖的无缝对接。依赖 数据读取、执行引擎、查询优化器方面的诸多优化,在标准测试集场景下, Doris 在湖上数据的查询性能,较 /Trino 有 3-5 倍的提升。

在 2.0 版本中,我们进一步对数据湖分析能力进行了加强,不但支持了更多的数据源,同时针对用户的实际生产环境做了诸多优化,相较于 1.2 版本,能够在真实工作负载情况下显著提升性能。

关于我们

最火推荐

小编推荐

联系我们


版权声明:本站内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 88@qq.com 举报,一经查实,本站将立刻删除。备案号:桂ICP备2021009421号
Powered By Z-BlogPHP.
复制成功
微信号:
我知道了