数据架构自 70 年代由关系型数据库开始发展,前后经历了三个阶段:
数据平台最早来自数据库技术,1970 年关系型数据库发布,以事务数据处理技术为主,以 Oracle,SQLServer 为代表,已经发展 50 年。总体市场规模最大,增长放缓。
数据平台二次革命来自大数据技术,2000 年因大搜索需求提出(规模带来质变),并进化成数据平台 2.0,以大规模数据分析技术为主,以 Snowflake/BigQuery/Hadoop 体系为代表,已经发展 20 年。总体市场规模中等,增长仍然迅速。
第三次革命来自 AI(深度学习 /LLM)带来的突破(规模带来质变),扩展能处理的数据的种类(从结构化,到半 / 非结构化),也扩展计算引擎(从关系型数据分析计算到基于大模型的内容理解与逻辑推理)。
图 2 数据平台发展三次革命
一项技术是成功还是失败,关键期往往在低谷期到普惠期之间,一旦进入成熟期,它会以普惠产品的形态保持持续的发展。因为已经被普遍采用,变成事实标准,在没有跳变类技术出现的情况下,会一直发展下去。我们身边的内燃机技术、移动通信技术、数据库技术等都持续发展。
但相比数据库技术,大数据技术处在成熟早期,仍然有较大市场空间,并保持高速增长。上图同时对比了数据库领域的领军企业 Oracle 和大数据领军企业 Snowflake,成立 46 年的 Oracle 在 2023 年有 48B$ 的营收规模,是成立 12 年的 Snowflake 2B$ 营收的 20x,但 Snowflake 有 50% 的同比增长率,是 Oracle 5% 增长率的 10x。如果双方保持当前增长率,Snowflake 会在 7-8 年后超越 Oracle。
相比 2021 年火热的数据类新公司成立和融资(2021 年 Kafka 背后商业公司 Confluent 上市,Clickhouse、Iceberg 商业公司成立,Databricks7 月内两轮融资 26 亿美元),2024 年数据平台领域投资趋于冷静,厂商和产品逐步开始收敛,这也带动了技术架构的收敛(下节展开)。
大数据技术为代表的数据分析架构发展 20 年,总结当前典型的数据平台架构是计算部分采用 Lamdba 架构,存储层由数据湖或者数据仓库构建。AI 相关组件尚在发展成熟中,没有确定性的架构。
以下通过几个不同场景不同用户的数据架构实例,来总结当下数据平台的典型架构:
数据分析部分架构趋同,从数据采集开始,到多种不同的存储体系,再向上形成了“离线计算”和“实时计算”的两种计算模式,最上层是数据的消费部分,形成“交互分析”的计算模式。特别的,医疗系统的案例中,存有大量图像与视频数据,因此整个架构的底部会有一层面向非结构化数据存储的存储体系,以及右侧还有面向医疗领域机器学习的智能图片识别能力。
基于上述,我们将当前数据平台简化为如下典型架构图,其中“不变”的部分用黑底来表示,“变化发展”的部分用灰底来表示,如图下可见。
图 4: 当前数据平台典型架构图(简化版)
鉴于数据平台整体分成分析 /AI 两部分,且两部分的发展阶段不同(数据分析平台进入成熟期,数据 AI 平台刚起步),因此后文分开阐述这两部分。
当前数据分析平台的典型架构是 Lamdba 架构(由三层系统组成:批处理 BatchLayer,流处理层 SpeedLayer,服务层 ServingLayer),随批、流、交互三种引擎诞生和成熟组装而成。其本质是通过三个不同的引擎分别满足数据三要素(性能、成本和数据新鲜度)设计方向。每个引擎向单一目标优化且优化方向各不相同(如下图),但组合起来就形成整体架构缺陷。其主要缺陷包括如下几个方面:
笔者认为,数据分析领域的三个发展趋势,与上述缺陷密切相关。
组装式 Lambda 架构存在的问题是业界普遍有深刻体感的,为了解决上述 Lambda 架构的问题,业界很早就提出 Kappa 架构的概念,并一直寻求一体化的实现和产品。很多已有产品也都曾经尝试过一体化的方向(例如 Apache Flink 提出的“流批一体”概念和实现,Google BigQuery 推出 BIEngine 尝试离线实时一体化的方向)。应该说,“一体化”是数据分析领域长久以来的趋势共识。
但截至到目前,都不是很成功,为什么实现“一体化”的架构那么难?这主要有两个原因:批、流、交互计算的计算形态不同,优化方向也不同。如果“批、流、交互计算”三种传统计算模型均不能完成计算引擎的统一化,就需要新的计算形态来统一。
图 5: 批、流、交互三种计算形态的差异
从工业界的角度看,2022-2023 年,Databricks 基于之前的 Delta Table 和 Live Table 提出统一的 Delta Live Table 的概念和实现,Snowflake 提出 Dynamic Table 的新概念,当前处于 Preview 的阶段,均是为了实现流批统一。2023 年,笔者所在的创业公司“云器科技”提出基于“通用增量计算(Generic Incremental Compute, GIC)”新计算形态,致力于用于构建一体化引擎(Single Engine)。受限于篇幅原因,对计算形态统一的细化分析以及新的计算形态选型和能力评估,在此不再展开,读者可以参考这里了解更多细节。
湖仓一体(Lakehouse)的概念最初由 Databricks 在 2019 年提出,经过 4 年的发展,已经成为主流架构。(湖仓一体的概念和详细介绍可以参考笔者的另一篇文章)。
当前,湖仓一体概念得到认可,但架构实现仍然多样。实际上湖仓一体架构两个流派,第一个流派是以数仓这种方式诞生的,它是一个左右派,左边是一个数据仓库,右边是一个数据湖,中间以高速网络相连形成联邦查询能力;第二个流派是从数据湖向数仓演进,整体架构是在数据湖上搭建数据仓库。这两个流派的代表分别是 AWS Redshift/ 阿里云 MaxCompute,以及 Databricks,目前这两个流派都还在发展中。在 2023 年,为了统一湖仓一体的架构,部分企业提出“湖仓一体”的设计标准,例如偶数科技提出 ANCHOR 的标准,Databricks 提出 Open、Unfied、Scalable 三标准等等。
图 6: Lakehouse 架构演进
目前公认的设计标准总结为如下三条:
数据的开放性是标准的核心,它同时被数据格式决定。最初的数据湖仅支持简单文件格式,目前 Apache Parquet 和 Apache ORC 是文件格式的事实标准。但单纯的文件很难表达复杂的表特性(例如对数据更新的表达),作为数据湖向湖仓一体的一部分,这就有了数据湖表格式,过去几年诞生了 Apache Hudi、Apache Delta、Apache Iceberg 三种标准。2023 年下半年,Snowflake/Databricks 同期宣布旗下数据平台支持 Iceberg 的湖仓架构,至此数据湖三大表格式的争论告一段落,Iceberg 开始成为事实标准。但 Lakehouse 上的统一元数据模块部分尚待挖掘和整合,Databricks 的 UnityCatalog 是一个好的参考。
云原生的概念随云计算诞生,最初是云计算概念的一部分,特指针对云的特点设计的架构能力。过去 20 年云计算的发展推动了包括大规模存储、虚拟化技术和大规模网络技术的发展,也极大的影响了软件架构的设计。
如下图所示,系统和软件架构呈现横行分层发展的趋势,并逐步切换出更多的层次,带来更低的开发成本和更好的资源共享能力,当前的应用开发者仅仅需要关注数据和应用逻辑即可。
图 7:系统和软件架构呈现横行分层发展的趋势
上述架构演进不仅仅影响云,“云原生”从云的概念变成一个架构概念。私有化部署和本地 IT 开发也遵循“云原生”架构。例如:
数据平台,处于系统架构的 PaaS 层,“云原生”也成为标准设计模式,对下依赖 IaaS 能力,对上与客户应用解耦。新一代的计算平台基于“云原生”架构设计更符合发展趋势。
同时,每个层次开始标准化(例如 IaaS 层)并各自进化。模块间进一步解耦开,并在能力 / 效率 / 成本上独立持续进化。例如:AWS2023 年推出 S3 Express OneZone,提升 10xIO 延迟的同时降低 40% 的成本。VastData 推出基于 NVMe over Fabric 的分离式全共享架构存储,提供了大规模可扩展性和强大性能,并降低存储成本。这些能力进化既有独立厂商推动,也有云厂商推动。考虑到云厂商在 IaaS 层和部分 PaaS 层的规模效益(规模、业务量、投入),公共云平台持续带来更高的性价比。尽量下云 VS 上云的争执一直持续,从 2024 年看,选择公共云是绝大多数公司的选择,“下云带来高性价比”仅对于规模在百亿美金以上的公司才是真命题。
随 OpenAI 在 2022 年底发布 GPT3.5,大模型和 AGI 开始得到广泛认可,企业对这个领域的投资开始大大加速。“Data Centric AI”概念开始进入大家的视野,稀缺、优质的数据成为 AGI 时代最大的 Differentiator。这主要是因为:
图 8: AI 全流程里面,数据处理占据大量比例
基于上述,我们给出面向未来的数据 AI 平台的三个展望。
数据库和数据分析平台,尽量引入数据湖以及 NoSQL 的能力,其重点仍然是存储和计算结构化数据(Aka 可以被结构化的数据表格),存储与计算被认为是 1 对 1 的。而最近十年,特别是随着深度学习技术的发展,ML/AI 拓宽了数据平台需处理的数据类型,底层引擎模式随之改变:
图 9: 数据平台架构从一对一演进到三对 N
这种架构演进,也回应为什么数据湖 / 湖仓一体成为主流架构,以及数据开放性变得至关重要。
前文已经论述的企业私域 RAG 产生的原因和必要性,达到一定水准的 RAG 是大模型落地的必选项。相比数据库或者数据仓库,RAG 实际上是个更大的概念,面向未来看,所有数据都可以被抽象成知识库,结构化数据和分析仅仅是 RAG 的一部分。
而 RAG 的数据平台构建,与搜索引擎原理和流程非常类似。下图左右分别展示大模型 +RAG 架构链路和搜索引擎架构链路。对比会发现,流程非常相似,
图 10: 数据平台架构从一对一演进到三对 N
大数据时代,搜索对数据平台架构带来革命性的影响:
数据 AI 时代,通用 RAG 的需求将重塑数据平台,并将(部分)数据平台架构转型搜索 / 推荐模式。
特别值得一提的是,最近有个问题被反复问到:数据处理 / 分析平台和 AI 平台是一体的还是割裂的?回顾历史,是搜索需求驱动了大数据平台的诞生和发展(数据平台的第二次革命),但搜索平台与数据平台从来都是一体的,就用阿里巴巴为例,阿里所有的数据(包括搜索 / 推荐日志)都汇总进数据中台,统一处理。搜索推荐业务是数据中台业务的一个分支,是生长在数据平台之上,其数据处理、搜索 / 推荐算法也跑在数据中台的数据上。仅有在线服务部分(索引召回、排序)是与在线服务一起。因此,我们可以通过类比传统搜索平台来回答上述问题,数据平台和 AI 平台自下而上是一体的,仅有上层应用不同会差异。
Dark Data 是 Gartner 提出的概念,用来指代数据资产里面没有被利用起来的部分。在数据库和数据平台发展的 50 年历史里,关注点都在结构化数据上,占比更高的(普遍认知是 80%)的半 / 非结构化数据被认为是 DarkData。之前传统深度学习带来的 NLP 和 Image/Vidoe Recognition 能力(DL2Tag)仅能做到识别,理解深度不够。最近 1 年的大模型能力提升,使得半 / 非结构化数据有机会被理解和使用。一句话总结趋势:Dark Data (80%) can be bright。
图 11: 非结构化数据通常被划分为 DarkData
但半 / 非结构化数据的信息抽取、管理和使用,面临很多不同的挑战:
从架构角度看,存储层,三类数据的存储可以被湖仓一体架构天然统一,计算层 ,关系计算与大模型计算模式和原理不同因此无法统一,但计算结果可以通过混合向量 + 标量 + 标签的方式统一起来,在后面做融合计算。增强元数据层(Augmented metaData)是三类数据被发现、并融合计算的核心,也是整合的关键,但难度巨大:
增强元数据领域,在过去两年有很多投入,微软大力推动 Data Fabric,试图打造“一个 AI 支持的分析平台, 可将你的数据和服务 (包括数据科学和数据湖) 整合在一起, 从数据中获取更多价值。”。Databricks 推动 Unity Catalog,目标是“Unified governance for data and AI”。我们相信这一领域在未来会成为趋势和热点。
如上所述,数据分析领域保持高速发展,数据 AI 领域有革命性变化。在笔者看来,有如下未解问题摆在从业者面前。
SQL 作为关系型数据分析计算的官方语言,是数据库时代的唯一编程标准。到了大数据时代,从 MapReduce 开始,到 Spark Dataframe,Java/Scala/Python 成为数据分析编程标准的挑战者。但在数据分析领域,SQL 以声明式编程语言(Declarative Language)天然的易用性和普适性最终保持了主流编程语言的地位,Spark/Flink 等大数据处理平台最终都增加了 SQL 接口,新一代数据平台 Clickhouse/Snowflake 等仅支持 SQL。
AGI 在重塑搜索、内容生产、辅助编程、智能客服等多个行业和领域。数据相关领域也有智能化的巨大潜力。AI4Data 的概念已经被提出多年,在数据库顶会 SigMod21 上的论文《AI Meets Database: AI4DB and DB4AI》对这个领域做了详细的阐述。
但多年来,数据开发和数据应用开发仍然以人工的方式为主(如下图)
图 13: 我们好奇并期待:何时 AI 能够让数据平台进入“自动驾驶”时代?
图 14: 类比自动驾驶,自动化数据平台的一个分级
过去 20 年大数据技术的兴起和高速发展,诞生了当前的“五大”数据平台供应商:亚马逊(Redshift 为代表技术)、微软 Azure(Azure Synapse 为代表)、谷歌(BigQuery 为代表),以及 Snowflake 和 Databricks。他们是当下的 Big Five。
进入 AI 时代,我们坚定的相信,新一代数据平台会涌现出来,他们可能来自 BigFive 自身的迭代,也可能来自新兴创业公司。新技术带来新的机会,并持续塑造新商业。让我们期待第六大数据平台在不远的未来诞生。
笔者大胆预测,新一代平台会具备如下 5 个特性:AI Native、Data+AI Converged、SingleEngine For Analytics,Lakehouse and Cloud Native.
笔者本次引用火箭推进系统的一个说法作为开篇的题目,是希望从技术迭代的角度描述整个领域的宏观发展。希望表达如下观点:以 Hadoop 为基础的大数据体系架构已逐步陈旧,新一代的分析平台以及更发挥 AI 能力的数据平台架构仍有非常多的疑问还没有得到解答。值此 2024 年初,期待能和所有的读者 / 从业者一起,把数据平台体系向新一代推进。
特别声明,数据平台领域仍然处于发展期,部分技术收敛,但新方向和新领域层出不穷。本文内容和个人经历相关,是个人的视角,难免有缺失或者偏颇,同时限于篇幅,也很难全面。仅作抛砖引玉,希望和从业者共同探讨。