大数据开发岗位的面试通常具有很强的综合性既考察对底层原理的掌握也检验对前沿技术的了解。以下内容整合了近1年主流大厂的高频面试常问知识点帮读者快速构建知识体系。这些是面试的核心内容掌握它们能让你在技术面试中更有底气。一、Hadoop HDFS YARN这部分是基石面试重点在于对HDFS读写、YARN资源调度以及容错机制的理解。HDFS核心组件与架构NameNode管理文件系统的命名空间元数据。元数据存储在内存、fsimage磁盘镜像和edits操作日志中。DataNode负责实际数据的存储和读写。HDFS读写流程写入流程客户端向NameNode请求上传NameNode返回DataNode列表客户端与DataNode建立管道Pipeline进行数据传输最后通知NameNode。读取流程客户端向NameNode请求读取NameNode返回DataNode列表客户端直接与DataNode建立连接读取数据。高可用HA与容错NameNode高可用通过配置主备NameNode结合JournalNode共享edits日志以及ZooKeeper进行故障自动切换来实现。DataNode容错数据被切分为块默认128MB并复制多份默认3副本存储在不同的节点上确保数据不丢失。YARN资源调度核心组件ResourceManager全局资源管理和任务调度和NodeManager单节点资源管理。调度器常见的包括FIFO先进先出简单但不适合多租户、Capacity Scheduler划分队列适合多租户和Fair Scheduler动态分配资源适合共享集群。MRv2相比MRv1将资源管理与作业调度/监控分离提高了扩展性和资源利用率。二、SparkSpark面试的核心在于与Hadoop的对比、RDD和DataFrame的原理、任务提交流程、DAG调度以及内存/并行度调优。Spark vs. Hadoop核心优势Spark将中间结果存储在内存中对于迭代计算如机器学习比Hadoop MapReduce快100倍以上。Spark Streaming采用微批处理而Flink是真正的流处理。核心抽象RDD(弹性分布式数据集)Spark的核心数据抽象是不可变的、分区的、可并行计算的集合具有容错性和数据共享能力。DataFrame以命名列形式组织的分布式数据集类似于关系型数据库中的表。Spark SQL会将DataFrame的查询优化成一个高效的执行计划。任务提交与执行流程Driver运行应用的main()函数创建SparkContext负责将用户代码转化为任务并调度到Executor上执行。Executor在工作节点上执行任务、存储数据并提供给应用程序的进程。DAG(有向无环图)SparkContext将应用程序的RDD操作转化为DAG由DAGScheduler将DAG划分为多个Stage阶段每个Stage包含一组可以并行执行的任务。性能优化数据倾斜常见解决方案包括增加并行度、使用随机前缀进行预处理、自定义分区器等。内存调优合理配置spark.memory.fraction和spark.memory.storageFraction平衡存储和执行内存。三、Hive这部分侧重数据仓库建模ETL、分层、SQL优化数据倾斜处理以及Hive与MySQL等关系型数据库的对比。Hive与关系型数据库的区别数据规模Hive面向海量数据的批处理OLAP关系型数据库面向小规模数据的实时交互OLTP。执行引擎Hive底层将SQL转换为MapReduce/Spark任务延迟较高关系型数据库自己执行延迟低。表类型内部表Managed TableHive拥有其数据和元数据的完全控制权删除表时会一并删除数据。外部表External TableHive仅管理元数据数据存储在外部路径如HDFS删除表时只删除元数据不删数据。数据倾斜原因某些Key如NULL值、热点数据的数据量过大导致处理这些Key的任务成为瓶颈。解决方案参数调优开启hive.groupby.skewindata优化Group By的数据倾斜。SQL改写针对NULL值可过滤或打散如随机加前缀针对Join热点Key可拆分为两阶段Join。分桶Bucketing对频繁Join的列进行分桶可显著提升Join效率。HQL执行顺序FROM→ON→JOIN→WHERE→GROUP BY→HAVING→SELECT→DISTINCT→ORDER BY→LIMIT。四、消息队列 (Kafka / Pulsar)Kafka面试的重点在于其高性能设计顺序写、零拷贝、分区与副本机制、消息可靠性Exactly-Once语义以及最新架构演进。核心架构包含Producer生产者、Broker服务节点、Consumer消费者、Topic主题和Partition分区。高性能原因顺序读写利用磁盘顺序读写的特性速度接近内存随机读写。零拷贝Zero-Copy利用sendfile()系统调用使数据直接从PageCache传输到网卡避免CPU拷贝。批量处理Producer批量发送消息减少网络开销Consumer批量拉取消息提高吞吐量。数据可靠性与一致性消息确认ACKsacks0生产者不等待确认吞吐量最高可能丢失数据。acks1生产者等待Leader副本确认吞吐量高Leader宕机可能丢失数据。acksall/-1生产者等待所有同步副本确认吞吐量最低数据最可靠。Exactly-Once语义通过幂等性生产者和事务实现。新特性从Kafka 3.0开始KRaft模式基于Raft共识算法逐渐取代ZooKeeper用于元数据管理简化了架构和运维。五、实时计算 (Flink)Flink面试的焦点在于其“真正的流处理”模型、与Spark Streaming的对比、时间语义、状态与容错机制以及Flink CDC等高级应用。Flink vs. Spark Streaming处理模型Flink是原生流处理逐条处理毫秒级延迟而Spark Streaming是微批处理将小批量数据当作RDD处理秒级延迟。时间语义Flink原生支持事件时间Event Time、处理时间和摄入时间并内置Watermark机制处理乱序数据Spark Streaming早期版本主要基于处理时间。核心技术CheckpointFlink实现Exactly-Once语义的关键机制它会定期为整个作业生成分布式快照故障恢复时可从最近的Checkpoint恢复。State与Checkpoint通过Checkpoint将State持久化到HDFS等分布式存储实现故障恢复。Watermark用于衡量事件时间进度处理乱序到达的数据。应用场景实时数据分析、风控、监控告警、Flink CDCChange Data Capture等。六、NoSQL数据库 (HBase)HBase面试的重点在于其列式存储模型、与HDFS的协作、Region拆分与负载均衡以及关键的RowKey设计。HBase vs. HDFSHBase提供实时、随机、海量数据的读写能力而HDFS是高吞吐、顺序访问的分布式文件系统。HBase表的数据最终存储在HDFS上。核心组件HMaster负责Region分配、负载均衡和DDL操作。RegionServer负责处理客户端的读写请求管理其上的Region。ZooKeeper协调HMaster主备选举存储集群元数据位置。数据模型RowKeyColumn FamilyColumn QualifierTimestampValue。RowKey设计原则唯一性、散列性避免热点、长度适中16-30字节为佳。避免热点采用加盐、哈希、反转等方法使RowKey均匀分布避免RegionServer访问不均。七、算法与数据治理这部分包括大数据场景下的常见算法Top K、海量数据去重、数据仓库分层、元数据管理DataHub/Atlas以及数据质量评估完整性、准确性等。大数据算法Top K问题使用最小堆遍历海量数据对每个元素与堆顶比较若大于堆顶则替换并调整堆。海量数据去重通常使用布隆过滤器判断一个元素是否在一个集合中。数据仓库分层ODS原始数据层存放未经处理的原生数据。DWD数据明细层进行数据清洗、维度退化、事实表标准化。DWS数据服务层以数据域为单位进行轻度聚合。ADS数据应用层为具体报表或应用提供高度聚合的数据。元数据管理技术元数据表结构、ETL脚本和业务元数据指标定义、业务术语管理工具如Apache Atlas。数据质量完整性、准确性、一致性、时效性等。八、开放性问题开放性问题旨在考察你的项目经验、问题解决思路和对技术的热情。常见类型项目经验详细介绍一个你负责的数据处理项目包括背景、数据量、架构设计、遇到的挑战及解决方案。设计题例如“如何设计一个实时数据流处理平台”或“如何设计一个数据仓库”。问题排查比如“你的Spark任务很慢如何定位和解决”。技术热点你对数据湖、存算分离、实时数仓等技术的理解。回答要点使用STAR法则情境-任务-行动-结果回答项目问题。展示你的思考过程和解决问题的能力而不仅仅是结果。面试前重点复习自己薄弱的环节特别是像数据倾斜、Exactly-Once语义、Spark DAG调度这些常考常新的难点。