首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >北京京东,看看难度

北京京东,看看难度

作者头像
王中阳AI编程
发布2026-03-17 18:20:01
发布2026-03-17 18:20:01
690
举报
文章被收录于专栏:Go语言学习专栏Go语言学习专栏

欢迎点击下方👇关注我,记得星标哟~

文末会有重磅福利赠送

最近由于三大外卖平台“打仗”,优惠券多到数不过来,一日三餐每个平台各点一单哈哈哈,正好最近组织内部还有朋友在北京的京东面试过,分享一下她的面经(Java岗):

1. Kafka消息不丢失问题,Kafka本身会去保证消息的不丢失,为什么还需要存一个本地消息表来保证消息的不丢失呢?

Kafka 本身通过副本机制、生产者确认(acks)、消费者手动提交等设计理论上可以实现消息不丢失,但在实际分布式系统中,由于业务逻辑复杂性、中间件与业务操作的原子性难以保障,仍需要引入“本地消息表”等额外机制。以下是具体原因及解决方案的对比分析:

Kafka 消息不丢失的机制及其局限性

  1. 生产者端
    • acks=-1:要求所有 ISR(同步副本)确认写入成功,否则重试。
    • 重试机制:配置 retriesretry.backoff.ms 应对网络抖动。
  2. Broker 端
    • 副本冗余:通过 replication.factor≥3 + min.insync.replicas≥2,避免单点故障丢失数据。
    • 持久化:消息先写入 PageCache 再异步刷盘(依赖服务器可靠性)。
  3. 消费者端
    • 手动提交 offset:关闭 enable.auto.commit,业务处理成功后再提交 offset,避免消息未处理就被标记消费。

Kafka 机制的局限性

  1. 生产者与 Broker 的协同问题
    • 若生产者发送成功但 Broker 未返回 ACK(如网络中断),重试可能导致消息重复,但无法避免中间状态丢失。
  2. 业务操作与消息消费的原子性
    • 消费者处理业务逻辑(如更新数据库)与提交 offset 不是原子操作。若业务成功但 offset 未提交,系统重启后消息会重复消费;若业务失败但 offset 已提交,则消息永久丢失。
  3. 极端故障场景
    • Broker 集群同时宕机且未持久化的 PageCache 丢失。
    • ISR 副本全部失效时,unclean.leader.election 配置可能导致数据丢失。

为什么需要本地消息表?解决哪些 Kafka 无法覆盖的问题 本地消息表的核心是将业务操作与消息发送/消费绑定为原子操作,通过业务数据库事务保证一致性:

1. 生产者端:解决“发送后丢失”问题

  • 业务数据与消息记录同库事务写入本地表。
  • 异步线程轮询本地表,将未发送的消息投递到 Kafka。
  • 投递成功后删除本地记录。
  • 场景:消息发送到 Kafka 成功,但业务操作(如订单创建)失败,需回滚消息。
  • 方案
    • 业务数据与消息记录同库事务写入本地表。
    • 异步线程轮询本地表,将未发送的消息投递到 Kafka。
    • 投递成功后删除本地记录。

2. 消费者端:解决“消费后丢失”问题

  • 消费消息时,先查询本地消息表是否已处理(通过消息唯一 ID)。
  • 若未处理,执行业务操作并记录结果到本地表,同事务提交。
  • 成功后提交 offset。
  • 场景:业务逻辑成功执行(如扣款),但提交 offset 前消费者崩溃,导致消息重复消费。
  • 方案
    • 消费消息时,先查询本地消息表是否已处理(通过消息唯一 ID)。
    • 若未处理,执行业务操作并记录结果到本地表,同事务提交。
    • 成功后提交 offset。

3. 关键价值:弥补分布式事务缺口

  • 业务与消息状态的强一致:本地消息表通过数据库事务,确保业务操作和消息状态变更的原子性,避免 Kafka 各环节可能出现的状态分裂。
  • 幂等性保障:通过本地表去重,解决生产者重试或消费者重复消费导致的数据错乱。

生产建议

  • 若使用本地消息表,建议配合异步核对机制(如比对 Kafka 与业务库消息状态),防止极端情况下的表状态异常。
  • 优先通过 idempotent producer(幂等生产者)减少重复发送,而非完全依赖本地表。

总结:Kafka 与本地消息表的关系 Kafka 的可靠性机制解决消息在管道内的传输问题,而本地消息表解决业务操作与消息状态的全局一致性问题。二者是互补而非替代关系:

  • 在需要 100% 业务一致性的场景(如资金变动),本地消息表是必要的最终防线。
  • 在可容忍 At-Least-Once 语义的场景(如日志收集),仅 Kafka 原生机制即可满足。

2. 用守护线程来保证任务执行状态和数据库状态的一致性,这里有个问题,如果 subjob 执行完了在状态翻转之前宕机了,怎么保证他的一致性呢?宕机导致数据丢失的问题?

在分布式系统中,通过守护线程监控任务状态并同步到数据库时,若任务执行完成但状态更新前发生宕机,需通过以下机制保证一致性。具体解决方案如下:

1. 核心问题:宕机导致状态丢失的风险

  • 场景复现:SubJob 执行完成 → 守护线程未完成状态更新(如数据库写入)→ 系统宕机 → 重启后状态未翻转,任务被视为“未完成”,可能触发重复执行或数据不一致。
  • 根本原因:任务执行结果与状态更新操作非原子性,二者分离导致中间状态丢失。

2. 解决方案:原子性保障 + 故障恢复机制

  • 本地事务绑定状态更新
    • 设计要点:将任务执行结果与状态更新置于同一数据库事务中。
    • 优势
      • updateStatus 失败,事务回滚,任务结果不会被确认。
      • 宕机时事务未提交,数据库自动恢复至初始状态。
    • 局限:需任务执行本身支持事务(如数据库操作)。
  • 预写日志(WAL) + 检查点(Checkpoint)
    • 流程:
      • SubJob 完成时,先持久化结果到预写日志(如 Kafka 或持久化队列)。
      • 守护线程消费日志,更新状态。
      • 周期性设置 Checkpoint,记录日志消费位点。
  • 故障恢复
    • 宕机重启后,从最近 Checkpoint 恢复日志消费位点,重放未确认的状态更新。
    • 通过日志唯一 ID 实现操作幂等性,避免重复更新。
    • 异步核对 + 补偿机制
      • 核对需覆盖极端场景(如守护线程更新状态后宕机)。
      • 补偿操作需幂等(例如通过 UPDATE status SET state='done' WHERE id=task_id AND state!='done')。
      • 关键点
      • 守护线程更新状态后,异步记录操作流水(如操作 ID + 时间戳)。
      • 定时扫描任务表与状态表的差异,对“执行成功但状态未更新”的任务触发补偿更新。
      • 设计要点

3. 总结:关键设计原则

  • 原子操作优先:通过事务或预写日志绑定任务执行与状态更新,减少中间态窗口。
  • 幂等性必备:状态更新操作需支持重复执行(如基于唯一任务 ID 的幂等更新)。
  • 最终一致性兜底:通过核对与补偿覆盖极端故障,实现数据闭环。

生产建议

  • 若采用预写日志,建议搭配 Kafka 事务消息(idempotent producer)避免消息重复。
  • 核对频率需权衡时效性与系统负载(如每 5 分钟扫描一次)。

3. Dubbo 执行的原理

Dubbo 是一个高性能 Java RPC 框架,其核心执行流程如下:

  1. 服务暴露与注册
    • 服务提供者启动时,将服务接口、实现类及主机信息注册到注册中心(如 ZooKeeper)。
    • 注册中心通知消费者服务列表变更。
  2. 服务调用流程
    • 代理层:消费者通过动态代理生成远程接口的代理对象,调用时转为 RPC 请求。
    • 集群容错:根据配置(如 Failover、Failfast)选择可用提供者,支持负载均衡(如随机、轮询)。
    • 网络传输:通过 Netty 或 Mina 进行网络通信,默认使用 Hessian2 序列化协议。
  3. 核心分层设计
    • Service 层:业务逻辑接口与实现。
    • Config 层:配置管理(如 @Reference 注解注入服务)。
    • Proxy 层:生成服务代理。
    • Registry 层:服务注册与发现。
    • Monitor 层:调用统计与监控。

4. 什么情况下会导致索引失效

MySQL 索引失效的常见场景包括:

  1. 违反最左前缀原则
    • 复合索引 (a,b,c) 下,查询条件缺失 a 或未按顺序使用索引列(如 WHERE b=1)。
  2. 对索引列运算或函数操作
    • 例如 WHERE YEAR(create_time)=2023WHERE amount*2>100
  3. 隐式类型转换
    • 如字符串字段使用数字查询(WHERE code=100,实际 code 为 VARCHAR)。
  4. 使用 OR 连接非索引列
    • WHERE a=1 OR b=2,若 b 无索引则全表扫描。
  5. LIKE 以通配符开头
    • WHERE name LIKE '%abc' 无法利用索引(LIKE 'abc%' 有效)。
  6. 数据分布不均
    • 优化器判断全表扫描更快(如表中 90% 数据满足条件)。

5. MySQL 的 MVCC 机制

MVCC(多版本并发控制)是 InnoDB 实现高并发的核心机制:

  1. 核心组件
    • 隐藏字段:每行数据包含 DB_TRX_ID(最近事务 ID)和 DB_ROLL_PTR(回滚指针)。
    • Undo Log:存储数据的历史版本,用于回滚和一致性读。
    • Read View:事务开启时生成,记录当前活跃事务 ID 列表,用于判断数据可见性。
  2. 可见性规则
    • 数据行的 DB_TRX_ID 小于 Read View 中最小事务 ID → 可见(已提交)。
    • DB_TRX_ID 大于 Read View 中最大事务 ID → 不可见(未提交)。
    • DB_TRX_ID 在活跃事务列表中 → 不可见(未提交);否则可见。
  3. 解决并发问题
    • 读已提交(RC):每次查询生成新 Read View,避免脏读。
    • 可重复读(RR):事务内首次查询生成 Read View 并复用,避免不可重复读。

6. 缓存穿透和缓存雪崩

  1. 缓存穿透
    • 布隆过滤器(Bloom Filter)拦截非法 Key。
    • 缓存空值(key:null),并设置短过期时间。
    • 问题:大量请求查询不存在的数据(如无效 ID),绕过缓存直击数据库。
    • 解决方案
      • 布隆过滤器(Bloom Filter)拦截非法 Key。
      • 缓存空值(key:null),并设置短过期时间。
  2. 缓存雪崩
    • 过期时间添加随机值(如 30min + rand(10min))。
    • 热点数据永不过期,后台异步更新。
    • 熔断降级:数据库压力过大时拒绝部分请求。
    • 问题:大量缓存同时失效,请求集中访问数据库导致宕机。
    • 解决方案
      • 过期时间添加随机值(如 30min + rand(10min))。
      • 热点数据永不过期,后台异步更新。
      • 熔断降级:数据库压力过大时拒绝部分请求。

7. Redis 如何保证高性能?Redis 数据结构

Redis 高性能的核心设计:

  1. 内存操作:数据全内存存储,读写速度比磁盘数据库快 10⁵ 倍。
  2. 高效数据结构优化
    • SDS(简单动态字符串):预分配空间减少扩容开销。
    • 跳表(ZSET):O(logN) 复杂度实现范围查询。
    • 渐进式 Rehash(Hash):避免一次性迁移大哈希表导致服务阻塞。
  3. 单线程模型(6.0 前核心命令处理):
    • 避免多线程锁竞争和上下文切换开销。
  4. I/O 多路复用
    • 基于 epoll/kqueue 监听大量连接,单线程处理网络 I/O。
  5. 协议简单:RESP 协议解析高效,减少 CPU 消耗。

Redis 6.0+ 优化:网络 I/O 多线程化提升吞吐量,但命令执行仍保持单线程以保证原子性。


8. Spring 和 Spring Boot 的区别

维度

Spring

Spring Boot

配置方式

需手动配置 XML/注解,依赖管理复杂。

自动配置(@EnableAutoConfiguration),简化依赖(Starter 包)。

内嵌服务器

需外部部署(如 Tomcat)。

内置 Tomcat/Jetty,无需单独部署。

监控与运维

需集成 Spring Actuator 等模块。

内置 Actuator,提供健康检查、指标收集等。

开发效率

需大量样板代码。

约定优于配置,快速构建独立应用。


9. Spring Boot 自动装配的原理

自动装配通过以下流程实现:

  1. 启动注解 @SpringBootApplication
    • 组合了 @EnableAutoConfiguration,触发自动配置加载。
  2. 加载 spring.factories
    • 扫描 META-INF/spring.factories 文件,读取 AutoConfiguration 类列表。
  3. 条件化装配
    • 通过 @ConditionalOnClass@ConditionalOnProperty 等注解,按需实例化 Bean(如仅当存在 DataSource.class 时配置数据库连接)。
  4. Bean 注册
    • 符合条件的配置类中,@Bean 方法将对象注册到 IoC 容器。

10. @Autowired 是如何把 Bean 注入进去的

@Autowired 注入流程分为四个阶段:

  1. 注入触发阶段
    • AutowiredAnnotationBeanPostProcessor 扫描被 @Component 标记的类,识别带 @Autowired 的字段/方法。
    • 收集依赖信息并封装为 InjectionMetadata 对象。
  2. 依赖解析阶段
    • 按类型匹配:查找容器中与目标类型匹配的 Bean(如 UserService)。
    • 按名称兜底:若同类型多个 Bean 存在,尝试匹配字段/参数名称(如 userService)。
    • @Qualifier 指定:强制按名称注入(如 @Qualifier("masterDB"))。
  3. 注入执行阶段
    • 字段注入:反射直接修改字段值(无需 Setter)。
    • 方法注入:调用 Setter 方法传入依赖对象。
  4. 特殊场景处理
    • 集合注入List<Interface> 注入所有实现类;Map<String, Interface> 的 Key 为 Bean 名称。
    • 静态字段限制:无法直接注入静态变量(需通过 @PostConstruct 中转)。

底层原理:依赖解析由 DefaultListableBeanFactory.doResolveDependency() 完成,最终通过 Field.set() 或方法反射注入。


11. ES 与 MySQL 的区别,几个数据节点,几个副本,副本数可以为 0?

一、核心差异

维度

Elasticsearch

MySQL

数据模型

文档型(JSON),倒排索引支持全文搜索。

关系型(行列),B+树索引支持事务。

分布式架构

原生分片,横向扩展至数千节点。

单机为主,分库分表需中间件。

查询场景

多字段组合查询高效(如 title:手机 AND price:[1000 TO 2000])。

事务操作(ACID)、关联查询(JOIN)高效。

二、节点与副本配置

  1. 节点数量
    • ES:至少 3 节点(防脑裂),主分片与副本分片跨节点分布。
    • MySQL:主从架构至少需 2 节点(1 主 + 1 从)。
  2. 副本数规则
    • 可配置为 0(number_of_replicas: 0),但宕机时数据可能丢失。
    • 生产建议 ≥1(副本=1 容忍单节点故障)。
    • ES
    • MySQL:副本数不可为 0(单点部署即无副本),高可用方案需 ≥1 从节点。

12. 设计模式,使用过哪些设计模式,详细介绍模板方法

模板方法模式

核心思想

  • 定义算法骨架(抽象类),子类重写特定步骤而不改变结构。

实现示例

代码语言:javascript
复制
public abstractclass DataProcessor {
    // 模板方法(final 防止篡改)
    public final void process() {
        connect();      // 固定步骤
        transform();    // 抽象方法(子类实现)
        disconnect();   // 固定步骤
    }
    private void connect() { /* 数据库连接逻辑 */ }
    protected abstract void transform(); // 由子类自定义
    private void disconnect() { /* 断开连接 */ }
}

publicclass CSVProcessor extends DataProcessor {
    @Override
    protected void transform() {
        System.out.println("解析 CSV 数据...");
    }
}

应用场景

  • 框架扩展点:如 Spring 的 JdbcTemplate,用户实现 RowMapper 处理结果集。
  • 业务流程标准化:如订单处理流程(校验 → 计算 → 持久化),子类定制计算逻辑。

优势

  • 避免代码重复,确保核心流程稳定。
  • 开放扩展点,提升灵活性。
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-06-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 王中阳 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1. Kafka消息不丢失问题,Kafka本身会去保证消息的不丢失,为什么还需要存一个本地消息表来保证消息的不丢失呢?
  • 2. 用守护线程来保证任务执行状态和数据库状态的一致性,这里有个问题,如果 subjob 执行完了在状态翻转之前宕机了,怎么保证他的一致性呢?宕机导致数据丢失的问题?
  • 3. Dubbo 执行的原理
  • 4. 什么情况下会导致索引失效
  • 5. MySQL 的 MVCC 机制
  • 6. 缓存穿透和缓存雪崩
  • 7. Redis 如何保证高性能?Redis 数据结构
  • 8. Spring 和 Spring Boot 的区别
  • 9. Spring Boot 自动装配的原理
  • 10. @Autowired 是如何把 Bean 注入进去的
  • 11. ES 与 MySQL 的区别,几个数据节点,几个副本,副本数可以为 0?
  • 12. 设计模式,使用过哪些设计模式,详细介绍模板方法
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档