欢迎来到皮皮网官网

【账号获取网站源码】【物理恐惧50级源码】【变色鱼指标源码公式】leader源码分析

时间:2024-12-23 11:53:07 来源:同花顺主力建仓 源码

1.面试说两天给结果给我,源码那都没有机会为什么不说今天给结果给我?
2.深入剖析Zookeeper原理(五)ZK核心源码剖析
3.剖析linux内核源码,分析task_struct结构体详解
4.Elasticsearch 源码探究 ——故障探测和恢复机制
5.记一次 Kafka 重启失败问题排查

leader源码分析

面试说两天给结果给我,源码那都没有机会为什么不说今天给结果给我?

       ‍

       今天给大家分享一个关于一次奇葩面试:喊价K,分析HR却给了K的源码经历,网友评论说:面试造飞机,分析账号获取网站源码工作拧螺丝?

       自报家门

       先做个自我介绍,源码楼主坐标帝都,分析5 年经验,源码跳槽之前在一家传统小公司,分析年薪 万。源码

       这次面试前前后后大概两个月的分析时间,面试了大概 6 家公司,源码命中 4 家,分析最终去了一家估值 亿美金的源码生鲜电商独角兽,年薪 万,刚好翻倍。

       面试过程

       话不多说,直接进入面试现场!

       好未来

       开始面试第一天上午投递好未来,下午 3 点面试,一共面试了 3 轮,问的问题比较多。

       第一轮

       面试官看了我的简历,首先让我画出 Eureka 的执行流程,这块在之前的准备过程中有深入看过,因此比较流畅的画出来并配合解释说明。

       之后问到项目中使用分布式锁解决缓存重建并发的问题,并要求画出实际的执行流程,数据库也问的比较多,像事务的隔离级别,MySQL 实现可重复读的原理,索引等。

       面试官给出了一个场景,在数据库主从同步的情况下,如果从库同步主库的数据延迟比较高,怎么才能在写到主库后立刻能够读取到数据。

       我解释了主从同步的原理,并以此说明主库到从库的复制一定是有延迟的,因此要保证当写到主库的时候立刻能读到数据。

       要么就直接配置那个接口读数据的话直接走主库,因为这种写完主库立刻要读取数据的场景比较少,可以做些特殊配置。

       另一种方案就是在往主库写数据的时候,可以直接往内存缓存中写一份,设置一个较短的过期时间,后面可以直接从缓存中读到数据。我说完之后,面试官也没给出评价,就这么过去了。

       此外,还问到一些基础性的问题,比较印象深刻的是:在加锁的时候,用什么锁对象是内存占用最小的,我说是 Object 对象,面试官说不对,我一时没想出来,面试结束后和朋友探讨,觉得应该是长度为 0 的 byte 数组。

       其他还问到了 Collections.sort() 使用的排序算法,AQS,线程池,ThreadLocal 等等问题,主要都是一些考察基本功的问题,一轮面试就这么过去了!

       第二轮

       面试官更关注对一些技术的理解,问到了 ElasticSearch 的一些基础以及它和 MySQL 的区别在哪里;Eureka 和 Zookeeper 做服务发现的区别在哪里。

       还问了分布式限流有哪些方案,以及用线程池进行限流的缺陷是什么,项目中系统日志的处理;还有 JVM 模型,JMM 模型,垃圾回收机制,垃圾收集器等问题。

       之后聊了一些设计模式的物理恐惧50级源码使用,在项目中使用了哪些设计模式,对设计模式的几个原则的理解。

       第二轮结束后,由于第三轮的面试官在开会,所以等了一段时间,等面试官来了之后,只聊了很短时间,面试官就说还有别的事,今天先到这里了。

       主要问到了上家公司的加班情况,对加班的认识,职业规划,也问了几个技术问题,像 Tomcat 的优化这块,自我感觉答的不是很好。

       整个面试从 3 点到 7 点,有点虎头蛇尾的感觉,结束后也没有消息了。

        到家

       面试一共三轮,上午 点过去,两轮技术面,下午两点过去,等了一会,然后跟 HR 聊了有半个多小时,HR 说明在一周之内会有结果。

       第一轮

       第一轮面试官的问题主要集中在基础上,我大概罗列了问到的一些问题,不同的简历不同人肯定问的也不太一样,有兴趣的同学可以参考看看。

       主要是 JVM 模型,锁的原理,Synchronized 和 ReentrantLock的区别,偏向锁/轻量级锁/重量级锁的原理,能否从偏向锁直接升级成重量级锁。

       Java 并发包里有哪些类,如何使用,线程池原理和参数配置,JVM 调优,堆大小的设置,多线程的线程数的设置,Volatile 原理,ThreadLocal 原理和使用。

       Redis 和 Zookeeper 如何实现分布式锁,Redis 的数据类型,一些具体命令,比如要获取一个有序列表的前 个元素应该用什么命令。

       数据库索引的使用,聚簇索引和非聚簇索引,没有主键的话,数据如何组织。

       B+ 树的原理,InnoDB 引擎和 MyISAM 引擎的区别和使用场景,数据库隔离级别和原理,MySQL 的分库分表,MQ 的可靠性和顺序性,ES 插入数据的原理等。

       第二轮

       第二轮是部门 Leader 来面试,这轮面试主要集中在框架源码上,我画出了源码的执行流程,之后面试官在一些点深问,因为这块我看的比较全面,问的问题基本都答出来了。

       然后这里面试官还问了在源码中我有学到什么东西,我讲了使用配置类代替 Properties 文件,Volatile 在单例模式中的使用,内存的多级缓存机制,线程池的各种不同应用场景,MeasureRate 统计一分钟内心跳次数,批处理机制等。

       这里我的回答主要集中在代码编写层面,也可以从架构层面说下学到了哪些,变色鱼指标源码公式我觉得后者更有高度。

       最后我向面试官咨询了这个岗位具体做的事情,部门是基础服务部,面试官画图给我说明了部门内部一些项目划分,技术栈的使用,后续的规划等内容,并约我下午继续跟 HR 聊。

       HR 面

       下午跟 HR 的面试,HR 顺着简历上的公司一个个聊,问了离职原因,公司情况,如何向上司提出离职的,团队规模,是否带团队。

       还问了上午面试的岗位知不知道具体要做什么,之后 HR 说了下公司的一些情况,上班时间,福利,加班情况,问了我现在的薪资情况,期望薪资,我问了下出结果的时间,HR 说一周之内。

       第二周的周五下午六七点的时候,这家公司 HR 给我打电话,告诉我面试通过了,之后提到了给我的薪资,算下来竟然只给了我一个 5% 的涨幅。

       HR 给出的解释是,因为我前家公司上一年只发了 薪,而他们有 薪和两个多月的绩效,用 个月的薪水除以 ,算下来平均到每个月也能达到我期望薪资的水平。

       这个计算方法实在是膈应人,虽然 HR 后来表示可以跟 CEO 申请提高每月的 Base(大概提高到 % 的水平吧),不过当时我已经有较为满意的 Offer 了,还是决定不去这家了。

       某生鲜电商独角兽

       由于前面说了薪资,就不说具体公司名字了。这家公司我面试了两天,一共三面,第一天笔试加初面,然后第二天有两轮复试。

       第一轮

       一面主要还是基础,集中在 IO/并发/缓存/Redis/Zookeeper/分布式/JVM/数据库等。

       其中问到 Redis 的单线程模型的时候,我这块了解的不是很清楚,只是知道使用 NIO 的方式,然后以自己的理解去说了,面试官表示这可能是我看过别的框架的模式,跟 Redis 搞混了,不过也算是答上来一些了。

       之后聊了一些项目的情况,比如每日的访问量有多少,QPS 多少,订单量多少等数据,据此得出数据库的访问压力如何。

       另外也深入问了使用分布式事务的一些问题,还有分布式事务在时间上的性能。

       所以这里给各位兄弟强调一下,对自己的项目一定要非常熟悉,各个点都要考虑到。

       一面跟面试官聊的还挺好,面试官也表示我的基础还不错,问我是不是平时都有学习,之后就是约二面了。

       由于当时已经下午 1 点了,后面的面试官也在中午休息,而我下午也还有别的面试,因此 HR 跟我约第二天来复试。

       第二轮

       二面的星球重启怎么开启源码面试官也聊了基础和一些设计上的问题,比如同时访问三个有相同功能的 API,要求将执行最快的结果返回,有哪些方式,这块主要还是考察对并发编程,并发控制的理解和掌握,有一些并发控制的类能够做到。

       其他的还问到了,要开发一个新的 API,需要考虑哪些方面,把所有要考虑的地方都说出来,大家可以说下边界处理,高可用,并发问题,可扩展性,幂等性,重试机制等等,可以说的非常多。

       总体问了有 6 块内容吧,面试官一边问也一边在记录,一些基础的问题这里就不再多说了。

       第三轮

       三面的面试官问的要更底层一些,Java 线程与内核线程的关系,与进程的关系;关于并发我所了解的方方面面。

       对于这个,我从为什么有并发,并发问题产生的根源,解决并发问题的一些理论,Java 中解决并发问题的方式,不同方式的适用场景和对比等方面进行了回答。

       另外还问到 Redis 的几种数据类型,以及每种数据类型的底层实现,跳表这种数据结构如何插入数据, Hash 如何扩容。

       这块我跟面试官说具体扩容规则不太了解,然后向面试官说了我了解的 Java 中的 HashMap 的扩容规则和具体实现。

       Tips:面试时如果遇到自己不太熟悉的部分,可以稍作变通,把自己熟悉的内容和面试官的问题结合起来。

       之后又问了一些小的知识点,有的也没答好,像 CopyOnWrite 就不知道用来做什么,然后就是一些为什么离职之类的问题,对未来职业发展的考虑等。

       之后面试官问我有什么想了解的,也问了我的期望薪资,我说了具体的数,也表示没想要太多,更看重平台的发展,最后面试官说明天 HR 会打电话给我。

       HR 面

       最后就是跟 HR 的沟通了,第二天 HR 打来电话告知面试通过,然后问了我期望薪资,沟通入职时间,之后加微信,按照 HR 的要求提供了一些材料,第二天就收到 Offer 了。

       PS:最终楼主选择了这家公司,除了很有竞争力的薪资之外,我还很看重这家公司的发展平台,因为他们有非常大的用户量,会遇到各种技术挑战,是很好的提升锻炼的机会。

       然后这里有一个开篇提到的小插曲:当时 HR 电话问我期望薪资的时候,我说 K。

       结果后续加微信聊天时,HR 告诉我技术面试的反馈很好,决定给我 K,一个月还有 的补助,算下来一个月有 K,发 个月。这种 HR 主动加薪的红角鸮最强源码专精事情我还是第一次见,意外之喜,哈哈!

       玩吧

       这家公司的职位是去做 App 后台的,用户量也不错,面试一共两轮技术面,最后是 HR 面。

       第一轮

       一面的时候,网络这块问的比较多,三次握手,四次挥手什么的,还有整个网络请求的执行流程,数据包的大小,对长连接的理解等。

       然后数据库这块也问了一些,提供了一个场景,假如要实现一个最简单的朋友圈,用户可以看到朋友的朋友圈动态,朋友也可以看到用户发的动态,然后问表的设计。

       我说了自己的实现,像用户表,好友表。面试官问有没有更好的方式,我没答上来,面试官表示这个轻易可能想不到,就问别的问题了,别的也没什么特殊的问题,都是一些基础的东西,大概聊了一个小时吧,就到了第二面了。

       第二轮

       二面是技术总监面的,整体没怎么聊技术,就是一些个人素质上的考察。比如:

为什么会选择做开发,没做别的用三个短语来描述自己的优点说说自己的缺点现在公司有系统稳定运行着,如果你发现了有新的技术能够改善现有系统,你会不会引进,会考虑哪些方面日常学习的方式,看过哪些书有没有带团队,描述下团队成员的优缺点,有没有改善有没有面试过别人,会从哪些方面考察职业规划是怎样的,想做技术管理还是技术专家对 Shell 熟不熟悉,写个 Word-Count 用到哪些命令

       最后还聊了下公司的氛围,项目的情况等。然后也没啥特殊的,就过了。

       HR 面

       最后跟 HR 聊,主要还是说了下公司的福利待遇,公司的氛围,也问了我现在有没有 Offer,对他们的感觉怎么样。

       然后问了之前公司的薪资和现在的期望薪资,最后加了微信,告诉我两天内给结果。最后也是成功通过了面试并拿到了 Offer。

       友信金服-人人贷

       这家公司面试有三轮,大同小异,这里简短的说一下。

       第一轮

       一面仍然是基础的考察,像 CAS 的理解,和它存在的问题,ConcurrentHashMap 的锁机制,ElasticSearch 倒排索引,Eureka 的底层源码,还有服务访问的重试机制等等。

       第二轮

       二面上来问了垃圾回收的问题,类似下面的代码:

       问 a 和 b 能否被垃圾回收?这里主要考察 JVM 如何判断一个对象是否可以被回收,是通过引用计数还是可达性分析,引用计数的方式会产生像上面代码一样的循环引用的问题,所以 JVM 没有采用这种方式。

       第二个问题是,如果有个跟 Java 中原生的 String 一模一样的类,包括包名,类名都是一样的,方法也是一样的,唯独比原生的 String 的方法多个打印输出语句。

       然后把它放进项目的依赖中,在写程序的时候,导入 String 类,问到底执行的是 Java 原生的 String 的方法还是自己写的 String 方法。

       对于这个问题,可以考虑下 Java 中类加载的双亲委派模型。

       然后就聊了项目的一些架构,问的比较细,要求我对每块都详细画图解释。

       最后就是让画一个 Spring Cloud 技术栈所有框架的整体执行流程图,并对 Hystrix 的限流熔断机制做了解释说明,别的好像也没什么了。

       这之后二面算是结束了,面试官和我说了下自己团队的情况,人员情况,要做的项目的情况等。

       第三轮

       最后一面是业务总监面的,面试官让我说了下自己在公司做了哪些事情,我挑其中一个项目做了仔细说明,然后说了下职业规划,对行业的看法等等。

       最后 HR 和我加了微信,同样说是两天内给结果,不过第二天他们就给出通过的结果了,然后发了 Offer。

       某实时数据分析服务公司

       这是一家做体育赛事的实时数据分析展示的公司,公司不大,去年拿了 A 轮融资,看网上整体评价还不错,就去试了试。

       面试总共有技术两轮,HR 一轮。去的时候首先是写笔试题。做完之后进入面试。

       第一轮面试官没有聊太久,问的问题也比较偏基础,就是一些面试常问的问题,然后说了 Eureka 的执行原理,说完之后,面试官就去叫技术总监了。

       第二轮面试是技术总监面的,技术点没问太多,主要集中在之前的笔试题上,笔试题包括 SQL 的考察,还有几道算法题:找出有序数组中指定元素出现的次数;二叉查找树从小到大排序。因为时间的问题,我主要写了实现思路。

       还有一题是,有 瓶水,其中一瓶有毒,小白鼠喝一滴有毒的水一小时后会死,要在一小时找出来哪瓶水有毒最少需要几只小白鼠。

       在 SQL 的考察这块,面试官看完我的答案后,又改了其中的需求,要求给出 SQL 的实现,另外也问到了 SQL 的执行效率。

       这里给大家强调一下,我面的基本上每家公司面试都会问到数据库,所以这块还是挺重要的,需要重点去看。

       然后关于找出有序数组中指定元素出现次数的问题,原来要求的时间复杂度是 O(lgn),后来面试官说不要求任何时间空间复杂度,如何简单的实现,我给出的方案是用 HashMap,相同的 Key 每出现一次,Value 加 1。

       然后是小白鼠问题,说了解题思路,主要就是用位的思想,对 瓶水编码,实际只需要 4 个位就可以。

       之后面试官还现场出了别的算法题,我基本都给出了结果,总体而言面试还比较顺畅,之后聊了下职业规划,技术发展,学习新技术的方法,面试官也聊了之后他们准备做的事情,并给我现场演示了他们的项目。

       最后到了 HR 面,主要聊了下上家公司离职的原因,公司福利,上下班时间,我的期望薪水,还问到之前有没有带团队的经历等。

       最终他们在第二周的周四才给出面试通过的结果并表示正在走 Offer 流程,由于 CEO 不在,在薪资上还没最终确定,我因为有了更满意的 Offer,因此婉拒了。

       总结

       总结一下,这两个月的面试,我觉得最重要的就是基础和项目这两块,基础一定要扎实,否则第一轮面试可能都过不了。

       JVM,并发是非常高频被问到的地方,在开始面试之前一定要好好准备,另外也需要有自己非常熟悉的领域。

       在这个领域里,面试官的一切问题你都可以 Hold 住,我觉得,对于这种基础好,而且有自己长处的面试者,面试官没有理由不喜欢。

       还有项目这块,对项目的细节一定要清楚,各种方案的设计思路,实现细节等等都要了如指掌,这样在面试官对各种细节的追问下不至于手忙脚乱。

深入剖析Zookeeper原理(五)ZK核心源码剖析

       ZooKeeper内部维护了三种选举算法:LeaderElection, FastLeaderElection和AuthLeaderElection。FastLeaderElection与AuthLeaderElection的实现类似,关键差别在于AuthLeaderElection加入了认证信息,但已被ZooKeeper淘汰。FastLeaderElection相较于LeaderElection更加高效,已在3.4.0版本后不被推荐使用。当前版本仅保留FastLeaderElection选举算法。

       接下来,将深入探讨FastLeaderElection选举算法的具体实现。此算法在ZooKeeper中通过高效的机制确定领导者角色,以保证集群的稳定性和高效性。

       深入分析FastLeaderElection算法源码,理解其实现机制,有助于我们更好地掌握ZooKeeper的核心原理。代码逻辑清晰,通过分布式共识算法,确保了选举过程的公平性和正确性。

       为了实现高效的选举过程,FastLeaderElection引入了一系列优化。这些优化包括但不限于,通过优化算法减少选举过程中的通信开销,以及通过改进数据结构提高选举过程的执行效率。

       在实现过程中,FastLeaderElection核心接口被精心设计,确保了选举算法的可扩展性和灵活性。这些接口不仅支持基本的选举功能,还提供了丰富的异常处理机制,以应对各种异常情况。

       此外,ZooKeeper的持久化机制是其稳定性的重要保障。ZooKeeper通过事务日志实现持久化处理,确保了数据的一致性和可靠性。日志记录了所有对集群状态的修改操作,使得数据恢复和故障恢复成为可能。

       在ZooKeeper中,Watcher机制的实现是其核心功能之一。Watcher用于通知客户端关于节点状态的变更,以实现实时数据同步。ZooKeeper内部的Watcher管理器(ZKWatchManager)和watch注册类(如ExistWatchRegistration、DataWatchRegistration、ChildWatchRegistration等)共同实现了这一机制。

       这些注册类分别对应了不同的watch类型,允许客户端根据需求订阅不同的事件。例如,ExistWatchRegistration用于监听节点是否存在,DataWatchRegistration用于监听节点数据的变化,而ChildWatchRegistration用于监听子节点的变更。

       通过这些watch注册类,客户端能够实时接收来自ZooKeeper集群的事件通知,从而实现实时的数据同步和状态感知。同时,ZooKeeper通过Watcher机制实现了对节点状态的高效监控,确保了数据的一致性和集群的稳定性。

       最后,ZooKeeper的网络通信实现是其对外提供服务的基础。通过优化的网络通信协议,ZooKeeper能够高效地在分布式环境中进行数据交换和状态同步。这一部分的实现涉及到多种通信机制,如TCP协议、数据编码、消息格式等,确保了数据传输的可靠性和性能。

       总结,ZooKeeper通过精心设计的选举算法、持久化机制、Watcher机制和网络通信实现,提供了一套高效、稳定和可靠的服务框架。深入理解这些核心原理和实现细节,有助于我们更好地运用ZooKeeper在分布式系统中解决实际问题。

剖析linux内核源码,task_struct结构体详解

       在Linux内核中,进程与线程的统一数据结构是task_struct,它作为进程存在的唯一实体,通过双向循环链表连接所有task_struct。每个任务拥有唯一标识pid和线程组IDtgid,其中group_leader指向进程主线程。有了tgid,我们可以区分task_struct代表进程还是线程。

       Linux kernel通过成员变量表示进程的亲缘关系,包括进程状态和权限控制。进程权限涉及进程访问文件、访问其他进程及执行操作的能力。操作权限由cred和real_cred成员表示,描述了当前进程和试图操作的进程之间的权限关系。

       进程运行统计信息记录了用户态和内核态上消耗的时间以及上下文切换次数,反映了进程的运行情况。信号处理包括被阻塞、等待处理和正在处理的信号,信号处理函数可以忽略或结束进程,处理栈用于信号处理。

       进程的虚拟地址空间分为用户虚拟地址空间和内核虚拟地址空间,每个进程有独立的用户虚拟地址空间,内核线程无用户地址空间。进程拥有文件系统数据结构和打开文件数据结构,涉及Linux文件系统操作。

       每个task都有内核栈,用于在调用系统调用时从用户态切换到内核态。内核栈包含thread_info和pt_regs数据结构,其中thread_info由体系结构定义,pt_regs用于保存系统调用时的CPU上下文。在系统调用返回时,可以从进程的原来位置继续运行。

       综上所述,task_struct结构体在Linux内核中扮演着关键角色,它管理着进程和线程的生命周期,从状态管理、权限控制、运行统计、信号处理到内存管理与文件系统交互,以及系统调用的上下文切换,都是通过task_struct的成员变量和结构体实现的。这些特性使得Linux内核能够高效、灵活地管理多任务环境。

Elasticsearch 源码探究 ——故障探测和恢复机制

       Elasticsearch 故障探测及熔断机制的深入探讨

       在Elasticsearch的7..2版本中,节点间的故障探测及熔断机制是确保系统稳定运行的关键。故障监测主要聚焦于服务端如何应对不同场景,包括但不限于主节点和从节点的故障,以及数据节点的离线。

       在集群故障探测中,Elasticsearch通过leader check和follower check机制来监控节点状态。这两个检查通过名为same线程池的线程执行,该线程池具有特殊属性,即在调用者线程中执行任务,且用户无法直接访问。在配置中,Elasticsearch允许检查偶尔失败或超时,但只有在连续多次检查失败后才认为节点出现故障。

       选举认知涉及主节点的选举机制,当主节点出现故障时,会触发选举过程。通过分析相关选举配置,可以理解主节点与备节点之间的切换机制。

       分片主从切换在节点离线时自动执行,该过程涉及状态更新任务和特定线程池的执行。在完成路由变更后,master节点同步集群状态,实现主从分片切换,整个过程在资源良好的情况下基本为秒级。

       客户端重试机制在Java客户端中体现为轮询存活节点,确保所有节点均等机会处理请求,避免单点过载。当节点故障时,其加入黑名单,客户端在发送请求时会过滤出活跃节点进行选择。

       故障梳理部分包括主master挂掉、备master挂掉、单个datanode挂掉、活跃master节点和一个datanode同时挂掉、服务端熔断五种故障场景,以及故障恢复流程图。每种场景的处理时间、集群状态变化、对客户端的影响各有不同。

       最佳实践思考总结部分包括客户端和服务器端实践的复盘,旨在提供故障预防和快速恢复策略的建议。通过深入理解Elasticsearch的故障探测及熔断机制,可以优化系统设计,提高生产环境的稳定性。

记一次 Kafka 重启失败问题排查

       在2月日下午1点左右,收到用户反馈,日志显示kafka集群A主题的分区选举不到leader,导致部分消息发送到该分区时,出现无leader错误。运维在kafka-manager中发现broker0节点处于假死状态,进程仍在运行,尝试多次重启后仍无反应。为了解决问题,运维使用kill命令终止了节点进程,接着尝试重启,但失败了。

       kafka版本为0.,其中unclean.leader.election.enable参数默认为false,表示分区不能在ISR以外的副本中选举leader。因为A主题的分区leader副本位于broker0,且另一个副本速度跟不上leader,已被踢出ISR。这导致发送到分区的消息持续报错,且未消费的消息无法继续消费。

       查看KafkaServer.log日志,发现Kafka启动过程中生成了大量日志,显示大量主题索引文件损坏,并在重建索引文件。定位到源码中kafka.log.OffsetIndex#sanityCheck方法,该方法用于检查每个logsegment的index文件,确保索引文件的完整性。判断索引文件是否损坏的依据是,entries索引块等于零时,表示索引没有内容,没有损坏;当entries不等于零,需要判断索引文件最后偏移量是否大于索引文件的基偏移量,不大于则认为索引文件损坏,需要重建。

       日志显示非正常退出可能导致旧版本中发生此问题。然而,后续版本已经修复了这个问题,修复逻辑是删除损坏的日志文件并重建。接着,查看导致重启失败的错误信息,发现问题出在删除并重建索引过程中。在相关issues中,找到了关于这个问题的描述,表明它很难复现。为了解决问题,升级kafka版本是当务之急。

       针对问题,解决思路是确保broker0启动成功,恢复A主题的分区。由于日志和索引文件导致启动失败,只需删除损坏的日志和索引文件并重启即可。但如果分区的日志索引文件也损坏,会导致该分区下未消费的数据丢失,因为此时分区的leader仍在broker0中,但由于broker0挂掉且分区ISR只有leader,导致分区不可用。在数据清空broker0上的leader数据并重启后,Kafka可能会将broker0的副本作为leader,但由于数据被清空,只能将follower数据截断为0,不大于leader的偏移量,这不合理。

       提出一个可能的操作,即在分区不可用时,用户可以手动设置分区内的任意一个副本作为leader。后续将对这个问题进行深入分析。

       张乘辉,中通科技信息中心技术平台部员工,主要负责消息平台与全链路压测项目的研发。热衷于技术分享,微信公众号「后端进阶」作者,技术博客作者,Seata Contributor,GitHub ID:objcoding。

copyright © 2016 powered by 皮皮网   sitemap