五大分布式集群架构问题解决方案 |
您所在的位置:网站首页 › 集群和分布式了简单的理解 › 五大分布式集群架构问题解决方案 |
前言
什么是分布式集群? 这里有两个概念:分布式和集群。 分布式:分布式是指将不同的业务分布在不同的地方或者同一个业务模块分拆多个子业务,部署在不同的服务器上,解决高并发的问题。分布式中的每一个节点,都可以做集群。 集群:同一个业务部署在多台机器上,提高系统可用性。而集群并不一定就是分布式的。 简单说,分布式是以缩短单个任务的执行时间来提升效率的,而集群则是通过提高单位时间内执行的任务数来提升效率。 集群是个物理形态,分布式是个工作方式。集群不一定是分布式,分布式一定是集群。 1 ⼀致性Hash算法什么是Hash? Hash任意长度的输入(又叫做预映射, pre-image),通过散列算法,变换成固定长度的输出,该输出就是散列值,这个过程叫做Hash,这个映射函数称做散列函数,存放记录的数组称做散列表(Hash Table),又叫哈希表。 Hash算法的应用场景多为数据安全、数据校验方面,⽐如说在安全加密领域MD5、SHA等加密算法,在数据存储和查找⽅⾯有Hash表等 为什么需要使⽤Hash? 它的查询效率⾮常之⾼,其中的哈希算法如果设计的⽐较ok的话,那么Hash表的数据查询时间复杂度可以接近于O(1)。 举个例子,现有数据是3,5,7,12306,⼀共4个数据,我们开辟任意个空间,⽐如5个,那么具体数据存储到哪个位置呢,我们可以对数据进⾏求模(对空间位置数5),根据求模余数确定存储位置的下标,⽐如3%5=3,就可以把3这个数据放到下标为3的位置上,12306%5=1,就把12306这个数据存储到下标为1的位置上
Hash算法在分布式集群架构中的应⽤场景 Hash算法在很多分布式集群产品中都有应⽤,⽐如分布式集群架构Redis、Hadoop、ElasticSearch,Mysql分库分表,Nginx负载均衡等。 主要的应⽤场景归纳起来两个: 请求的负载均衡(⽐如nginx的ip_hash策略) Nginx的IP_hash策略可以在客户端ip不变的情况下,将其发出的请求始终路由到同⼀个⽬标服务器上,实现会话粘滞,避免处理session共享问题 分布式存储 以分布式内存数据库Redis为例,集群中有redis1,redis2,redis3 三台Redis服务器 那么,在进⾏数据存储时,数据存储到哪个服务器当中呢?针对key进⾏hash处理hash(key1)%3=index, 使⽤余数index锁定存储的具体服务器节点 普通Hash算法存在的问题 普通Hash算法存在⼀个问题,以ip_hash为例,假定下载⽤户ip固定没有发⽣改变,现在tomcat3出现了问题,down机了,服务器数量由3个变为了2个,之前所有的求模都需要重新计算。 如果在真实⽣产情况下,后台服务器很多台,客户端也有很多,那么影响是很⼤的,缩容和扩容都会存在这样的问题,⼤量⽤户的请求会被路由到其他的⽬标服务器处理,⽤户在原来服务器中的会话都会丢失。 ⼀致性Hash算法 ⼀致性哈希算法思路如下: 时钟不同步导致的问题 如果集群中各个服务器时钟不⼀致势必导致⼀系列问题,试想 “集群是各个服务器⼀起团队化作战,⼤家⼯作都不在⼀个点上,岂不乱了套!” 集群时钟同步配置 分布式集群中各个服务器节点都可以连接互联⽹ #使⽤ ntpdate ⽹络时间同步命令 ntpdate -u ntp.api.bz #从⼀个时间服务器同步时间windows有计划任务 Linux也有定时任务,crond,可以使⽤linux的定时任务,每隔10分钟执⾏⼀次ntpdate命令 分布式集群中某⼀个服务器节点可以访问互联⽹或者所有节点都不能够访问互联⽹ 选取集群中的⼀个服务器节点A(172.17.0.17)作作为时间服务器(整个集群时间从这台服务器同步,如果这台服务器能够访问互联⽹,可以让这台服务器和⽹络时间保持同步,如果不能就⼿动设置⼀个时间),⾸先设置好A的时间,把A配置为时间服务器(修改/etc/ntp.conf⽂件) #1、如果有 restrict default ignore,注释掉它 #2、添加如下⼏⾏内容 restrict 172.17.0.0 mask 255.255.255.0 nomodify notrap # 放开局域⽹同步功能,172.17.0.0是你的局域⽹⽹段 server 127.127.1.0 # local clock fudge 127.127.1.0 stratum 10 #3、重启⽣效并配置ntpd服务开机⾃启动 service ntpd restart chkconfig ntpd on集群中其他节点就可以从A服务器同步时间了 ntpdate 172.17.0.17 3 分布式全局唯⼀ID解决⽅案为什么需要分布式集群环境下的全局唯⼀ID? UUID(可以⽤) 独⽴数据库的⾃增ID(不推荐用) SnowFlake 雪花算法(可以⽤,推荐) 雪花算法是Twitter推出的⼀个⽤于⽣成分布式ID的策略。 雪花算法是⼀个算法,基于这个算法可以⽣成ID,⽣成的ID是⼀个long型,那么在Java中⼀个long型是8个字节,算下来是64bit,如下是使⽤雪花算法⽣成的⼀个ID的⼆进制形式示意: 借助Redis的Incr命令获取全局唯⼀ID(推荐) Redis Incr 命令将 key 中储存的数字值增⼀。如果 key 不存在,那么 key 的值会先被初始化为 0 ,然后再执⾏ INCR 操作。 Jedis jedis = new Jedis("127.0.0.1",6379); try { long id = jedis.incr("id"); System.out.println("从redis中获取的分布式id为:" + id); } finally { if (null != jedis) { jedis.close(); } } 4 分布式调度问题调度—>定时任务,分布式调度—>在分布式集群环境下定时任务这 定时任务的场景 定时任务形式:每隔⼀定时间/特定某⼀时刻执⾏ 例如 订单审核、出库 订单超时⾃动取消、⽀付退款 礼券同步、⽣成、发放作业 物流信息推送、抓取作业、退换货处理作业 数据积压监控、⽇志监控、服务可⽤性探测作业 定时备份数据 ⾦融系统每天的定时结算 数据归档、清理作业 报表、离线数据分析作业什么是分布式调度? 什么是分布式任务调度?有两层含义 1)运⾏在分布式集群环境下的调度任务(同⼀个定时任务程序部署多份,只应该有⼀个定时任务在执⾏) 2)分布式调度—>定时任务的分布式—>定时任务的拆分(即为把⼀个⼤的作业任务拆分为多个⼩的作业任务,同时执⾏) 共同点 (1)异步处理 ⽐如注册、下单事件 (2)应⽤解耦 不管定时任务作业还是MQ都可以作为两个应⽤之间的⻮轮实现应⽤解耦,这个⻮轮可以中转数据,当然单体服务不需要考虑这些,服务拆分的时候往往都会考虑 (3)流量削峰 双⼗⼀的时候,任务作业和MQ都可以⽤来扛流量,后端系统根据服务能⼒定时处理订单或者从MQ抓取订单抓取到⼀个订单到来事件的话触发处理,对于前端⽤户来说看到的结果是已经下单成功了,下单是不受任何影响的 不同点 (1)定时任务作业是时间驱动,⽽MQ是事件驱动; (2)时间驱动是不可代替的,⽐如⾦融系统每⽇的利息结算,不是说利息来⼀条(利息到来事件)就算⼀下,⽽往往是通过定时任务批量计算; 所以,定时任务作业更倾向于批处理,MQ倾向于逐条处理; 定时任务的实现⽅式 定时任务的实现⽅式有多种。早期没有定时任务框架的时候,我们会使⽤JDK中的Timer机制和多线程机 制(Runnable+线程休眠)来实现定时或者间隔⼀段时间执⾏某⼀段程序;后来有了定时任务框架,⽐ 如⼤名鼎鼎的Quartz任务调度框架,使⽤时间表达式(包括:秒、分、时、⽇、周、年)配置某⼀个任 务什么时间去执⾏。 1、引入jar org.quartz-scheduler quartz 2.3.22、定时任务作业主调度程序 package quartz; import org.quartz.*; import org.quartz.impl.StdSchedulerFactory; public class QuartzMain { // 创建作业任务调度器(类似于公交调度站) public static Scheduler createScheduler() throws SchedulerException { SchedulerFactory schedulerFactory = new StdSchedulerFactory(); Scheduler scheduler = schedulerFactory.getScheduler(); return scheduler; } // 创建⼀个作业任务(类似于⼀辆公交⻋) public static JobDetail createJob() { JobBuilder jobBuilder = JobBuilder.newJob(DemoJob.class); jobBuilder.withIdentity("jobName","myJob"); JobDetail jobDetail = jobBuilder.build(); return jobDetail; } /** * 创建作业任务时间触发器(类似于公交⻋出⻋时间表) * cron表达式由七个位置组成,空格分隔 * 1、Seconds(秒) 0~59 * 2、Minutes(分) 0~59 * 3、Hours(⼩时) 0~23 * 4、Day of Month(天)1~31,注意有的⽉份不⾜31天 * 5、Month(⽉) 0~11,或者 JAN,FEB,MAR,APR,MAY,JUN,JUL,AUG,SEP,OCT,NOV,DEC * 6、Day of Week(周) 1~7,1=SUN或者 SUN,MON,TUE,WEB,THU,FRI,SAT * 7、Year(年)1970~2099 可选项 *示例: * 0 0 11 * * ? 每天的11点触发执⾏⼀次 * 0 30 10 1 * ? 每⽉1号上午10点半触发执⾏⼀次 */ public static Trigger createTrigger() { // 创建时间触发器,按⽇历调度 CronTrigger trigger = TriggerBuilder.newTrigger() .withIdentity("triggerName","myTrigger") .startNow() .withSchedule(CronScheduleBuilder.cronSchedule("0/2 * * * * ?")) .build(); // 创建触发器,按简单间隔调度 /*SimpleTrigger trigger1 = TriggerBuilder.newTrigger() .withIdentity("triggerName","myTrigger") .startNow() .withSchedule(SimpleScheduleBuilder .simpleSchedule() .withIntervalInSeconds(3) .repeatForever()) .build();*/ return trigger; } // 定时任务作业主调度程序 public static void main(String[] args) throws SchedulerException { // 创建⼀个作业任务调度器(类似于公交调度站) Scheduler scheduler = QuartzMain.createScheduler(); // 创建⼀个作业任务(类似于⼀辆公交⻋) JobDetail job = QuartzMain.createJob(); // 创建⼀个作业任务时间触发器(类似于公交⻋出⻋时间表) Trigger trigger = QuartzMain.createTrigger(); // 使⽤调度器按照时间触发器执⾏这个作业任务 scheduler.scheduleJob(job,trigger); scheduler.start(); } }3、定义⼀个job,需实现Job接⼝ package quartz; import org.quartz.Job; import org.quartz.JobExecutionContext; import org.quartz.JobExecutionException; public class DemoJob implements Job { public void execute(JobExecutionContext jobExecutionContext) throws JobExecutionException { System.out.println("我是⼀个定时任务逻辑"); } }分布式调度框架Elastic-Job Elastic-Job是当当⽹开源的⼀个分布式调度解决⽅案,基于Quartz⼆次开发的,由两个相互独⽴的⼦项⽬Elastic-Job-Lite和Elastic-Job-Cloud组成, Elastic-Job-Lite,它定位为轻量级⽆中⼼化解决⽅案,使⽤Jar包的形式提供分布式任务的协调服务,⽽Elastic-Job-Cloud⼦项⽬需要结合Mesos以及Docker在云环境下使⽤。Elastic-Job可以有效解决分布式调度问题,解决方案有弹性扩容、失效转移、任务分片等。下面通过elastice-job-lite描述下分布式调度: 首先,elastice-job-lite作为jar包集成到业务系统当中, 每个业务系统同时也是一个任务执行器,通过zk来协调。 如上图所示,elastic-job-lite通过zk实现各服务的注册、控制及协调: 第一台服务器上线触发主服务器选举。主服务器一旦下线,则重新触发选举,选举过程中阻塞,只有主服务器选举完成,才会执行其他任务。 某服务节点(引入elastic-job-lite-jar包)上线时会自动将服务器信息注册到注册中心,下线时会自动更新服务器状态。 主节点选举,服务器上下线,分片总数变更均更新重新分片标记。 定时任务触发时,如需重新分片,则通过主服务器分片,分片过程中阻塞,分片结束后才可执行任务。如分片过程中主服务器下线,则先选举主服务器,再分片。 通过上一项说明可知,为了维持作业运行时的稳定性,运行过程中只会标记分片状态,不会重新分片。分片仅可能发生在下次任务触发前。 每次分片都会按服务器IP排序,保证分片结果不会产生较大波动。 实现失效转移功能,在某台服务器执行完毕后主动抓取未分配的分片,并且在某台服务器下线后主动寻找可用的服务器执行任务。 5 Session共享问题Session共享及Session保持或者叫做Session⼀致性。 Session问题原因分析
解决Session⼀致性的⽅案 Nginx的 IP_Hash 策略(可以使⽤) 同⼀个客户端IP的请求都会被路由到同⼀个⽬标服务器,也叫做会话粘滞 优点:配置简单,不⼊侵应⽤,不需要额外修改代码 缺点:服务器重启Session丢失; 存在单点负载⾼的⻛险; 单点故障问题; Session复制(不推荐) 多个tomcat之间通过修改配置⽂件,达到Session之间的复制 优点: - 不⼊侵应⽤ - 便于服务器⽔平扩展 - 能适应各种负载均衡策略 - 服务器重启或者宕机不会造成Session丢失 缺点: - 性能低 - 内存消耗 - 不能存储太多数据,否则数据越多越影响性能 - 延迟性 Session共享,Session集中存储(推荐)使用Redis中间件缓存session。 缺点:对应⽤有⼊侵,引⼊了和Redis的交互代码 Spring Session使得基于Redis的Session共享应⽤起来⾮常之简单 1)引⼊Jar org.springframework.boot spring-boot-starter-data-redis org.springframework.session spring-session-data-redis2)配置redis spring.redis.database=0 spring.redis.host=127.0.0.1 spring.redis.port=63793)添加注解 @SpringBootApplication @EnableCaching @EnableRedisHttpSession //session共享 public class WorkprojectApplication extends SpringBootServletInitializer { |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |