【Kafka】Kafka配置参数详解

您所在的位置:网站首页 i31165g7参数 【Kafka】Kafka配置参数详解

【Kafka】Kafka配置参数详解

2023-08-22 11:45| 来源: 网络整理| 查看: 265

broker.id:broker的id,id是唯一的非负整数,集群的broker.id不能重复。

log.dirs:kafka存放数据的路径。可以是多个,多个使用逗号分隔即可。

port:server接受客户端连接的端口,默认6667

zookeeper.connect:zookeeper集群连接地址。 格式如:zookeeper.connect=server01:2181,server02:2181,server03:2181。如果需要指定zookeeper集群的路径位置zookeeper.connect=server01:2181,server02:2181,server03:2181/kafka/cluster。这样设置后,在启动kafka集群前,需要在zookeeper集群创建这个路径/kafka/cluster.

message.max.bytes:server可以接受的消息最大尺寸。默认1000000。 重要的是,consumer和producer有关这个属性的设置必须同步,否则producer发布的消息对consumer来说太大。

num.network.threads:server用来处理网络请求的线程数,默认3。

num.io.threads:server:用来处理请求的I/O线程数。这个线程数至少等于磁盘的个数。

background.threads:用于后台处理的线程数。例如文件的删除。默认4。

queued.max.requests:在网络线程停止读取新请求之前,可以排队等待I/O线程处理的最大请求个数。默认500。

host.name:broker的hostname 如果hostname已经设置的话,broker将只会绑定到这个地址上;如果没有设置,它将绑定到所有接口,并发布一份到ZK

advertised.host.name:如果设置,则就作为broker 的hostname发往producer、consumers以及其他brokers

advertised.port:此端口将给与producers、consumers、以及其他brokers,它会在建立连接时用到; 它仅在实际端口和server需要绑定的端口不一样时才需要设置。

socket.send.buffer.bytes:SO_SNDBUFF 缓存大小,server进行socket 连接所用,默认100*1024。

socket.receive.buffer.bytes:SO_RCVBUFF缓存大小,server进行socket连接时所用。默认100 * 1024。

socket.request.max.bytes:server允许的最大请求尺寸;这将避免server溢出,它应该小于Java heap size。

num.partitions:如果创建topic时没有给出划分partitions个数,这个数字将是topic下partitions数目的默认数值。默认1。

log.segment.bytes:topic partition的日志存放在某个目录下诸多文件中,这些文件将partition的日志切分成一段一段的;这个属性就是每个文件的最大尺寸;当尺寸达到这个数值时,就会创建新文件。此设置可以由每个topic基础设置时进行覆盖。默认1014*1024*1024

log.roll.hours:即使文件没有到达log.segment.bytes,只要文件创建时间到达此属性,就会创建新文件。这个设置也可以有topic层面的设置进行覆盖。默认4*7

log.cleanup.policy:log清除策略。默认delete。

log.retention.minutes和log.retention.hours:每个日志文件删除之前保存的时间。默认数据保存时间对所有topic都一样。

log.retention.minutes 和 log.retention.bytes都是用来设置删除日志文件的,无论哪个属性已经溢出。这个属性设置可以在topic基本设置时进行覆盖。

log.retention.bytes:每个topic下每个partition保存数据的总量。 注意:这是每个partitions的上限,因此这个数值乘以partitions的个数就是每个topic保存的数据总量。如果log.retention.hours和log.retention.bytes都设置了,则超过了任何一个限制都会造成删除一个段文件。 注意,这项设置可以由每个topic设置时进行覆盖。

log.retention.check.interval.ms:检查日志分段文件的间隔时间,以确定是否文件属性是否到达删除要求。默认5min。

log.cleaner.enable:当这个属性设置为false时,一旦日志的保存时间或者大小达到上限时,就会被删除;如果设置为true,则当保存属性达到上限时,就会进行log compaction。默认false。

log.cleaner.threads:进行日志压缩的线程数。默认1。

log.cleaner.io.max.bytes.per.second:进行log compaction时,log cleaner可以拥有的最大I/O数目。这项设置限制了cleaner,以避免干扰活动的请求服务。

log.cleaner.io.buffer.size:log cleaner清除过程中针对日志进行索引化以及精简化所用到的缓存大小。最好设置大点,以提供充足的内存。默认500*1024*1024。

log.cleaner.io.buffer.load.factor:进行log cleaning时所需要的I/O chunk尺寸。你不需要更改这项设置。默认512*1024。

log.cleaner.io.buffer.load.factor:log cleaning中所使用的hash表的负载因子;你不需要更改这个选项。默认0.9

log.cleaner.backoff.ms:进行日志是否清理检查的时间间隔,默认15000。

log.cleaner.min.cleanable.ratio:这项配置控制log compactor试图清理日志的频率(假定log compaction是打开的)。 默认避免清理压缩超过50%的日志。这个比率绑定了备份日志所消耗的最大空间(50%的日志备份时压缩率为50%)。更高的比率则意味着浪费消耗更少,也就可以更有效的清理更多的空间。这项设置在每个topic设置中可以覆盖。

log.cleaner.delete.retention.ms:保存时间;保存压缩日志的最长时间;也是客户端消费消息的最长时间,与log.retention.minutes的区别在于一个控制未压缩数据,一个控制压缩后的数据;会被topic创建时的指定时间覆盖。

log.index.size.max.bytes:每个log segment的最大尺寸。注意,如果log尺寸达到这个数值,即使尺寸没有超过log.segment.bytes限制,也需要产生新的log segment。默认10*1024*1024。

log.index.interval.bytes:当执行一次fetch后,需要一定的空间扫描最近的offset,设置的越大越好,一般使用默认值就可以。默认4096。

log.flush.interval.messages:log文件“sync”到磁盘之前累积的消息条数。 因为磁盘IO操作是一个慢操作,但又是一个“数据可靠性”的必要手段,所以检查是否需要固化到硬盘的时间间隔。需要在“数据可靠性”与“性能”之间做必要的权衡,如果此值过大,将会导致每次“发sync”的时间过长(IO阻塞),如果此值过小,将会导致“fsync”的时间较长(IO阻塞),导致”发sync“的次数较多,这也就意味着整体的client请求有一定的延迟,物理server故障,将会导致没有fsync的消息丢失。

log.flush.scheduler.interval.ms:检查是否需要fsync的时间间隔。默认Long.MaxValue

log.flush.interval.ms:仅仅通过interval来控制消息的磁盘写入时机,是不足的,这个数用来控制”fsync“的时间间隔,如果消息量始终没有达到固化到磁盘的消息数,但是离上次磁盘同步的时间间隔达到阈值,也将触发磁盘同步。

log.delete.delay.ms:文件在索引中清除后的保留时间,一般不需要修改。默认60000。

auto.create.topics.enable:是否允许自动创建topic。如果是true,则produce或者fetch 不存在的topic时,会自动创建这个topic。否则需要使用命令行创建topic。默认true。

controller.socket.timeout.ms:partition管理控制器进行备份时,socket的超时时间。默认30000。

controller.message.queue.size:controller-to-broker-channles的buffer尺寸,默认Int.MaxValue。

default.replication.factor:默认备份份数,仅指自动创建的topics。默认1。

replica.lag.time.max.ms:如果一个follower在这个时间内没有发送fetch请求,leader将从ISR重移除这个follower,并认为这个follower已经挂了,默认10000。

replica.lag.max.messages:如果一个replica没有备份的条数超过这个数值,则leader将移除这个follower,并认为这个follower已经挂了,默认4000。

replica.socket.timeout.ms:leader 备份数据时的socket网络请求的超时时间,默认30*1000

replica.socket.receive.buffer.bytes:备份时向leader发送网络请求时的socket receive buffer。默认64*1024。

replica.fetch.max.bytes:备份时每次fetch的最大值。默认1024*1024。

replica.fetch.max.bytes:leader发出备份请求时,数据到达leader的最长等待时间。默认500。

replica.fetch.min.bytes:备份时每次fetch之后回应的最小尺寸。默认1。

num.replica.fetchers:从leader备份数据的线程数。默认1。

replica.high.watermark.checkpoint.interval.ms:每个replica检查是否将最高水位进行固化的频率。默认5000.

fetch.purgatory.purge.interval.requests:fetch 请求清除时的清除间隔,默认1000

producer.purgatory.purge.interval.requests:producer请求清除时的清除间隔,默认1000

zookeeper.session.timeout.ms:zookeeper会话超时时间。默认6000

zookeeper.connection.timeout.ms:客户端等待和zookeeper建立连接的最大时间。默认6000

zookeeper.sync.time.ms:zk follower落后于zk leader的最长时间。默认2000

controlled.shutdown.enable:是否能够控制broker的关闭。如果能够,broker将可以移动所有leaders到其他的broker上,在关闭之前。这减少了不可用性在关机过程中。默认true。

controlled.shutdown.max.retries:在执行不彻底的关机之前,可以成功执行关机的命令数。默认3.

controlled.shutdown.retry.backoff.ms:在关机之间的backoff时间。默认5000

auto.leader.rebalance.enable:如果这是true,控制者将会自动平衡brokers对于partitions的leadership。默认true。

leader.imbalance.per.broker.percentage:每个broker所允许的leader最大不平衡比率,默认10。

leader.imbalance.check.interval.seconds:检查leader不平衡的频率,默认300

offsetadata.max.bytes:允许客户端保存他们offsets的最大个数。默认4096

max.connections.per.ip:每个ip地址上每个broker可以被连接的最大数目。默认Int.MaxValue。

max.connections.per.ip.overrides:每个ip或者hostname默认的连接的最大覆盖。

connections.max.idle.ms:空连接的超时限制,默认600000

log.roll.jitter.{ms,hours}:从logRollTimeMillis抽离的jitter最大数目。默认0

num.recovery.threads.per.data.dir:每个数据目录用来日志恢复的线程数目。默认1。

unclean.leader.election.enable:指明了是否能够使不在ISR中replicas设置用来作为leader。默认true

delete.topic.enable:能够删除topic,默认false。

offsets.topic.num.partitions:默认50。 由于部署后更改不受支持,因此建议使用更高的设置来进行生产(例如100-200)。

offsets.topic.retention.minutes:存在时间超过这个时间限制的offsets都将被标记为待删除。默认1440。

offsets.retention.check.interval.ms:offset管理器检查陈旧offsets的频率。默认600000。

offsets.topic.replication.factor:topic的offset的备份份数。建议设置更高的数字保证更高的可用性。默认3

offset.topic.segment.bytes:offsets topic的segment尺寸。默认104857600

offsets.load.buffer.size:这项设置与批量尺寸相关,当从offsets segment中读取时使用。默认5242880

offsets.commit.required.acks:在offset commit可以接受之前,需要设置确认的数目,一般不需要更改。默认-1。



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3