预览加载中,请您耐心等待几秒...
1/9
2/9
3/9
4/9
5/9
6/9
7/9
8/9
9/9

在线预览结束,喜欢就下载吧,查找使用更方便

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

#############################System##############################唯一标识在集群中的ID,要求是正数。broker.id=0#服务端口,默认9092port=9092#监听地址,不设为所有地址host.name=debugo01#处理网络请求的最大线程数num.network.threads=2#处理磁盘I/O的线程数num.io.threads=8#一些后台线程数background.threads=4#等待IO线程处理的请求队列最大数queued.max.requests=500#socket的发送缓冲区(SO_SNDBUF)socket.send.buffer.bytes=1048576#socket的接收缓冲区(SO_RCVBUF)socket.receive.buffer.bytes=1048576#socket请求的最大字节数。为了防止内存溢出,message.max.bytes必然要小于socket.request.max.bytes=104857600#############################Topic##############################每个topic的分区个数,更多的partition会产生更多的segmentfilenum.partitions=2#是否允许自动创建topic,若是false,就需要通过命令创建topicauto.create.topics.enable=true#一个topic,默认分区的replication个数,不能大于集群中broker的个数。default.replication.factor=1#消息体的最大大小,单位是字节message.max.bytes=1000000#############################ZooKeeper##############################Zookeeperquorum设置。如果有多个使用逗号分割zookeeper.connect=debugo01:2181,debugo02,debugo03#连接zk的超时时间zookeeper.connection.timeout.ms=1000000#ZooKeeper集群中leader和follower之间的同步实际zookeeper.sync.time.ms=2000#############################Log##############################日志存放目录,多个目录使用逗号分割log.dirs=/var/log/kafka#当达到下面的消息数量时,会将数据flush到日志文件中。默认10000#log.flush.interval.messages=10000#当达到下面的时间(ms)时,执行一次强制的flush操作。interval.ms和interval.messages无论哪个达到,都会flush。默认3000ms#log.flush.interval.ms=1000#检查是否需要将日志flush的时间间隔log.flush.scheduler.interval.ms=3000#日志清理策略(delete|compact)log.cleanup.policy=delete#日志保存时间(hours|minutes),默认为7天(168小时)。超过这个时间会根据policy处理数据。bytes和minutes无论哪个先达到都会触发。log.retention.hours=168#日志数据存储的最大字节数。超过这个时间会根据policy处理数据。#log.retention.bytes=1073741824#控制日志segment文件的大小,超出该大小则追加到一个新的日志segment文件中(-1表示没有限制)log.segment.bytes=536870912#当达到下面时间,会强制新建一个segmentlog.roll.hours=24*7#日志片段文件的检查周期,查看它们是否达到了删除策略的设置(log.retention.hours或log.retention.bytes)log.retention.check.interval.ms=60000#是否开启压缩log.cleaner.enable=false#对于压缩的日志保留的最长时间l