乱读天书, 不求甚解
周祎骏的个人云笔记
Toggle navigation
乱读天书, 不求甚解
主页
Linux:系统配置
Linux:用户管理
Linux:优化排错
Linux:进程调度
Linux:文件系统
Linux:网络
Linux:系统服务
Linux:安全
Linux:内核
容器:Docker
容器:containerd
容器编排:Kubernetes
IAC:Terraform
大数据:Hadoop
大数据:Zookeeper
大数据:Hbase
消息队列:rsyslog
消息队列:kafka
数据库:MySQL
数据库:MongoDB
搜索引擎:Elasticsearch
时序数据库:OpenTSDB
网站服务:Nginx
编程:Bash
编程:Perl
编程:Python
编程:C
编程:JAVA
编程:Rust
版本控制:gitlab
知识管理:docusaurus
常用小工具
关于我
标签
kafka 1.0 安装
2017-04-04 13:55:27
83
0
0
admin
> 简单的安装一个集群。 1.[安装zookeeper](/blog/post/admin/zookeeper_install) *** 2.在第一台机器上面配置kafka cd /app/ tar -xzvf ~/kafka_2.12-0.10.2.0.tgz cd kafka_2.12-0.10.2.0/ mkdir data #数据目录 cd config/ vim server.properties ``` broker.id=1 #每个kafka实例必须不一样 listeners=PLAINTEXT://hadoop1:9092 #kafka监听的端口,默认9092 num.network.threads=3 #处理网络传输的线程数 num.io.threads=8 #处理磁盘io的线程数 log.dirs=/app/kafka_2.12-0.10.2.0/data #放数据的目录 num.partitions=1 #每个topic默认的partition数量 log.retention.hours=168 #数据保存多久 log.segment.bytes=1073741824 #每个数据文件有多大,到达上限了就开始写下一个文件 log.retention.check.interval.ms=300000 #多久检查一次是不是有数据该删了 zookeeper.connect=hadoop1:2181 #zookeeper在哪里 zookeeper.connection.timeout.ms=6000 #连接zookeeper的超时 ``` *** 3.把kafka拷贝到其他节点,顺便改broker.id,hostname cd ../../ scp -r kafka_2.12-0.10.2.0/ hadoop2:/app/ #还要改那台机器上的server.properties中的broker.id, hostname scp -r kafka_2.12-0.10.2.0/ hadoop3:/app/ #还要改那台机器上的server.properties中的broker.id, hostname *** 4.启动kafka cd kafka_2.12-0.10.2.0/ ./bin/kafka-server-start.sh -daemon ./config/server.properties #三台上都要跑
上一篇:
kafka 0.0 介绍
下一篇:
kafka 2.0 使用入门
文档导航