百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 编程网 > 正文

浅谈Kafka2.8+在Windows下的搭建与使用

yuyutoo 2025-05-11 02:39 3 浏览 0 评论

前言:

周末空闲时间无意找到了一套个性化推荐的源码,整体项目运用了SSH,HDFS,Flume,Hive,Kafka,Spark,Scala等。运行时,本来通过spark计算业务埋点数据时,却发现本地没有Kafka。因为我一直也没使用过Kafka,所以也作为新人,浅谈以下Kafka的环境安装与分别在PHP,Scala中的使用。


对比:

1. 横向,相比其他中间件。

关于kafka与其他消息中间件的比较,网上很多的博主,不管是从运行原理还是中间件架构都有很详细的介绍。因为我平时用Rabbit居多,在没有看别人介绍前。Rabbi比Kafka于PHP开发更友好。因为kafka除了PHP的composer依赖包常年不更新外,kafka在windows下的PHP扩展需要自己编译。从这一点上看Rabbit就更适合业务性的消息队列,更别说他还有事务等对消息消费的高保障。kafka在数据增量方面更具优势,所以多数在大数据和推荐系统中都有运用。

2. 纵向,相比其他版本。

如标题所见,这里主要是2.8+与之前版本的对比。因为在2.8以前,kafka安装前需要安装zookeeper。这里只是一小个区别,其他的新特性具体参考kafka官方文档,因为我看到网上关于kafka的安装文章,别人都会安装zookeeper,所以这里就特别说明以下,以及后面启动时与其他人博客的不同。

安装:

1. 下载

下载地址可以在浏览器搜索kafka官网自行下载,见上图。

2. 配置

下载完后目录结构如下,进入config, 主要对zookeeper.properties和server.properties进行分布节点,服务端口,日志存放目录等等的设置,前期也是什么不用管保持默认配置进行启动。

3. 启动

也不知道是不是从2.8开始,bin目录下多了一个windows。所以在windows下启动进入到改目录,运行如下命令执行bat文件。注意启动的时候先zookeeper后kafka,停止的时候先kafka后zookeeper。

(1). zookeeper启动

zookeeper-server-start.bat ..\..\config\zookeeper.properties &

(2).kafka启动

kafka-server-start.bat ..\..\config\server.properties &

(3). 其他命令

查看所有topics
kafka-topics.bat --list --zookeeper localhost:2181
新增topics 
kafka-topics.bat --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test


Kafka存储机制:

  • topic中partition存储分布
  • partiton中文件存储方式
  • partiton中segment文件存储结构
  • 在partition中通过offset查找message

图形化工具:

前期可以借助图形化工具快速具象的查看kafka的消息数据,也能便于理解其基本操作流程。以下推荐一块桌面端工具——offsetexplorer,可以在网上搜索下载,当然web控制台也不错,比如kafka manager。

1. kafka连接

(2). Cluster name查看

这个值如果没有设置的情况是生成的,可以在启动日志中查看,根目录/logs/server.log

(3). Topics查看

通过运行一下新增topics或新增消息后就可以在Offset Explorer查看了,更多的使用方法也可以在网上找到。


PHP操作:

1. 下载依赖

composer require nmred/kafka-php

2. 生产者 Producer.php

<?php
 
require './vendor/autoload.php';
 
date_default_timezone_set('PRC');
 
/* 创建一个配置实例 */
$config = \Kafka\ProducerConfig::getInstance();
 
/* Topic的元信息刷新的间隔 */
$config->setMetadataRefreshIntervalMs(10000);
 
/* 设置broker的地址 */
$config->setMetadataBrokerList('127.0.0.1:9092');
 
/* 设置broker的代理版本 */
$config->setBrokerVersion('1.0.0');
 
/* 只需要leader确认消息 */
$config->setRequiredAck(1);
 
/* 选择异步 */
$config->setIsAsyn(false);
 
/* 每500毫秒发送消息 */
$config->setProduceInterval(500);
 
/* 创建一个生产者实例 */
$producer = new \Kafka\Producer();
 
for($i = 0; $i < 100; $i++ ) {
    $producer->send([
        [
            'topic' => 'test', 
            'value' => 'test'.$i, 
        ],
    ]);
}

3. 消费者 Consumer.php

<?php
 
require './vendor/autoload.php';
 
date_default_timezone_set('PRC');
 
$config = \Kafka\ConsumerConfig::getInstance();
$config->setMetadataRefreshIntervalMs(10000);
$config->setMetadataBrokerList('127.0.0.1:9092');
$config->setGroupId('test');
$config->setBrokerVersion('1.0.0');
$config->setTopics(['test']);
 
$consumer = new \Kafka\Consumer();
$consumer->start(function($topic, $part, $message) {
    var_dump($message);
});


Scala操作:

1. 创建基于Maven的Scala项目

(1). 创建

(2). 添加模板(没有模板的前提)

可以网上搜索Scala-archetype-simple的位置并填写。

(3). 完成创建等待IDE自动构建

(4). 给项目添加Scala SDK依赖

2. 配置

(1). 修改pom.xml的scala版本为本地安装scala对应的号。

(2). Cannot resolve plugin org.scala-tools:maven-scala-plugin: unknown解决方法

添加一下依赖后再Maven刷新 

<dependency>
      <groupId>org.scala-tools</groupId>
      <artifactId>maven-scala-plugin</artifactId>
      <version>2.11</version>
    </dependency>
    <dependency>
      <groupId>org.apache.maven.plugins</groupId>
      <artifactId>maven-eclipse-plugin</artifactId>
      <version>2.5.1</version>
    </dependency>

3. 添加kafka依赖

<!--kafka-->
<dependency>
  <groupId>org.apache.kafka</groupId>
  <artifactId>kafka_2.11</artifactId>
  <version>1.1.0</version>
</dependency>

<dependency>
  <groupId>org.apache.kafka</groupId>
  <artifactId>kafka-clients</artifactId>
  <version>1.1.0</version>
</dependency>

4. 创建消费者

package com.xudong

import java.util.Properties
import org.apache.kafka.clients.producer.{KafkaProducer, ProducerRecord, RecordMetadata}

object KafkaProducerDemo {

  def main(args: Array[String]): Unit = {
    val prop = new Properties
    // 指定请求的kafka集群列表
    prop.put("bootstrap.servers", "127.0.0.1:9092")
    prop.put("acks", "all")
    // 请求失败重试次数
    //prop.put("retries", "3")
    // 指定key的序列化方式, key是用于存放数据对应的offset
    prop.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer")
    // 指定value的序列化方式
    prop.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer")
    // 配置超时时间
    prop.put("request.timeout.ms", "60000")

    val producer = new KafkaProducer[String, String](prop)

    // 发送给kafka
    for (i <- 1 to 25) {
      val msg = s"${i}: this is a linys ${i} kafka data"
      println("send -->" + msg)
      val rmd: RecordMetadata = producer.send(new ProducerRecord[String, String]("ceshi", msg)).get()
      println(rmd.toString)
      Thread.sleep(500)
    }

    producer.close()
  }

}

5. 创建消费者

package com.xudong

import java.util.{Collections, Properties}
import org.apache.kafka.clients.consumer.{ConsumerRecords, KafkaConsumer}

object KafkaConsumerDemo {

  def main(args: Array[String]): Unit = {
    val prop = new Properties
    prop.put("bootstrap.servers", "127.0.0.1:9092")
    prop.put("group.id", "group01")
    prop.put("auto.offset.reset", "earliest")
    prop.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer")
    prop.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer")
    prop.put("enable.auto.commit", "true")
    prop.put("session.timeout.ms", "30000")
    val kafkaConsumer = new KafkaConsumer[String, String](prop)
    kafkaConsumer.subscribe(Collections.singletonList("ceshi"))
    // 开始消费数据
    while (true) {
      val msgs: ConsumerRecords[String, String] = kafkaConsumer.poll(2000)
      // println(msgs.count())
      val it = msgs.iterator()
      while (it.hasNext) {
        val msg = it.next()
        println(s"partition: ${msg.partition()}, offset: ${msg.offset()}, key: ${msg.key()}, value: ${msg.value()}")
      }
    }
  }

}

相关推荐

几个经典的linux c多线程面试题解析

一、线程与进程的区别?1、线程是进程的一部分,所以线程有的时候被称为是轻权进程或者轻量级进程。2、一个没有线程的进程是可以被看作单线程的,如果一个进程内拥有多个进程,进程的执行过程不是一条线(线程...

C语言中的信号处理和多线程编程(c语言中的信号处理和多线程编程一样吗)

信号处理和多线程编程是C语言中常用的两个特性,它们为开发人员提供了一种灵活和高效的方式来处理异步事件和并发任务。signal.h和threads.h是两个常用的头文件,它们提供了一些函数和数据结构,用...

C++ 多线程(C++ 多线程面试题)

多线程是多任务处理的一种特殊形式,多任务处理允许让电脑同时运行两个或两个以上的程序。一般情况下,两种类型的多任务处理:基于进程和基于线程。基于进程的多任务处理是程序的并发执行。基于线程的多任务处理是同...

C#多线程下的调优(c# 多线程 ui)

目录一、原子操作1.基于Lock实现2.基于CAS实现3.自旋锁SpinLock4.读写锁ReaderWriterLockSlim...

5分钟学会C/C++多线程编程进程和线程

前言对线程有基本的理解简单的C++面向过程编程能力创造单个简单的线程。创造单个带参数的线程。如何等待线程结束。创造多个线程,并使用互斥量来防止资源抢占。会使用之后,直接跳到“汇总”,复制模板来用就行...

c语言的多线程编程(c语言的多线程编程是什么)

我们进行嵌入式开发时通常遇到需要对多个任务处理,有的可以使用单片机的中断,同时也可以利用多线程进行任务处理。c语言里的多线程的编写需要引入pthread.h这个头文件,我是在Linux下进行的编写首先...

每个程序员应该彻底掌握的多线程编程(Linux C)

多线程编程可以说每个程序员的基本功,同时也是开发中的难点之一,本文以LinuxC为例,讲述了线程的创建及常用的几种线程同步的方式,最后对多线程编程进行了总结与思考并给出代码示例。一、创建线程多线程编...

浅谈Kafka2.8+在Windows下的搭建与使用

前言:周末空闲时间无意找到了一套个性化推荐的源码,整体项目运用了SSH,HDFS,Flume,Hive,Kafka,Spark,Scala等。运行时,本来通过spark计算业务埋点数据时,却发现本地没...

Zend Studio使用教程:将Zend Studio作为插件安装

ZendStudio是新一代的专业级智能PHPIDE,它旨在帮助开发人员提高工作效率,创造出高品质的PHP应用程序!它包含了PHP开发所必须的部件,通过一整套的编辑、调试、分析、优化和数据库工具,...

10款Web程序员必备的CSS工具(web开发css)

对于web开发来说,CSS是最有效的美化页面、设置页面布局的技术。但问题是,CSS是一种标记性语言,语法结构非常的松散、不严谨。WEB程序员会经常发现自己的或别人的CSS文件里有大量的冗余代码或错误或...

C/C++开发者必备:十款免费集成开发环境IDE

集成开发环境(IDE,IntegratedDevelopmentEnvironment)主要用于提供应用程序开发的环境,通常包括编辑器、编译器、调试器等。IDE的种类很多,有的只支持一种特定的编程...

推荐给系统管理员的10款Linux GUI工具

ZD至顶网CIO与应用频道12月18日专栏:如果你是系统管理员,现在到了一个必须掌握Linux的时候,特别是当你工作在一个更大规模环境下。很多机构已经从Windows迁移出来,在Windows环境...

盘点Linux平台下的十佳IDE(linux 软件推荐)

Linux是一款在全球范围内应用于许多台式机的开源操作系统,同时它还是一个基于POSIX和UNIX的多用户、多任务、支持多线程和多CPU的操作系统。它能运行主要的UNIX工具软件、应用程序和网络协议,...

新闻发布系统(源代码)(新闻发布系统详细设计)

昨天我说要把这俩系统整合一下!!!结果可以说成功了,也可以说是失败了。虽然两个融合在了一起,但只限在本地访问,连同一局域网都不行。因为两个系统是通过绝对地址相互链接的,所以我用的是localhost(...

SpiderFlow - 一个无需写代码的爬虫平台

网络爬虫,是互联网数据抓取的主要方式之一,许多人都会有类似的需求。然而,网络爬虫的编写,通常需要掌握一定的代码编写能力,乃至于比较复杂的项目组织构建能力,有一定的技术门槛。SpiderFlow,通过可...

取消回复欢迎 发表评论: