kafka java 通过url连接服务器

kafka java 通过url连接服务器,第1张

可以连接到一个网络服务器并且能够从这个服务器下载指定的URL,程序中直接使用HTTP协议。程序将定义一个输出流,下载的URL的内容将来被写入这个流,通过socket来获得输入和输出流:

view sourceprint?

01import java.io.*

02import java.net.*

03public class HttpClient {

04public static void main(String[] args) {

05try {

06// Demo参数:

07if ((args.length != 1) &&(args.length != 2))

08throw new IllegalArgumentException("Wrong number of args")

09//定义输出流,下载的URL内容被写入这个流

10OutputStream to_file

11if (args.length == 2) to_file = new FileOutputStream(args[1])

12else to_file = System.out

13//使用URL类来把用户档仔指定的URL解析成几个部分

14URL url = new URL(args[0])

15String protocol = url.getProtocol()

16if (!protocol.equals("http")) // 检验是否满足支持的协议

17throw new IllegalArgumentException("Must use 'http:' protocol")

18String host = url.getHost()

19int port = url.getPort()

20if (port == -1) port = 80//如果没有指薯友定端口,用默认端口

21String filename = url.getFile()

22// 打开一个连接到指定主机和端口的网络socket连接

23Socket socket = new Socket(host, port)

24// 通过socket来获得输入和输出流

25InputStream from_server = socket.getInputStream()

26PrintWriter to_server = new PrintWriter(socket.getOutputStream())

27

28// 发送HTTP GET命令给网络服务器,指定要下载的文件

29// 使用了一个老版本非常简单数蠢槐的HTTP协议

30to_server.print("GET " + filename + "\n\n")

31to_server.flush()// 立即发送

32// 现在读取服务器的响应,把接收到的内容写入文件

33byte[] buffer = new byte[4096]

34int bytes_read

35while((bytes_read = from_server.read(buffer)) != -1)

36to_file.write(buffer, 0, bytes_read)

37// 当服务器关闭连接时,也关闭stuff

38socket.close()

39to_file.close()

40}

41catch (Exception e) { // 发布错误

42System.err.println(e)

43System.err.println("Usage: java HttpClient <URL>[<filename>]")

44}

45}

46}

我这里是使圆激橡用的是,kafka自带的zookeeper。

以及铅带关于橘旁kafka的日志文件啊,都放在默认里即/tmp下,我没修改。保存默认的

1、 [hadoop@sparksinglenode kafka_2.10-0.8.1.1]$ jps

2625 Jps

2、 [hadoop@sparksinglenode kafka_2.10-0.8.1.1]$ bin/zookeeper-server-start.sh config/zookeeper.properties &

此刻,这时,会一直停在这,因为是前端运行。

另开一窗口,

3、 [hadoop@sparksinglenode kafka_2.10-0.8.1.1]$ bin/kafka-server-start.sh config/server.properties &

也是前端运行。

kafka: 2.13-3.0.0

kafka-clients: 3.0.0

服务器配置:8C16G 200G硬盘

pom 引用3.0.0的客户端

java程液汪序,有两个启动参数: kafka客户端数量、ack参困知数

3.0.0版本的kafka的测试用具内部汪埋消只能启动1个客户端。

消息体长度 100Byte、 1000Byte、 10000Byte

消息体长度 100Byte、 1000Byte、 10000Byte

./kafka-producer-perf-test.sh --num-records 5000000 --record-size 1000 --topic KAFKA_TEST --throughput -1 --producer-props bootstrap.servers=xx.xx.xx.xx:9092


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/12290206.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-24
下一篇 2023-05-24

发表评论

登录后才能评论

评论列表(0条)

保存