view sourceprint?
01import java.io.*
02import java.net.*
03public class HttpClient {
04public static void main(String[] args) {
05try {
06// Demo参数:
07if ((args.length != 1) &&(args.length != 2))
08throw new IllegalArgumentException("Wrong number of args")
09//定义输出流,下载的URL内容被写入这个流
10OutputStream to_file
11if (args.length == 2) to_file = new FileOutputStream(args[1])
12else to_file = System.out
13//使用URL类来把用户档仔指定的URL解析成几个部分
14URL url = new URL(args[0])
15String protocol = url.getProtocol()
16if (!protocol.equals("http")) // 检验是否满足支持的协议
17throw new IllegalArgumentException("Must use 'http:' protocol")
18String host = url.getHost()
19int port = url.getPort()
20if (port == -1) port = 80//如果没有指薯友定端口,用默认端口
21String filename = url.getFile()
22// 打开一个连接到指定主机和端口的网络socket连接
23Socket socket = new Socket(host, port)
24// 通过socket来获得输入和输出流
25InputStream from_server = socket.getInputStream()
26PrintWriter to_server = new PrintWriter(socket.getOutputStream())
27
28// 发送HTTP GET命令给网络服务器,指定要下载的文件
29// 使用了一个老版本非常简单数蠢槐的HTTP协议
30to_server.print("GET " + filename + "\n\n")
31to_server.flush()// 立即发送
32// 现在读取服务器的响应,把接收到的内容写入文件
33byte[] buffer = new byte[4096]
34int bytes_read
35while((bytes_read = from_server.read(buffer)) != -1)
36to_file.write(buffer, 0, bytes_read)
37// 当服务器关闭连接时,也关闭stuff
38socket.close()
39to_file.close()
40}
41catch (Exception e) { // 发布错误
42System.err.println(e)
43System.err.println("Usage: java HttpClient <URL>[<filename>]")
44}
45}
46}
我这里是使圆激橡用的是,kafka自带的zookeeper。以及铅带关于橘旁kafka的日志文件啊,都放在默认里即/tmp下,我没修改。保存默认的
1、 [hadoop@sparksinglenode kafka_2.10-0.8.1.1]$ jps
2625 Jps
2、 [hadoop@sparksinglenode kafka_2.10-0.8.1.1]$ bin/zookeeper-server-start.sh config/zookeeper.properties &
此刻,这时,会一直停在这,因为是前端运行。
另开一窗口,
3、 [hadoop@sparksinglenode kafka_2.10-0.8.1.1]$ bin/kafka-server-start.sh config/server.properties &
也是前端运行。
kafka: 2.13-3.0.0kafka-clients: 3.0.0
服务器配置:8C16G 200G硬盘
pom 引用3.0.0的客户端
java程液汪序,有两个启动参数: kafka客户端数量、ack参困知数
3.0.0版本的kafka的测试用具内部汪埋消只能启动1个客户端。
消息体长度 100Byte、 1000Byte、 10000Byte
消息体长度 100Byte、 1000Byte、 10000Byte
./kafka-producer-perf-test.sh --num-records 5000000 --record-size 1000 --topic KAFKA_TEST --throughput -1 --producer-props bootstrap.servers=xx.xx.xx.xx:9092
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)