Druid 加载 Kafka 数据后查询和清理数据
2021/8/7 6:06:00
本文主要是介绍Druid 加载 Kafka 数据后查询和清理数据,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
查询你的数据
当数据发送到 Kafka 后,Druid 应该能够马上查询到导入的数据的。
请访问 query tutorial 页面中的内容来了解如何针对新导入的数据运行一些查询。
清理
如果你希望其他的一些入门教程的话,你需要首先关闭 Druid 集群;删除 var
目录中的所有内容;再重新启动 Druid 集群。
这是因为本教程中其他的导入数据方式也会写入相同的 “wikipedia” 数据源,如果你使用不同的数据源的话就不需要进行清理了。
同时你可能也希望清理掉 Kafka 中的数据。你可以通过 CTRL-C 来关闭 Kafka 的进程。在关闭 Kafka 进程之前,请不要关闭 ZooKeeper 和 Druid 服务。
然后删除 Kafka 的 log 目录/tmp/kafka-logs
:
rm -rf /tmp/kafka-logs
https://www.ossez.com/t/druid-kafka/13657#heading-1
这篇关于Druid 加载 Kafka 数据后查询和清理数据的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-12-21MQ-2烟雾传感器详解
- 2024-12-09Kafka消息丢失资料:新手入门指南
- 2024-12-07Kafka消息队列入门:轻松掌握Kafka消息队列
- 2024-12-07Kafka消息队列入门:轻松掌握消息队列基础知识
- 2024-12-07Kafka重复消费入门:轻松掌握Kafka消费的注意事项与实践
- 2024-12-07Kafka重复消费入门教程
- 2024-12-07RabbitMQ入门详解:新手必看的简单教程
- 2024-12-07RabbitMQ入门:新手必读教程
- 2024-12-06Kafka解耦学习入门教程
- 2024-12-06Kafka入门教程:快速上手指南