为了账号安全,请及时绑定邮箱和手机立即绑定

Apache Druid入门与实践

数据小生 JAVA开发工程师
难度中级
时长 1小时35分
学习人数
综合评分9.27
9人评价 查看评价
9.6 内容实用
9.1 简洁易懂
9.1 逻辑清晰
  • Druid基本特点

    查看全部
    1 采集 收起 来源:ApacheDruid简介

    2019-12-10

  • 111

    http://img.mukewang.com/603f55240001a32707490063.jpg

    http://img3.mukewang.com/603f553e0001185610950753.jpg

    查看全部
  • post数据

    http://img4.mukewang.com/603f52d50001481213570766.jpg

    查看全部
  • 粒度rollup为false,指标列必须为空


    dataSource:表示数据源

    parser:数据解析方式

    metricspec:指标列信息

    granularitypec:存储和查询粒度

    transformSpce:过滤转换输入数据

    查看全部
  • OLAP技术方案对比

    查看全部
  • OLAP 和OLTP

    查看全部
    0 采集 收起 来源:OLTP_VS_OLAP

    2020-03-22

  • 766666666666666666666

    查看全部
    0 采集 收起 来源:课程介绍

    2019-12-25

  • 创建topic: bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 -partitions 1 --topci wikipedis(topic名称)

    发送一个post请求:curl -XPOST -H'Content-Type: application/json' -d@quickstart/tutorial/wikipedia-kafka-supervisor.json http://localhost:8090/druid/indexer/v1/supervisor


    查看全部
  • 启动kafka: bin/kafka-server-start.sh config/server.properties

    kafka topic操作界面:bin/kafka-topics.sh --create --bootstrap-server localhost:9092 --replication-factor 1 --partitions 1 --topic test

    查看topic情况:bin/kafka-topics.sh --list --bootstrap-server localhost:9092

    打开producer开始push消息:bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test

    打开consumer开始消费消息: bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning


    查看全部
  • server.properties配置文件说明:

    broker.id=0  #kafka实例节点唯一标识

    num.network.threads=3 #broker处理消息的最大线程数,一般是cpu的核数

    num.io.threads=8 #broker处理磁盘io的线程数

    socket.send.buffer.bytes=102400 #socket的一个发送缓冲区大小

    socket.receive.buffer.bytes=102400 #socket的一个接入缓冲区大小

    socket.request.max.bytes=104857600 #socket请求的最大数值

    log.dirs=/tem/kafka-logs #log文件地址

    num.partitions=1 #指定一个新创建的topic会包含的那些分区的一个默认值

    num.recovery.threads.per.data.dir=1 #配置kafka用于自身恢复的一些机制,默认情况下,每个文件夹下就是1个线程

    #log.flush.interval.messages=1000 #当消息有1000条时就刷新到磁盘上

    #log.flush.interval.ms=1000 #每1000秒时就把消息刷新到磁盘

    log.retention.hours=168 #过期时间,日志数据保存的一个最大时间,默认是7天

    #log.retention.bytes=1073741824 #日志保存的最大字节数

    log.retention.check.interval.ms=300000 #日志片段检查周期




    查看全部
  • kafka基本原理

    查看全部
    0 采集 收起 来源:Kafka入门

    2019-12-21

  • kafka的基本原理

    查看全部
    0 采集 收起 来源:Kafka入门

    2019-12-21

  • Producer: 生产者(向kafka发送数据,负责将消息放到kafka中)

    Consumer: 消费者(读取kafka的数据)

    Consumer Group: 消费者组,kafka的消费者从属于消费者组,同一个消费者组订阅的同一个topic, 当消费者组里面的消费者数量小于等于主题下面的分区的时候,每一个消费者都对应这一个或者多个分区。当消费者组里面的消费者数量大于分区的数量的时候,多出来的消费者不会消费任何分区的消息


    查看全部
    0 采集 收起 来源:Kafka入门

    2019-12-21

  • kafka基本概念:

    Broker:部署kafka实例的服务器节点;

    Topic: 区分不同种类消息的标识,比如用户点击数据或者应用的消息等,不同的类型使用topic进行区分;

    Partition: 是Topic的分区,分区的主要目的是实现负载均衡,提高并发度。



    查看全部
    0 采集 收起 来源:Kafka入门

    2019-12-21

  • Kafka简介

    查看全部
    0 采集 收起 来源:Kafka入门

    2019-12-21

首页上一页123下一页尾页

举报

0/150
提交
取消
课程须知
本次课程主要是Apache Druid的安装与实践,那么必不可少的就是基本Shell的操作,需要有一定Linux基础,设计到基本HDFS的使用,需要对Hadoop的操作有一定的了解。
老师告诉你能学到什么?
1、Apache Druid的基本原理以及架构 2、Apache Druid的安装,数据摄取以及查询 3、Apache Druid的核心组件介绍和关系 4、Apache Druid与HDFS和Kafka集成

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!