实时数据处理和分析指南 Chinese Edition
Detailed summary in vernacular field only.
Autor principal: | |
---|---|
Otros Autores: | , |
Formato: | Libro electrónico |
Idioma: | Inglés |
Publicado: |
Birmingham :
Packt Publishing, Limited
2024.
|
Edición: | 1st ed |
Colección: | Yi bu tu shu.
|
Materias: | |
Ver en Biblioteca Universitat Ramon Llull: | https://discovery.url.edu/permalink/34CSUC_URL/1im36ta/alma991009820416406719 |
Tabla de Contenidos:
- 封
- 版权声明
- 内容提
- 作 简介
- 前
- 审稿人简介
- 目录
- 第一 分 导
- 熟悉实时分析
- 第1章 实时分析简介
- 1.1 大数据的定义
- 1.2 大数据的基础 施
- 1.3 实时分析--神 与现实
- 1.4 实时 决方案--可用的架构
- 1.4.1 NRT的Storm 决方案
- 1.4.2 NRT的Spark 决方案
- 1.5 Lambda 架构--分析可 性
- 1.6 物 网--想法与可 性
- 缘分析
- 1.7 云-- NRT 和物 网
- 1.8 小结
- 第2章 实时应用的基本组件
- 2.1 NRT 系统及其构建模块
- 2.1.1 数据
- 2.1.2 流处理
- 2.1.3 分析层-服务终端用户
- 2.2 NRT 的 级系统 图
- 2.3 NRT 的技术 图
- 2.3.1 事件生产
- 2.3.2 数据收
- 2.3.3 代理
- 2.3.4 换和处理
- 2.3.5 存储
- 2.4 小结
- 第二 分 搭建基础 施
- 第3章 了 和 数据流
- 3.1 了 数据流
- 3.2 为数据提取安 基础 施
- 3.2.1 Apache Kafka
- 3.2.2 Apache NiFi
- 3.2.3 Logstash
- 3.2.4 Fluentd
- 3.2.5 Flume
- 3.3 将数据从源填到处理器--期望和注意事
- 3.4 比 与 择 合用例的最佳实
- 3.5 小 牛刀
- 置Elasticsearch
- 3.6 小结
- 第4章 安 和 置Storm
- 4.1 Storm 概
- 4.2 Storm 架构和组件
- 4.2.1 特征
- 4.2.2 组件
- 4.2.3 流分组
- 4.3 安 和 置 Storm
- 4.3.1 安 ZooKeeper
- 4.3.2 置Apache Storm
- 4.4 在 Storm 上实时处理任务
- 任务
- 4.5 小结
- 第5章 置Apache Spark和Flink
- 5.1 安 并快 Spark
- 5.1.1 源码构建
- 5.1.2 下 Spark 安 包
- 5.1.3 示例
- 5.2 安 并快 Flink
- 5.2.1 使用源码构建Flink
- 5.2.2 下 Flink
- 5.2.3 示例
- 5.3 安 并快 Apache Beam
- 5.3.1 Beam模型
- 5.3.2 示例
- 5.3.3 MinimalWordCount 示例
- 5.4 Apache Beam 中的平
- 5.5 小结
- 第三 分 Storm 实时 算
- 第6章 成Storm 与数据源
- 6.1 RabbitMQ 有效的消息传
- 6.2 RabbitMQ 交换器
- 6.2.1 直接交换器
- 6.2.2 RabbitMQ安 置
- 6.2.3 RabbitMQ的发布和
- 6.3 RabbitMQ 与 Storm 成
- AMQPSpout
- 6.4 PubNub 数据流发布
- 6.5 将Storm 和RMQ_PubNub 传感器数据拓扑串在一
- 6.6 小结
- 第7章 从Storm 到Sink
- 7.1 安 并 置 Cassandra
- 7.1.1 安 Cassandra
- 7.1.2 置Cassandra
- 7.2 Storm 和 Cassandra 拓扑
- 7.3 Storm 和 IMDB 成处理维度数据
- 7.4 成 示层与 Storm
- 使用Elasticsearch插件 置Grafana
- 7.5 小 牛刀
- 7.6 小结
- 第8章 Storm Trident
- 8.1 状态保持和 Trident
- 8.1.1 事务性spout
- 8.1.2 不 明事务性spout
- 8.2 基本 Storm Trident 拓扑
- 8.3 Trident 内 实现.
- 8.4 Trident 操作
- 8.4.1 函数
- 8.4.2 Map函数and FlatMap函数
- 8.4.3 peek 函数
- 8.4.4 滤器
- 8.4.5 窗口操作
- 8.4.6 合操作
- 8.4.7 分组操作
- 8.4.8 合并和组合操作
- 8.5 DRPC
- 8.6 小 牛刀
- 用以绑定spout 和bolt 的拓扑构建器
- 从事件流中 滤电 号码
- 从事件流中提取 备信息
- 8.7 小结
- 第四 分 使用Spark 实现实时 算
- 第9章 用Spark引擎
- 9.1 Spark 概
- Spark 框架和 度器
- 9.2 Spark 的独特优势
- 何时 免使用Spark
- 9.3 Spark 用例
- 9.4 Spark架构--引擎内 的 模式
- 9.5 Spark 的 用概念
- RDD- 如其名
- 9.6 Spark 2.x--数据框和数据 的出现
- 9.7 小结
- 第10章 用Spark操作
- 10.1 Spark--封 和 API
- 10.2 RDD 用探索
- 10.2.1 换
- 10.2.2 动作
- 10.3 共享变
- 广播变 和累加器
- 10.3.1 广播变
- 10.3.2 累加器
- 10.4 小结
- 第11章 Spark Streaming
- 11.1 Spark Streaming 的概念
- 11.2 Spark Streaming 的简介和体系结构
- 11.3 Spark Streaming 的封 结构
- 11.3.1 Spark Streaming API
- 11.3.2 Spark Streaming操作
- 11.4 接 Kafka 和 Spark Streaming
- 11.5 小结
- 第五 分 使用Flink实现实时分析
- 第12章 用Apache Flink
- 12.1 Flink 体系结构和执 引擎
- 12.2 Flink 的基本组件和 程
- 12.3 将源流 成到 Flink
- 12.3.1 和Apache Kafka 成
- 12.3.2 和RabbitMQ 成
- 12.4 Flink 处理和 算
- 12.4.1 Datastream API
- 12.4.2 DataSet API
- 12.5 Flink 持久化
- 和Cassandra 成
- 12.6 Flink CEP
- 12.7 Pattern API
- 12.7.1 检测模式
- 12.7.2 模式 择
- 12.7.3 示例
- 12.8 Gelly
- Gelly API
- 12.9 小 牛刀
- 12.10 小结
- 第六 分 综合应用
- 第13章 用例研究
- 13.1 概
- 13.2 数据建模
- 13.3 工具和框架
- 13.4 建立基础 施
- 13.5 实现用例
- 13.5.1 构建数据模拟器
- 13.5.2 Hazelcast 加 器
- 13.5.3 构建Storm拓扑
- 13.6 用例
- 加 Hazelcast
- 13.7 小结.