- 实战IDEA开发Scala版的Spark应用 实战IDEA开发Scala版的Spark应用
- 调整docker-compose编排的参数,充分发挥硬件信息能运行spark集群 调整docker-compose编排的参数,充分发挥硬件信息能运行spark集群
- 在《寻找海量数据集用于大数据开发实战(维基百科网站统计数据)》一文中,我们了解了如何获取维基百科网站的网页点击量统计数据,并且介绍了数据格式的基本内容,本文以这些数据进行实战,练习基本的spark开发 在《寻找海量数据集用于大数据开发实战(维基百科网站统计数据)》一文中,我们了解了如何获取维基百科网站的网页点击量统计数据,并且介绍了数据格式的基本内容,本文以这些数据进行实战,练习基本的spark开发
- 搭建spark和hdfs的集群环境会消耗一些时间和精力,今天咱们就借助docker,极速搭建和体验spark和hdfs的集群环境 搭建spark和hdfs的集群环境会消耗一些时间和精力,今天咱们就借助docker,极速搭建和体验spark和hdfs的集群环境
- 部署Spark on Yarn集群 部署Spark on Yarn集群
- java版的spark应用开发 java版的spark应用开发
- 一起来实战部署spark2.2集群(standalone模式) 一起来实战部署spark2.2集群(standalone模式)
- 1. MySQL数据准备1.1 MySQL数据说明(1)数据库:movie(2)genre:电影类别表(3)movie:电影基本信息表(4)movie_to_genre:电影与类别的对应关系 【电影id == 类别id】(5)person:演员基本信息表(6)person_to_movie:演员与电影对应的关系【演员id == 电影id】1.2 MySQL数据脚本语句数据sql脚本下面提供了... 1. MySQL数据准备1.1 MySQL数据说明(1)数据库:movie(2)genre:电影类别表(3)movie:电影基本信息表(4)movie_to_genre:电影与类别的对应关系 【电影id == 类别id】(5)person:演员基本信息表(6)person_to_movie:演员与电影对应的关系【演员id == 电影id】1.2 MySQL数据脚本语句数据sql脚本下面提供了...
- 大数据建模、分析、挖掘技术应用研修2022年8月5日 — 2022年8月9日1.掌握大数据建模分析与使用方法。2.掌握大数据平台技术架构。3.掌握国内外主流的大数据分析与BI商业智能分析解决方案。4.掌握大数据分析在搜索引擎、广告服务推荐、电商数据分析、金融客户分析方面的应用。5.掌握主流的基于大数据Hadoop和Spark、R的大数据分析平台架构和实际应用。6.掌握基于Hadoop大数据平... 大数据建模、分析、挖掘技术应用研修2022年8月5日 — 2022年8月9日1.掌握大数据建模分析与使用方法。2.掌握大数据平台技术架构。3.掌握国内外主流的大数据分析与BI商业智能分析解决方案。4.掌握大数据分析在搜索引擎、广告服务推荐、电商数据分析、金融客户分析方面的应用。5.掌握主流的基于大数据Hadoop和Spark、R的大数据分析平台架构和实际应用。6.掌握基于Hadoop大数据平...
- 编辑Spark高效数据分析04、RDD创建📋前言📋💝博客:【红目香薰的博客_CSDN博客-计算机理论,2022年蓝桥杯,MySQL领域博主】💝✍本文由在下【红目香薰】原创,首发于CSDN✍🤗2022年最大愿望:【服务百万技术人次】🤗💝Spark初始环境地址:【Spark高效数据分析01、idea开发环境搭建】💝环境需求环境:win10开发工具:IntelliJ IDEA... 编辑Spark高效数据分析04、RDD创建📋前言📋💝博客:【红目香薰的博客_CSDN博客-计算机理论,2022年蓝桥杯,MySQL领域博主】💝✍本文由在下【红目香薰】原创,首发于CSDN✍🤗2022年最大愿望:【服务百万技术人次】🤗💝Spark初始环境地址:【Spark高效数据分析01、idea开发环境搭建】💝环境需求环境:win10开发工具:IntelliJ IDEA...
- 11-[掌握]-Java 操作 Kudu之创建表(范围分区)为了提供可扩展性,Kudu 表被划分为称为 tablets 的单元,并分布在许多 tablet servers 上。1)、哈希分区:Hash Partitioning哈希分区通过哈希值,将行分配到不同的 buckets ( 存储桶 )中;哈希分区是一种有效的策略,当不需要对表进行有序访问时,哈希分区对于在 tablet 之间随机散... 11-[掌握]-Java 操作 Kudu之创建表(范围分区)为了提供可扩展性,Kudu 表被划分为称为 tablets 的单元,并分布在许多 tablet servers 上。1)、哈希分区:Hash Partitioning哈希分区通过哈希值,将行分配到不同的 buckets ( 存储桶 )中;哈希分区是一种有效的策略,当不需要对表进行有序访问时,哈希分区对于在 tablet 之间随机散...
- 11-[掌握]-Java 操作 Kudu之创建表(范围分区)为了提供可扩展性,Kudu 表被划分为称为 tablets 的单元,并分布在许多 tablet servers 上。1)、哈希分区:Hash Partitioning哈希分区通过哈希值,将行分配到不同的 buckets ( 存储桶 )中;哈希分区是一种有效的策略,当不需要对表进行有序访问时,哈希分区对于在 tablet 之间随机散... 11-[掌握]-Java 操作 Kudu之创建表(范围分区)为了提供可扩展性,Kudu 表被划分为称为 tablets 的单元,并分布在许多 tablet servers 上。1)、哈希分区:Hash Partitioning哈希分区通过哈希值,将行分配到不同的 buckets ( 存储桶 )中;哈希分区是一种有效的策略,当不需要对表进行有序访问时,哈希分区对于在 tablet 之间随机散...
- Hudi与Spark整合一、向Hudi插入数据默认Spark操作Hudi使用表类型为Copy On Write模式。Hudi与Spark整合时有很多参数配置,可以参照https://hudi.apache.org/docs/configurations.html配置项来查询,此外,整合时有几个需要注意的点,如下:Hudi这里使用的是0.8.0版本,其对应使用的Spark版本是2.4.3+版... Hudi与Spark整合一、向Hudi插入数据默认Spark操作Hudi使用表类型为Copy On Write模式。Hudi与Spark整合时有很多参数配置,可以参照https://hudi.apache.org/docs/configurations.html配置项来查询,此外,整合时有几个需要注意的点,如下:Hudi这里使用的是0.8.0版本,其对应使用的Spark版本是2.4.3+版...
- Spark+grafana可视化项目实战,赶快收藏~ Spark+grafana可视化项目实战,赶快收藏~
- 拉链表是缓慢变化维的一种实现形式,是数据仓库的常用数据模型。基于传统大数据需要全量覆盖写的模式进行,基于Hudi的能力,实现方案会更加简单,性能更优。 拉链表是缓慢变化维的一种实现形式,是数据仓库的常用数据模型。基于传统大数据需要全量覆盖写的模式进行,基于Hudi的能力,实现方案会更加简单,性能更优。
上滑加载中
推荐直播
-
香橙派AIpro的远程推理框架与实验案例
2025/07/04 周五 19:00-20:00
郝家胜 -华为开发者布道师-高校教师
AiR推理框架创新采用将模型推理与模型应用相分离的机制,把香橙派封装为AI推理黑盒服务,构建了分布式远程推理框架,并提供多种输入模态、多种输出方式以及多线程支持的高度复用框架,解决了开发板环境配置复杂上手困难、缺乏可视化体验和资源稀缺课程受限等痛点问题,真正做到开箱即用,并支持多种笔记本电脑环境、多种不同编程语言,10行代码即可体验图像分割迁移案例。
回顾中 -
鸿蒙端云一体化应用开发
2025/07/10 周四 19:00-20:00
倪红军 华为开发者布道师-高校教师
基于鸿蒙平台终端设备的应用场景越来越多、使用范围越来越广。本课程以云数据库服务为例,介绍云侧项目应用的创建、新建对象类型、新增存储区及向对象类型中添加数据对象的方法,端侧(HarmonyOS平台)一体化工程项目的创建、云数据资源的关联方法及对云侧数据的增删改查等操作方法,为开发端云一体化应用打下坚实基础。
即将直播
热门标签