- 一、Node2节点配置 二、Master节点配置 三、Node1节点配置 四、启动Hive并测试 下载Hive包:https://cloud.189.cn/t/zqaieevYNrau (访问... 一、Node2节点配置 二、Master节点配置 三、Node1节点配置 四、启动Hive并测试 下载Hive包:https://cloud.189.cn/t/zqaieevYNrau (访问...
- 文章目录 3 HIVE3.1 Hive概述Hive简介Hive应用场景Hive与传统数据仓库比较Hive优点 3.2 Hive功能及架构Hive运行流程Hive数据存储模型Hive数据存储模... 文章目录 3 HIVE3.1 Hive概述Hive简介Hive应用场景Hive与传统数据仓库比较Hive优点 3.2 Hive功能及架构Hive运行流程Hive数据存储模型Hive数据存储模...
- Presto (including PrestoDB and PrestoSQL later re-branded to Trino) is a distributed query engine... Presto (including PrestoDB and PrestoSQL later re-branded to Trino) is a distributed query engine...
- 背景 在hive中使用Roaring64Bitmap实现精确去重功能 主要目的: 提升 hive 中精确去重性能,代替hive 中的 count(distinct uuid);节省 hive 存储 ,... 背景 在hive中使用Roaring64Bitmap实现精确去重功能 主要目的: 提升 hive 中精确去重性能,代替hive 中的 count(distinct uuid);节省 hive 存储 ,...
- 注意:我们经常会使用split对字符串做切分,但要注意一点,当原来的值为空值时,容易产生大小为1的空字符串数组[“”],在我们查询时,它和空数组[]输出来是很相似的,但它的大小却是1,如果我们再根据arr... 注意:我们经常会使用split对字符串做切分,但要注意一点,当原来的值为空值时,容易产生大小为1的空字符串数组[“”],在我们查询时,它和空数组[]输出来是很相似的,但它的大小却是1,如果我们再根据arr...
- Hive 主流文件存储格式对比 1、存储文件的压缩比测试 1.1 测试数据 https://github.com/Chenhonli/Compression_Format_Data log.txt... Hive 主流文件存储格式对比 1、存储文件的压缩比测试 1.1 测试数据 https://github.com/Chenhonli/Compression_Format_Data log.txt...
- 读取本地文件上传至Hive数据仓库 pom.xml <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-hive_2.12</artifact... 读取本地文件上传至Hive数据仓库 pom.xml <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-hive_2.12</artifact...
- 一、删除 删除hive数据时,首先明确你使用删除数据还是连同表结构也要删除,如果只是要删除数据可以选择truncate来清空表中的数据,如果要对表进行删除,首先要考虑该表是内部表还是外部表。如果是外部表... 一、删除 删除hive数据时,首先明确你使用删除数据还是连同表结构也要删除,如果只是要删除数据可以选择truncate来清空表中的数据,如果要对表进行删除,首先要考虑该表是内部表还是外部表。如果是外部表...
- 我们在使用hive时难免会碰到hive的函数解决不了的操作,这时我们就可以开发UDF函数去解决复杂的问题。 首先我们老生长谈一下udf函数分类: UDF : User-Defined Function... 我们在使用hive时难免会碰到hive的函数解决不了的操作,这时我们就可以开发UDF函数去解决复杂的问题。 首先我们老生长谈一下udf函数分类: UDF : User-Defined Function...
- 例如: select periodical_code, sort_array(collect_set( concat( "{", concat( ... 例如: select periodical_code, sort_array(collect_set( concat( "{", concat( ...
- Hive可视化工具dbeaver 1、dbeaver基本介绍 dbeaver是一个图形化的界面工具,专门用于与各种数据库的集成,通过dbeaver我们可以与各种数据库进行集成通过图形化界面的方式来操作... Hive可视化工具dbeaver 1、dbeaver基本介绍 dbeaver是一个图形化的界面工具,专门用于与各种数据库的集成,通过dbeaver我们可以与各种数据库进行集成通过图形化界面的方式来操作...
- hive空字符串数组和空数组 空字符串数组 :array(‘’) 空数组:array() 如果想查找表中的空字符串数组: 方法:可以使用查找数组中的第一个值是否为空字符串 select classi... hive空字符串数组和空数组 空字符串数组 :array(‘’) 空数组:array() 如果想查找表中的空字符串数组: 方法:可以使用查找数组中的第一个值是否为空字符串 select classi...
- Hive数据仓库的操作: 数据库的创建与删除表的创建,修改,删除表中数据的导入与导出表分区与桶的创建、修改、删除 目录 Hive环境搭建 Hive数据仓库的操作 Hive数据表的操作 Hive中数据的导入与导出 Hive环境搭建 centos安装hive3.1.2(精讲篇)https://bl... Hive数据仓库的操作: 数据库的创建与删除表的创建,修改,删除表中数据的导入与导出表分区与桶的创建、修改、删除 目录 Hive环境搭建 Hive数据仓库的操作 Hive数据表的操作 Hive中数据的导入与导出 Hive环境搭建 centos安装hive3.1.2(精讲篇)https://bl...
- 报错信息: Error while compiling statement: FAILED: SemanticException [Error 10014]: line 1:55 Wrong ar... 报错信息: Error while compiling statement: FAILED: SemanticException [Error 10014]: line 1:55 Wrong ar...
- 文章目录 零、本讲学习目标一、Spark SQL支持读写Hive二、Spark配置hive-site.xml三、准备工作(一)启动Hive的metastore(二)启动Spark Shell ... 文章目录 零、本讲学习目标一、Spark SQL支持读写Hive二、Spark配置hive-site.xml三、准备工作(一)启动Hive的metastore(二)启动Spark Shell ...
上滑加载中
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢
2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
“智能运维新视野”系列直播 —— 云监控技术深度实践
2025/08/29 周五 15:00-16:00
星璇 华为云监控产品经理
本期直播深度解析全栈监控技术实践,揭秘华为云、头部企业如何通过智能监控实现业务零中断,分享高可用系统背后的“鹰眼系统”。即刻预约,解锁数字化转型的运维密码!
回顾中
热门标签