- Hive报错记录——林子雨教材 Hive报错记录——林子雨教材
- 执行MapReduce的Jar包报错:Exception in thread main ExitCodeException exitCode=1 执行MapReduce的Jar包报错:Exception in thread main ExitCodeException exitCode=1
- 使用Maven构建Hadoop工程并实现词频统计案例(详细篇) 使用Maven构建Hadoop工程并实现词频统计案例(详细篇)
- CentOS7.5配置伪分布式环境 CentOS7.5配置伪分布式环境
- 启动hdfs报错:hadoop100 Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password) 启动hdfs报错:hadoop100 Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password)
- HDFS 自定义实现函数将文件追加到末尾的问题:Failed to replace a bad datanode the existing pipeline to no more good datanodes begin g available to try HDFS 自定义实现函数将文件追加到末尾的问题:Failed to replace a bad datanode the existing pipeline to no more good datanodes begin g available to try
- flume报错记录:java.net.ConnectException:拒绝连接; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused flume报错记录:java.net.ConnectException:拒绝连接; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused
- 一键安装hadoop测试环境 一键安装hadoop测试环境
- 环境说明:系统:Centos7 在VM中安装的hadoop版本:2.7.7JDK:1.8注意:Hadoop需要Java环境的。记得安装Java环境PS:Centos JDK安装 mkdir /data1:上传jdk的tar.解压2:修改/etc/proflie,把Javahome环境变量配置上:记住:在修改前,先备份在文件最后添加:export JAVA_HOME=/data/jdk1.8.... 环境说明:系统:Centos7 在VM中安装的hadoop版本:2.7.7JDK:1.8注意:Hadoop需要Java环境的。记得安装Java环境PS:Centos JDK安装 mkdir /data1:上传jdk的tar.解压2:修改/etc/proflie,把Javahome环境变量配置上:记住:在修改前,先备份在文件最后添加:export JAVA_HOME=/data/jdk1.8....
- 本文分享EC技术原理及个推的EC实践,带大家一起玩转Hadoop3.0! 本文分享EC技术原理及个推的EC实践,带大家一起玩转Hadoop3.0!
- 确认集群不要了,可执行以下信息强制清理rm -rf /opt/huawei/Bigdata/rm -rf /var/log/Bigdatauserdel -rf ommps -u 2000 | grep -v "PID" | awk '{print $1}' | xargs kill -9判断是否卸载干净的方法:1. /opt/huawei/Bigdata目录不存在2. /srv/Bigda... 确认集群不要了,可执行以下信息强制清理rm -rf /opt/huawei/Bigdata/rm -rf /var/log/Bigdatauserdel -rf ommps -u 2000 | grep -v "PID" | awk '{print $1}' | xargs kill -9判断是否卸载干净的方法:1. /opt/huawei/Bigdata目录不存在2. /srv/Bigda...
- spark ml性能优化思路 spark ml性能优化思路
- 使用https://github.com/colinmarc/hdfs/库,代码见附件前提需要安装MRS客户端代码会读取环境变量中的HADOOP_HOME下的配置,所以需要先source bigdata_envkerberos认证用的是cache文件,所以需要执行kinit生成krb5,cache文件执行上面两步骤后,执行附件代码(先导入依赖) 使用https://github.com/colinmarc/hdfs/库,代码见附件前提需要安装MRS客户端代码会读取环境变量中的HADOOP_HOME下的配置,所以需要先source bigdata_envkerberos认证用的是cache文件,所以需要执行kinit生成krb5,cache文件执行上面两步骤后,执行附件代码(先导入依赖)
- pydoop pydoop
- 本篇博客主要介绍hadoop中mapreduce类型的作业日志是如何生成的。主要介绍日志生成的几个关键过程,不涉及太过细节性的内容。 通过本篇博客你会了解到: 1-mapreduce模块代码的基本结构; 2-mapreduce模块的基本功能构成; 3-mapreduce作业日志的生成的几个关键阶段以及日志在多个存储路径之间是如何变化的。 本篇博客主要介绍hadoop中mapreduce类型的作业日志是如何生成的。主要介绍日志生成的几个关键过程,不涉及太过细节性的内容。 通过本篇博客你会了解到: 1-mapreduce模块代码的基本结构; 2-mapreduce模块的基本功能构成; 3-mapreduce作业日志的生成的几个关键阶段以及日志在多个存储路径之间是如何变化的。
上滑加载中
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签