- Hive报错记录——林子雨教材 Hive报错记录——林子雨教材
- 执行MapReduce的Jar包报错:Exception in thread main ExitCodeException exitCode=1 执行MapReduce的Jar包报错:Exception in thread main ExitCodeException exitCode=1
- 使用Maven构建Hadoop工程并实现词频统计案例(详细篇) 使用Maven构建Hadoop工程并实现词频统计案例(详细篇)
- CentOS7.5配置伪分布式环境 CentOS7.5配置伪分布式环境
- 启动hdfs报错:hadoop100 Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password) 启动hdfs报错:hadoop100 Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password)
- HDFS 自定义实现函数将文件追加到末尾的问题:Failed to replace a bad datanode the existing pipeline to no more good datanodes begin g available to try HDFS 自定义实现函数将文件追加到末尾的问题:Failed to replace a bad datanode the existing pipeline to no more good datanodes begin g available to try
- flume报错记录:java.net.ConnectException:拒绝连接; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused flume报错记录:java.net.ConnectException:拒绝连接; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused
- 一键安装hadoop测试环境 一键安装hadoop测试环境
- 环境说明:系统:Centos7 在VM中安装的hadoop版本:2.7.7JDK:1.8注意:Hadoop需要Java环境的。记得安装Java环境PS:Centos JDK安装 mkdir /data1:上传jdk的tar.解压2:修改/etc/proflie,把Javahome环境变量配置上:记住:在修改前,先备份在文件最后添加:export JAVA_HOME=/data/jdk1.8.... 环境说明:系统:Centos7 在VM中安装的hadoop版本:2.7.7JDK:1.8注意:Hadoop需要Java环境的。记得安装Java环境PS:Centos JDK安装 mkdir /data1:上传jdk的tar.解压2:修改/etc/proflie,把Javahome环境变量配置上:记住:在修改前,先备份在文件最后添加:export JAVA_HOME=/data/jdk1.8....
- 本文分享EC技术原理及个推的EC实践,带大家一起玩转Hadoop3.0! 本文分享EC技术原理及个推的EC实践,带大家一起玩转Hadoop3.0!
- 确认集群不要了,可执行以下信息强制清理rm -rf /opt/huawei/Bigdata/rm -rf /var/log/Bigdatauserdel -rf ommps -u 2000 | grep -v "PID" | awk '{print $1}' | xargs kill -9判断是否卸载干净的方法:1. /opt/huawei/Bigdata目录不存在2. /srv/Bigda... 确认集群不要了,可执行以下信息强制清理rm -rf /opt/huawei/Bigdata/rm -rf /var/log/Bigdatauserdel -rf ommps -u 2000 | grep -v "PID" | awk '{print $1}' | xargs kill -9判断是否卸载干净的方法:1. /opt/huawei/Bigdata目录不存在2. /srv/Bigda...
- spark ml性能优化思路 spark ml性能优化思路
- 使用https://github.com/colinmarc/hdfs/库,代码见附件前提需要安装MRS客户端代码会读取环境变量中的HADOOP_HOME下的配置,所以需要先source bigdata_envkerberos认证用的是cache文件,所以需要执行kinit生成krb5,cache文件执行上面两步骤后,执行附件代码(先导入依赖) 使用https://github.com/colinmarc/hdfs/库,代码见附件前提需要安装MRS客户端代码会读取环境变量中的HADOOP_HOME下的配置,所以需要先source bigdata_envkerberos认证用的是cache文件,所以需要执行kinit生成krb5,cache文件执行上面两步骤后,执行附件代码(先导入依赖)
- pydoop pydoop
- 本篇博客主要介绍hadoop中mapreduce类型的作业日志是如何生成的。主要介绍日志生成的几个关键过程,不涉及太过细节性的内容。 通过本篇博客你会了解到: 1-mapreduce模块代码的基本结构; 2-mapreduce模块的基本功能构成; 3-mapreduce作业日志的生成的几个关键阶段以及日志在多个存储路径之间是如何变化的。 本篇博客主要介绍hadoop中mapreduce类型的作业日志是如何生成的。主要介绍日志生成的几个关键过程,不涉及太过细节性的内容。 通过本篇博客你会了解到: 1-mapreduce模块代码的基本结构; 2-mapreduce模块的基本功能构成; 3-mapreduce作业日志的生成的几个关键阶段以及日志在多个存储路径之间是如何变化的。
上滑加载中
推荐直播
-
华为云码道-玩转OpenClaw,在线养虾2026/03/11 周三 19:00-21:00
刘昱,华为云高级工程师/谈心,华为云技术专家/李海仑,上海圭卓智能科技有限公司CEO
OpenClaw 火爆开发者圈,华为云码道最新推出 Skill ——开发者只需输入一句口令,即可部署一个功能完整的「小龙虾」智能体。直播带你玩转华为云码道,玩转OpenClaw
回顾中 -
华为云码道-AI时代应用开发利器2026/03/18 周三 19:00-20:00
童得力,华为云开发者生态运营总监/姚圣伟,华为云HCDE开发者专家
本次直播由华为专家带你实战应用开发,看华为云码道(CodeArts)代码智能体如何在AI时代让你的创意应用快速落地。更有华为云HCDE开发者专家带你用码道玩转JiuwenClaw,让小艺成为你的AI助理。
回顾中 -
Skill 构建 × 智能创作:基于华为云码道的 AI 内容生产提效方案2026/03/25 周三 19:00-20:00
余伟,华为云软件研发工程师/万邵业(万少),华为云HCDE开发者专家
本次直播带来两大实战:华为云码道 Skill-Creator 手把手搭建专属知识库 Skill;如何用码道提效 OpenClaw 小说文本,打造从大纲到成稿的 AI 原创小说全链路。技术干货 + OPC创作思路,一次讲透!
回顾中
热门标签