2024-07-03 16:42:50 | 我爱编程网
可以使用 root 用户来完成 Hadoop 的相关配置和安装,但在此之前,需要确保系统安装了一些必要的前置环境和软件。以下是配置 Hadoop 环境的基本步骤:
安装 Java 运行环境(JRE)或 Java 开发工具包(JDK)。Hadoop 是使用 Java 语言开发的,因此需要安装 Java 运行环境才能运行。
配置 Java 环境变量。在 Linux 系统中,可以使用 export 命令设置 PATH 和 JAVA_HOME 环境变量,以便系统能够识别 Java 运行环境。
下载 Hadoop 的最新版本,例如 Apache Hadoop 2.9.2。
解压 Hadoop 压缩包,并将其放置在某个有读写权限的目录下。
配置 Hadoop 的环境变量,以便系统可以找到 Hadoop 的二进制文件。在 Linux 系统中,可以在 .bashrc 文件中添加以下语句:
Copy code
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
配置 Hadoop 的相关文件,如 core-site.xml, hdfs-site.xml, mapred-site.xml, yarn-site.xml,这些文件记录了 Hadoop 的基本配置信息,例如 NameNode 的地址、DataNode 的地址等等。
格式化 Hadoop 的文件系统。在 Hadoop 安装目录中运行以下命令:
Copy code
$HADOOP_HOME/bin/hdfs namenode -format
完成以上步骤后,Hadoop 环境就可以正常运行了,您可以使用 Hadoop 开发应用程序或处理大数据了。需要注意的是,Hadoop 配置和部署比较复杂,需要一定的经验和技能,建议在操作前先了解相关资料或请有经验的人进行指导。
1、用jps命令
(1)master节点
启动集群:
cy@master:~$ start-all.sh
starting namenode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-namenode-master.out
slave2: starting datanode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-datanode-slave2.out
slave1: starting datanode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-datanode-slave1.out
master: starting secondarynamenode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-secondarynamenode-master.out
starting jobtracker, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-jobtracker-master.out
slave1: starting tasktracker, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-tasktracker-slave1.out
slave2: starting tasktracker, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-tasktracker-slave2.out
用jps命令查看Java进程:
cy@master:~$ jps
6670 NameNode
7141 Jps
7057 JobTracker
(2)slave1节点
用jps命令查看Java进程:
cy@slave1:~$ jps
3218 Jps
2805 DataNode
2995 TaskTracker
(3)slave2节点
用jps命令查看Java进程:
cy@slave2:~$ jps
2913 TaskTracker
2731 DataNode
3147 Jps
如果三台虚拟机用jps命令查询时如上面显示的那样子,就说明hadoop安装和配置成功了。
2、hadoop集群的测试,用hadoop-examples-1.2.1.jar中自带的wordcount程序进行测试,该程序的作用是统计单词的个数。
(1)我们现在桌面上创建一个新的文件test.txt,里面总共有10行,每行都是hello world
(2)在HDFS系统里创建一个input文件夹,使用命令如下:
hadoop fs -mkdir input
或 hadoop fs -mkdir /user/你的用户名/input
(3)把创建好的test.txt上传到HDFS系统的input文件夹下,使用命令如下所示。
hadoop fs -put /home/你的用户名/桌面/test.txt input
或 hadoop fs -put /home/你的用户名/桌面/test.txt /user/你的用户名/input
(4)我们可以查看test.txt是否在HDFS的input文件夹下,如下所示:
hadoop fs -ls input
如果显示如下就说明上传成功:
Found 1 items
-rw-r--r-- 3 cy supergroup 120 2015-05-08 20:26 /user/cy/input/test.txt
(5)执行hadoop-examples-1.2.1.jar中自带的wordcount程序,如下:(提示:在执行下面的命令之前,你要在终端用cd命令进入到/home/cy/Hadoop/hadoop-1.2.1目录)
hadoop jar hadoop-examples-1.2.1.jar wordcount /user/你的用户名/input/test.txt /user/你的用户名/output
如果显示如下结果就说明运行成功:
15/05/08 20:31:29 INFO input.FileInputFormat: Total input paths to process : 1
15/05/08 20:31:29 INFO util.NativeCodeLoader: Loaded the native-hadoop library
15/05/08 20:31:29 WARN snappy.LoadSnappy: Snappy native library not loaded
15/05/08 20:31:30 INFO mapred.JobClient: Running job: job_201505082010_0001
15/05/08 20:31:31 INFO mapred.JobClient: map 0% reduce 0%
15/05/08 20:31:35 INFO mapred.JobClient: map 100% reduce 0%
15/05/08 20:31:42 INFO mapred.JobClient: map 100% reduce 33%
15/05/08 20:31:43 INFO mapred.JobClient: map 100% reduce 100%
15/05/08 20:31:43 INFO mapred.JobClient: Job complete: job_201505082010_0001
15/05/08 20:31:43 INFO mapred.JobClient: Counters: 29
15/05/08 20:31:43 INFO mapred.JobClient: Job Counters
15/05/08 20:31:43 INFO mapred.JobClient: Launched reduce tasks=1
15/05/08 20:31:43 INFO mapred.JobClient: SLOTS_MILLIS_MAPS=3117
15/05/08 20:31:43 INFO mapred.JobClient: Total time spent by all reduces waiting after reserving slots (ms)=0我爱编程网
15/05/08 20:31:43 INFO mapred.JobClient: Total time spent by all maps waiting after reserving slots (ms)=0
15/05/08 20:31:43 INFO mapred.JobClient: Launched map tasks=1
15/05/08 20:31:43 INFO mapred.JobClient: Data-local map tasks=1
15/05/08 20:31:43 INFO mapred.JobClient: SLOTS_MILLIS_REDUCES=8014
15/05/08 20:31:43 INFO mapred.JobClient: File Output Format Counters
15/05/08 20:31:43 INFO mapred.JobClient: Bytes Written=18
15/05/08 20:31:43 INFO mapred.JobClient: FileSystemCounters
15/05/08 20:31:43 INFO mapred.JobClient: FILE_BYTES_READ=30
15/05/08 20:31:43 INFO mapred.JobClient: HDFS_BYTES_READ=226
15/05/08 20:31:43 INFO mapred.JobClient: FILE_BYTES_WRITTEN=116774
15/05/08 20:31:43 INFO mapred.JobClient: HDFS_BYTES_WRITTEN=18
15/05/08 20:31:43 INFO mapred.JobClient: File Input Format Counters
15/05/08 20:31:43 INFO mapred.JobClient: Bytes Read=120
15/05/08 20:31:43 INFO mapred.JobClient: Map-Reduce Framework
15/05/08 20:31:43 INFO mapred.JobClient: Map output materialized bytes=30
15/05/08 20:31:43 INFO mapred.JobClient: Map input records=10
15/05/08 20:31:43 INFO mapred.JobClient: Reduce shuffle bytes=30
15/05/08 20:31:43 INFO mapred.JobClient: Spilled Records=4
15/05/08 20:31:43 INFO mapred.JobClient: Map output bytes=200
15/05/08 20:31:43 INFO mapred.JobClient: CPU time spent (ms)=610
15/05/08 20:31:43 INFO mapred.JobClient: Total committed heap usage (bytes)=176427008
15/05/08 20:31:43 INFO mapred.JobClient: Combine input records=20
15/05/08 20:31:43 INFO mapred.JobClient: SPLIT_RAW_BYTES=106
15/05/08 20:31:43 INFO mapred.JobClient: Reduce input records=2
15/05/08 20:31:43 INFO mapred.JobClient: Reduce input groups=2
15/05/08 20:31:43 INFO mapred.JobClient: Combine output records=2
15/05/08 20:31:43 INFO mapred.JobClient: Physical memory (bytes) snapshot=182902784
15/05/08 20:31:43 INFO mapred.JobClient: Reduce output records=2
15/05/08 20:31:43 INFO mapred.JobClient: Virtual memory (bytes) snapshot=756301824
15/05/08 20:31:43 INFO mapred.JobClient: Map output records=20
(6)我们可以使用下面的命令还查看运行后的结果:
hadoop fs -ls output
hadoop fs -text /user/你的用户名/output/part-r-00000
如果显示如下就说明hadoop三个节点安装和配置成功,测试也成功了,就可以继续更深入地使用和研究hadoop了
hello 10
world 10
我爱编程网(https://www.52biancheng.com)小编还为大家带来如何编写hadoop java程序的相关内容。
1.编译java
# mkdir class
#Javac -classpath .:lib/hadoop-common-2.2.0.jar:lib/hadoop-annotations-2.2.0.jar -d class HADemo.java
2.生成jar包
#jar -cvf hademo.jar -C class/ .
added manifest
adding: com/(in = 0) (out= 0)(stored 0%)
adding: com/wan/(in = 0) (out= 0)(stored 0%)
adding: com/wan/demo/(in = 0) (out= 0)(stored 0%)
adding: com/wan/demo/HADemo.class(in = 844) (out= 520)(deflated 38%)
3.测试运行
#hadoop jar hademo.jar com.wan.demo.HADemo /test
检测:
#hadoop fs -ls /
使用PHP调用Docker命令为什么不能成功应该是php权限不足导致的,可以把system执行后返回的状态码打出来看一下,想看到具体的返回结果可以用exec命令.你看过后很简单吧以后不会可以向我一样经常到后盾人平台找找相关教材看看就会了,希望能帮到你,给个采纳吧谢谢罒㉨罒docker会影响系统的php环境么如果对PHP环境配置不了解的话,建议你使用PHPWAMP绿色集成环境,PHP
python安装成功后怎么运行运行步骤如下:1、打开命令行窗口(Windows用户可按下Win+R键,输入cmd回车)。2、在命令行窗口中,输入“python”命令,按下回车键。这将进入Python交互式模式。3、在Python交互式模式下,可以直接输入Python代码按下回车键执行。如,输入print('Hello,World!')按下回车键,将会输出Hello,World
PHP执行linux系统命令首先先要给大家介绍PHP执行linux系统命令的几个基本函数我曾经很长一段时间都分不清下面几个函数的具体用法区别system函数说明执行外部程序并显示输出资料语法stringsystem(stringmandint[return_var]);返回值:字符串详细介绍本函数就像是C语中的函数system()用来执行指令并输出结果若是return_var参数存在则执行
如何查看PHP版本查看PHP版本方法:1、命令行查询,如果已经配置好环境变量,直接在命令行中输入phpv,将会显示PHP的版本信息,如果没有配置环境变量,直接在命令行中进入php的安装目录,输入命令phpv,即可查看输出的PHP版本信息;2、使用预定义常量“PHPVERSION”查询,点击打开“PHPVERSION”文件,输入对应的PHP的计算机语言,即可查询PHP的版本信息;3
win10系统怎么安装jre8并检查安装状态现在大部分电脑都是win10系统,有些新用户不知道怎么安装jre8并检查安装状态,接下来小编就给大家介绍一下具体的操作步骤。具体如下:1.首先第一步根据下图所示,找到并双击【jre8】软件安装包。2.第二步打开【Java安装程序】窗口后,根据下图所示,点击【安装】选项。3.第三步根据下图所示,正在安装Java。4.第四步
PHP中的常见风险函数PHP风险函数代码执行在PHP中,eval()函数能将字符串作为PHP代码执行,但其非标准函数且易被滥用,存在安全风险。进阶使用时,可以执行多条命令,如eval()嵌套eval()。特殊输入如结束命令?>或使用ascii码或base64编码绕过过滤机制,实现潜在攻击。验证函数assert()assert()函数同样执行字符串作为PHP代码,但其为
如何使用javac命令编译java源程序1.建文本文档,输入自己的java程序。2.然后另存为一个java文件。1.选择文件--->另存为--->名称为“HelloDate.java”----->选择“所有文件”。2.记住自己这个文件的存储位置。(方便调用哦!)3.打开程序---->附件--->命令提示符。4.java文本保存在了
如何安装java的运行环境,我下的是jdk1.6.0_10默认的安装路径一、JDK1.6下载目前JDK最新版本是JDK1.6,到可以下载JDK1.6。二、JDK1.6安装JDK的安装非常简单,只需要按照向导一步一步进行即可。在安装时需记住安装的路径,在配置环境变量时将会用到这个安装路径。我的安装路径是F:jdk1.6。三、配置环境变量对于初学者来说,环境变
2025-02-01 20:24:39
2024-01-05 14:11:24
2025-02-12 03:21:37
2025-02-10 15:19:48
2025-01-28 17:58:32
2024-11-22 05:08:01