超详细版Hadoop的安装与使用(单机/伪分布式)

发布时间:2024年01月16日

一、首先安装VMware虚拟机

虚拟机安装包以及Ubuntu ISO映像下载:https://pan.baidu.com/s/19Ai5K-AA4NZHpfMcCs3D8w?pwd=9999?

下载完成后,进入VMware,点击右上角【文件】——【新建虚拟机向导】

1.1选择典型

1.2选择光盘映像

映像文件选择上方刚刚下载的ubuntukylin-16.04-desktop-amd64

1.3命名

根据自己需求来,无统一规定

1.4安装位置

1.5设置磁盘容量

一般为20GB即可

点击下一步,再点击完成,虚拟机就创建完毕了。

二、创建Hadoop用户

2.1运行虚拟机

默认情况下,创建完虚拟机会自动启动,也可以在主页点击绿色启动按钮

第一次启动需要耐心等待安装

点击我们创建的用户登录

如果安装 Ubuntu 的时候不是用的 “hadoop” 用户,那么需要增加一个名为 hadoop 的用户。

首先按 ctrl+alt+t 打开终端窗口,输入如下命令创建新用户 :

(可以直接把命令粘贴过去,右击的Paste是粘贴键,如果Paste键是灰色的话,关机再重启虚拟机就好了)

sudo useradd -m hadoop -s /bin/bash

上面这条命令创建了可以登陆的 hadoop 用户,并使用 /bin/bash 作为 shell,该命令会让你输入登录密码来验证操作身份,输入密码后按回车就可以(密码输入后是不可见的)

接着使用如下命令设置Hadoop用户的密码,简单设置就好,按提示输入两次密码:

sudo passwd hadoop

可为 hadoop 用户增加管理员权限,方便部署,避免一些对新手来说比较棘手的权限问题:

sudo adduser hadoop sudo

完成后我们可以在右上角点击小齿轮,切换到hadoop用户

三、SSH登录权限设置

安装ssh的服务端:

sudo apt-get install openssh-server

根据提示,输入y进行安装

四、安装Java环境

4.1安装并解压Java jdk

首先下载Java jdk,链接:https://pan.baidu.com/s/1JKwJEAnYpNDN2hZ5JpPMVw?pwd=9999

为了方便传输文件,我们需要用到FileZilla,FileZilla下载链接:https://pan.baidu.com/s/1DFFt-PWFBBY9Obm_Zv_24g?pwd=9999

下载后双击运行安装,安装完成后运行FileZilla

先回到虚拟机,输入ifconfig查看本机虚拟机的ip

红色圈出来的就是ip地址了,记一下方便后续使用

接下来回到FileZilla,点击左上角【文件】——【站点管理器】

点击下方【新站点】,右侧主机输入刚刚查询到的虚拟机ip,协议选择SFTP,登录类型正常。

用户名hadoop,密码是虚拟机用户hadoop的密码

检查输入无误后,点击右下方【连接】

勾选信任,点确认

左上角显示如下就代表连接成功了

接下来把我们刚刚下载的Java jdk-8u162-linux-x64.tar.gz通过FileZilla传输到虚拟机 /home/hadoop/Downlods/ ? 路径下面

简单来说FileZilla的用法就是左侧是你自己的电脑,在左侧找到存放你下载的Java jdk位置,然后在右侧找到/home/hadoop/Downlods/(没找到的话把FileZilla关了重新再连接试试)

鼠标点住左侧的jdk文件不要动,拖动到右侧Downlods里,即可完成文件的传输。

传输完成后回到虚拟机中,输入命令如下:

cd /usr/lib
sudo mkdir jvm #创建/usr/lib/jvm目录用来存放JDK文件
cd ~ #进入hadoop用户的主目录
cd Downloads  #注意区分大小写字母,刚才已经通过FTP软件把JDK安装包jdk-8u162-linux-x64.tar.gz上传到该目录下
sudo tar -zxvf ./jdk-8u162-linux-x64.tar.gz -C /usr/lib/jvm  #把JDK文件解压到/usr/lib/jvm目录下

如下图代表解压完毕

4.2配置环境变量

配置环境变量为了方便也用到了FileZilla(也可以用vim编辑器),这里我用的FileZilla。

首先依然是打开FileZilla,然后像刚刚一样,与站点建立连接,确保连接正常。

接下来在右侧文件目录中找到.bashrc文件

找到后像刚刚一样,鼠标单击选中,拖拽到左侧(左侧路径最好是桌面,方便找到)

拖到桌面上我们双击就可以对.bashrc文件进行编辑,复制下方代码粘贴到.bashrc文件中(粘贴到任意空白位置都可以,注意别误删了其他代码)

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_162
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

改好后记得保存,点击左上角【文件】——【保存】

保存完毕后,打开FileZilla,我们需要用新修改完的.bashrc替换虚拟机中原有的.bashrc文件

在左侧单击选择刚刚修改好的.bashrc,将它移动到右侧刚刚的路径(/home/hadoop下面),此时会出现弹窗,我们选择【覆盖】,点击确定,这样环境变量就配置好了

回到虚拟机中,输入命令如下

source ~/.bashrc #让.bashrc文件的配置立即生效

五、单机安装配置

首先需要下载hadoop 3,链接:https://pan.baidu.com/s/1b36jbPa4-S3aFMjd7V1zpw?pwd=9999?

打开FileZilla,将下载好的hadoop上传到虚拟机。(路径跟刚刚Java jdk的一样)

回到虚拟机中执行如下命令:

cd /home/hadoop/Downloads
sudo tar -zxf ./hadoop-3.1.3.tar.gz -C /usr/local    # 解压到/usr/local中
cd /usr/local/
sudo mv ./hadoop-3.1.3/ ./hadoop            # 将文件夹名改为hadoop
sudo chown -R hadoop:hadoop ./hadoop        # 修改文件权限

安装完成

六、伪分布式安装配置?

伪分布式安装需要修改配置文件,仍然是用filezilla把下面2个文件下载到本地进行修改,经过上面的操作相信大家对于使用FileZilla传文件都很熟练了。
分别需要修改/usr/local/hadoop/etc/hadoop/core-site.xml文件和
/usr/local/hadoop/etc/hadoop/hdfs-site.xml文件

注意我们的文件路径/usr/local/hadoop/etc/hadoop(实在找不到文件的位置可以复制路径到远程站点那个输入框按回车)

把这两个文件都拖拽到桌面上来,方便修改

这两个文件的打开方式都选择【用记事本打开】

将core-site.xml在<configuration>和</configuration>中增加以下内容:

    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/local/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>

改完别忘点击保存。

将hdfs-site.xml在<configuration>和</configuration>中增加以下内容:

    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/usr/local/hadoop/tmp/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
       <value>file:/usr/local/hadoop/tmp/dfs/data</value>
    </property>

改完别忘点击保存。

然后用FileZilla将这两个改好后的文件传回到虚拟机中(注意路径),同样是选择覆盖之前的。

接下来配置ssh无密码登录,在虚拟机中输入以下命令:

ssh localhost            #输入yes
exit
cd ~/.ssh/
ssh-keygen -t rsa                     #敲3次回车
cat ./id_rsa.pub >>./authorized_keys

修改hadoop的配置文件 ?/usr/local/hadoop/etc/hadoop/hadoop_env.sh
用FileZilla把hadoop_env.sh文件传到桌面上,用记事本方式打开,找到下面这行
# ?JAVA_HOME=/usr/java/testing hdfs dfs -ls
把# JAVA_HOME=后面的内容修改为/usr/lib/jvm/jdk1.8.0_162
保存

修改完后用FileZilla传回虚拟机,仍然是选择覆盖。

传输完毕之后,执行命令初始化文件系统

cd /usr/local/hadoop/bin
./bin/hdfs namenode -format

然后启动所有进程

cd /usr/local/hadoop/sbin
start-all.sh
start-dfs.sh       #启动文件系统

此时,可以在虚拟机中访问 Web 页面(http://localhost:9870)来查看 Hadoop 的信息

若想停止hdfs可输入以下命令:

cd /usr/local/hadoop
./sbin/stop-dfs.sh
文章来源:https://blog.csdn.net/m0_46555031/article/details/135588343
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。