189 8069 5689

本机使用python操作hdfs搭建及常见问题-创新互联

一.虚拟机安装CentOS7并配置共享文件夹
二.CentOS 7 上hadoop伪分布式搭建全流程完整教程
三.本机使用python操作hdfs搭建及常见问题
四.mapreduce搭建
五.mapper-reducer编程搭建

成都创新互联是一家集网站建设,墨竹工卡企业网站建设,墨竹工卡品牌网站建设,网站定制,墨竹工卡网站建设报价,网络营销,网络优化,墨竹工卡网站推广为一体的创新建站企业,帮助传统企业提升企业形象加强企业竞争力。可充分满足这一群体相比中小企业更为丰富、高端、多元的互联网需求。同时我们时刻保持专业、时尚、前沿,时刻以成就客户成长自我,坚持不断学习、思考、沉淀、净化自己,让我们为更多的企业打造出实用型网站。本机使用python操作hdfs搭建及常见问题
    • 一、环境搭建
      • 1.打开虚拟机系统,打开hadoop
      • 2.修改本机hosts文件
      • 3.进行ping测试连通
      • 4.安装hdfs
    • 二、python操作hdfs
      • 1.建立连接
      • 2.创建文件夹
      • 3.上传文件(需保证jps服务中datanode namenode均打开)
      • 4.写文件
      • 5.下载文件或文件夹
    • 三、可能出现的问题

一、环境搭建 1.打开虚拟机系统,打开hadoop

确保网页可以打开
在这里插入图片描述

2.修改本机hosts文件

ifconfig查看当前ip,
在这里插入图片描述
打开C:\Windows\System32\drivers\etc\,编辑hosts文件 ,在末尾添加192.168.137.134 hadoop4
在这里插入图片描述
若不可以编辑
右键属性->安全->选择Users那个->编辑->勾选修改 即可

3.进行ping测试连通

打开我的电脑打开任意文件夹->左上角文件->打开Windows powershell->
进行ping测试
在这里插入图片描述

4.安装hdfs

wIn+r 输入cmd进入执行(在任意python或conda环境安装皆可)

pip install hdfs -i https://pypi.douban.com/simple/

在这里插入图片描述

二、python操作hdfs 1.建立连接
PS D:\software\Bandicam\video>python
Python 3.9.7 (default, Sep 16 2021, 16:59:28) [MSC v.1916 64 bit (AMD64)] :: Anaconda, Inc. on win32

Warning:
This Python interpreter is in a conda environment, but the environment has
not been activated.  Libraries may fail to load.  To activate this environment
please see https://conda.io/activation

Type "help", "copyright", "credits" or "license" for more information.
>>>from hdfs.client import Client
>>>link=Client('http://hadoop4:50070')
>>>link.list('/')
[]
2.创建文件夹

新建文件夹出现错误

>>>link.makedirs('/test')
Traceback (most recent call last):
  File "", line 1, inFile "D:\Anaconda3\install_position\lib\site-packages\hdfs\client.py", line 1036, in makedirs
    self._mkdirs(hdfs_path, permission=permission)
  File "D:\Anaconda3\install_position\lib\site-packages\hdfs\client.py", line 118, in api_handler
    raise err
hdfs.util.HdfsError: Permission denied: user=dr.who, access=WRITE, inode="/":huangqifa:supergroup:drwxr-xr-x

解决:
虚拟机端执行hadoop fs -chmod -R 777 /
在这里插入图片描述

>>>link.makedirs('/test')
>>>link.list('/')
['test']
>>>

在这里插入图片描述
创建文件夹出现安全模式问题:

>>>link.makedirs('/test')
Traceback (most recent call last):
  File "", line 1, inFile "D:\Anaconda3\install_position\lib\site-packages\hdfs\client.py", line 1036, in makedirs
    self._mkdirs(hdfs_path, permission=permission)
  File "D:\Anaconda3\install_position\lib\site-packages\hdfs\client.py", line 118, in api_handler
    raise err
hdfs.util.HdfsError: Cannot create directory /test. Name node is in safe mode.
Resources are low on NN. Please add or free up more resources then turn off safe mode manually. NOTE:  If you turn off safe mode before adding resources, the NN will immediately return to safe mode. Use "hdfs dfsadmin -safemode leave" to turn safe mode off.

解决:
虚拟机端执行

hdfs dfsadmin -safemode leave

在这里插入图片描述

3.上传文件(需保证jps服务中datanode namenode均打开)
>>>link.makedirs('/test')
>>>link.list('/')
['test']
>>>link.upload('/test','C:/readme.txt')
'/test/readme.txt'
>>>link.list('/test')
['readme.txt']

在这里插入图片描述
在这里插入图片描述

4.写文件
>>>link.write('/test/test01.txt',"hello world")
>>>link.list('/test')
['readme.txt', 'test01.txt']

在这里插入图片描述

5.下载文件或文件夹
>>>link.download('/test/test01.txt','D:/')
'D:\\test01.txt'
>>>

在这里插入图片描述
在这里插入图片描述

三、可能出现的问题

问题描述:物理机ping不到虚拟机ip或物理机192.168…hadoop网页打不开
重置虚拟机网络中NAT那个
解决:
虚拟机软件->左上角编辑->虚拟机网络编辑器
在这里插入图片描述
在这里插入图片描述

你是否还在寻找稳定的海外服务器提供商?创新互联www.cdcxhl.cn海外机房具备T级流量清洗系统配攻击溯源,准确流量调度确保服务器高可用性,企业级服务器适合批量采购,新人活动首月15元起,快前往官网查看详情吧


网页题目:本机使用python操作hdfs搭建及常见问题-创新互联
网页URL:http://jkwzsj.com/article/cegcsc.html

其他资讯