Skip to main content

moregeek program

​​​hdfs管理工具hdfs explorer ​​​_wx6369307062d07的博客-多极客编程

HDFS eXplorer安装:

下载安装包:HDFS Explorer Installer.msi双机默认安装即可

简单操作:

1、配置链接:选择第一个

​​​HDFS管理工具HDFS Explorer ​​​_hdfs

2、链接配置

​​​HDFS管理工具HDFS Explorer ​​​_文件上传_02

注意这里链接的集群节点Namenode必须是active状态

​​​HDFS管理工具HDFS Explorer ​​​_文件上传_03

如果配置错误就会报如下异常

​​​HDFS管理工具HDFS Explorer ​​​_上传_04

​​​HDFS管理工具HDFS Explorer ​​​_文件上传_05

链接配置的服务器必须是启动namenode服务,没有namenode服务配置链接报如下异常

​​​HDFS管理工具HDFS Explorer ​​​_上传_06

2、功能清单

2.1 hdfs文件下载

下载操作步骤如下:

1、选择文件

2、点击下载按钮

3、选择文件存放路径

4、查看文件是否已下载

​​​HDFS管理工具HDFS Explorer ​​​_hdfs_07

​​​HDFS管理工具HDFS Explorer ​​​_上传_08

​​​HDFS管理工具HDFS Explorer ​​​_文件上传_09

2.2文件上传

1.点击上传按钮

2、选择要上传的文件

3、双击该文件或者选择要上传的文件后再点击打开按钮后文件开始上传

4、文件上传后我们可以在工具中查看到对应目录下的文件

5、通过网页访问192.168.1.196:50070查看文件验证文件是否上传成功

​​​HDFS管理工具HDFS Explorer ​​​_上传_10

​​​HDFS管理工具HDFS Explorer ​​​_hdfs_11

​​​HDFS管理工具HDFS Explorer ​​​_hdfs_12

​​​HDFS管理工具HDFS Explorer ​​​_上传_13

​​​HDFS管理工具HDFS Explorer ​​​_上传_14

2.3新建目录

1、点击New folder按钮

2、新建目录--->修改目录名称--->新目录就创建成功了

​​​HDFS管理工具HDFS Explorer ​​​_文件上传_15

​​​HDFS管理工具HDFS Explorer ​​​_文件上传_16

​​​HDFS管理工具HDFS Explorer ​​​_上传_17

2.4目录或文件删除

选择文件或目录-->选择删除按钮-->点击yes-->完成删除

​​​HDFS管理工具HDFS Explorer ​​​_文件上传_18

​​​HDFS管理工具HDFS Explorer ​​​_hdfs_19


©著作权归作者所有:来自51CTO博客作者wx6369307062d07的原创作品,请联系作者获取转载授权,否则将追究法律责任

cdh6.3.1搭建教程_qq604ad839511ed的博客-多极客编程

⼀.准备⼯作1.离线部署主要分为三块:a.MySQL离线部署b.CM离线部署c.Parcel⽂件离线源部署2.规划:3.下载源:⽀持的版本 ⭐: requirements supported versionsCMcm6.3.1-redhat7.tar.gzParcelCDH-6.3.1-1.cdh6.3.1.p0.1470567-el7.parcelCDH-6.3.1-1.cdh6.3.1.p0.

为什么会产生yarn,解决了什么问题,优势?_蓦然的博客-多极客编程

简单来说,yarn是为了针对MRV1的各种缺陷提出来的资源管理框架详细介绍如下Hadoop 和 MRv1 简单介绍Hadoop 集群可从单一节点(其中所有 Hadoop 实体都在同一个节点上运行)扩展到数千个节点(其中的功能分散在各个节点之间,以增加并行处理活动)。图 1 演示了一个 Hadoop 集群的高级组件。一个 Hadoop 集群可分解为两个抽象实体:MapReduce 引擎和分布式文件系

字节跳动开源数据集成引擎 bitsail 的演进历程与能力解析_字节跳动数据平台的博客-多极客编程

导读BitSail 是字节跳动开源数据集成引擎,支持多种异构数据源间的数据同步,并提供离线、实时、全量、增量场景下全域数据集成解决方案,目前支撑了字节内部和火山引擎多个客户的数据集成需求。经过字节跳动各大业务线海量数据的考验,在性能、稳定性上得到较好验证。10 月 26 日,字节跳动宣布 BitSail 项目正式在 GitHub 开源,为更多的企业和开发者带来便利,降低数据建设的成本,让数据高效地

现代数据治理如何在网易数帆成功落地?_网易数帆技术社区的博客-多极客编程

导读:本文将分享网易数帆数据治理的发展过程,以及对现代数据治理的概念和理念的理解,提出现代数据治理应该与数据开发和消费很好地衔接,具备开发治理一体化、形成治理的闭环、仓内仓外统一治理和建立数据资产门户等核心特点。文章将从以下四个方面展开:网易数帆大数据简介统建中台:先设计后开发见招拆招:运动式治理治理体系:现代数据治理分享嘉宾|余利华 网易数帆 大数据产品线总经理编辑整理|许友昌 每日互动出品社区

一文详解gaussdb(dws) 的并发管控和内存管控_华为云开发者社区的博客-多极客编程

摘要:DWS的负载管理分为两层,第一层为cn的全局并发控制,第二层为资源池级别的并发控制。本文分享自华为云社区《​​GaussDB(DWS) 并发管控&内存管控​​》,作者: fighttingman。1背景这里将并发管控和内存管控写在一起,是因为内存管控实际是通过限制语句的并发达到内存管控的目的的。内存管控是基于语句的估算内存的前提下进行管控的,通俗的说就是语句有个估算内存,当资源池的剩

cdh5部署三部曲之一:准备工作_github.com/zq2599的博客-多极客编程

欢迎访问我的GitHub 这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos 系列介绍 《CDH5部署三部曲》共三篇文章,对CDH5.7.2版本的准备、部署、启动、设置等环节进行实战,内容如下: 第一篇:《准备工作》,即CDH集群中每一台机器都要做的操作; 第二篇:《部署和设置》,本章完成CDH集群部署和启动;

nifi+外部zookeeper集群部署 _qq604ad839511ed的博客-多极客编程

NIFI+外部zookeeper集群部署 1、配置jdk环境使用rpm -qa | grep jdk 指令查看服务器是否安装过jdk,这里一般用于卸载openjdk,[root@hadoop1 ~]# rpm -qa|grep java  1.1、openjdk卸载----卸载指令:[root@hadoop1 ~]# rpm -e --nodeps +安装包名 卸载使用这一行命令也可以卸载 

淘宝商品详情api接口,商品详情api接口接入说明_qq637b11931ef73的博客-多极客编程

为了进行此平台API的调用,首先我们需要做下面几件事情。1、 获取一个KEY。2、 参考API文档里的接入方式和示例。3、查看测试工具是否有需要的接口,响应实例的返回字段是否符合参数要求。4、利用平台的文档中心和API测试工具,对接口进行测试、程序获取。以下只是简单调用示例返回结果:{ "item": { "apiStack": [ { "name": "esi",

淘宝订单同步及解决方法_qq637b11931ef73的博客-多极客编程

背景订 单是卖家的核心数据,卖家的很多日常工作都是围绕着订单展开,应用的基本功能就是要保证订单实时、完整的展示在卖家面前。由于API请求依赖于网络,存在 着网络不稳定和同步时间长的问题,所以应用必须把淘宝的订单数据同步到本地。如何才能快速、完整的把订单同步到本地是本方案将要讨论的问题。名词解释在线订单:卖家三个月内已卖出的订单。增量订单:相对已经同步到本地的订单,凡是在淘宝上发生了变更的订单就是增

现代数据治理如何在网易数帆成功落地?_网易数帆技术社区的博客-多极客编程

导读:本文将分享网易数帆数据治理的发展过程,以及对现代数据治理的概念和理念的理解,提出现代数据治理应该与数据开发和消费很好地衔接,具备开发治理一体化、形成治理的闭环、仓内仓外统一治理和建立数据资产门户等核心特点。文章将从以下四个方面展开:网易数帆大数据简介统建中台:先设计后开发见招拆招:运动式治理治理体系:现代数据治理分享嘉宾|余利华 网易数帆 大数据产品线总经理编辑整理|许友昌 每日互动出品社区

一文详解gaussdb(dws) 的并发管控和内存管控_华为云开发者社区的博客-多极客编程

摘要:DWS的负载管理分为两层,第一层为cn的全局并发控制,第二层为资源池级别的并发控制。本文分享自华为云社区《​​GaussDB(DWS) 并发管控&内存管控​​》,作者: fighttingman。1背景这里将并发管控和内存管控写在一起,是因为内存管控实际是通过限制语句的并发达到内存管控的目的的。内存管控是基于语句的估算内存的前提下进行管控的,通俗的说就是语句有个估算内存,当资源池的剩

cdh6.2.1的hive 2.1.1升级到2.3.9后的beeline报错处理_江南独孤客的博客-多极客编程

ERROR [main] org.apache.hadoop.hive.ql.exec.Utilities: Failed to load plan: hdfs://nameservice1/tmp/hive/hdfs/51655939-06db-4020-b7b8-122cc3af9c97/hive_2022-11-25_12-52-19_741_7496984142017234486-3/-m