centos 安装HUE3.5-3.6
安装CDH 的 hue 版本是3.5 -3.6 ,其实3.0 也是可以通过此方法安装的 安装前首先要确保你构建好hadoop 的编译环境 如果没有请搜本博客的 hadoop 编译 话不多说开始吧 1.参考官方我们得知需要安装如下东东 yum rsync gcc openldap-devel python-ldap mysql-de
安装CDH 的 hue 版本是3.5 -3.6 ,其实3.0 也是可以通过此方法安装的
安装前首先要确保你构建好hadoop 的编译环境 如果没有请搜本博客的 hadoop 编译
话不多说开始吧
1.参考官方我们得知需要安装如下东东
yum rsync gcc openldap-devel python-ldap mysql-devel python-devel python-setuptools python-simplejson sqlite-devel libxml2-devel libxslt-devel cyrus-sasl-devel
本人默认你这些都装OK了
2. 下载安装
cd /opt wget http://archive-primary.cloudera.com/cdh5/cdh/5/hue-3.5.0-cdh5.0.3.tar.gz tar xvfz hue-3.5.0-cdh5.0.3.tar.gz cd hue-3.5.0-cdh5.0.3 sudo make install PREFIX=指定hue安装路径 HADOOP_HOME=指定你的hadoop所在路径
不建议现在最新版3.6当然如果你是测试的话可以玩玩
3. 配置HUE
首先创建 软链接到hadoop安装目录下的lib 目录
ln -s
/usr/local/cloud-center/hue/desktop/libs/hadoop/java-lib/hue-plugins-2.5.0-cdh4.4.0.jar ./
上述粗体jar 替换成实际编译后的包名
修改 hue目录下的confi/hue.ini 修改相应配置(略)
修改apps/filebrowser/src/filebrowser/view.py (可以跳过)
函数 def _massage_stats(request, stats):
%B %d, %Y %I:%M %p 改为 %Y-%m-%d %H:%M:%S
4.如果使用mysql数据库的话 请修改hue目录下的confi/hue.ini 中的BD 选项默认使用sqlite 并创建MYSQL数据库
create database hue; grant all on hue.* to 'hue'@'localhost' identified by 'abc1234!@#$'; flush privileges;
5.同步数据库。HUE 使用django框架开发因此我们要构建数据库表结构。我们采用的是MYSQL 数据库
因此在配置好数据库连接信息后我们执行如下命令
build/env/bin/hue migrate build/env/bin/hue syncdb
6.修改 desktop/libs/hadoop/src/hadoop/fs/webhdfs.py
中的 DEFAULT_HDFS_SUPERUSER = ‘hdfs’ 为你的hadoop用户
7.最后启动
build/env/bin/supervisor
完毕访问地址:http://你的IP:你端口
PS: 编译完毕后所有的配置均在 hue 的安装的根目录下
原文地址:centos 安装HUE3.5-3.6, 感谢原作者分享。

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

CentOS 시스템 하에서 Gitlab의 백업 및 복구 정책 데이터 보안 및 복구 가능성을 보장하기 위해 CentOS의 Gitlab은 다양한 백업 방법을 제공합니다. 이 기사는 완전한 GITLAB 백업 및 복구 전략을 설정하는 데 도움이되는 몇 가지 일반적인 백업 방법, 구성 매개 변수 및 복구 프로세스를 자세히 소개합니다. 1. 수동 백업 gitlab-rakegitlab : 백업 : 명령을 작성하여 수동 백업을 실행하십시오. 이 명령은 gitlab 저장소, 데이터베이스, 사용자, 사용자 그룹, 키 및 권한과 같은 주요 정보를 백업합니다. 기본 백업 파일은/var/opt/gitlab/backups 디렉토리에 저장됩니다. /etc /gitlab을 수정할 수 있습니다

CentOS 종료 명령은 종료이며 구문은 종료 [옵션] 시간 [정보]입니다. 옵션은 다음과 같습니다. -H 시스템 중지 즉시 옵션; -P 종료 후 전원을 끕니다. -R 다시 시작; -대기 시간. 시간은 즉시 (현재), 분 (분) 또는 특정 시간 (HH : MM)으로 지정할 수 있습니다. 추가 정보는 시스템 메시지에 표시 될 수 있습니다.

Centos와 Ubuntu의 주요 차이점은 다음과 같습니다. Origin (Centos는 Red Hat, Enterprise의 경우, Ubuntu는 Debian에서 시작하여 개인의 경우), 패키지 관리 (Centos는 안정성에 중점을 둡니다. Ubuntu는 APT를 사용하여 APT를 사용합니다), 지원주기 (Ubuntu는 5 년 동안 LTS 지원을 제공합니다), 커뮤니티에 중점을 둔다 (Centos Conciors on ubuntu). 튜토리얼 및 문서), 사용 (Centos는 서버에 편향되어 있으며 Ubuntu는 서버 및 데스크탑에 적합), 다른 차이점에는 설치 단순성 (Centos는 얇음)이 포함됩니다.

CentOS에서 HDFS 성능 향상 : CentOS에서 HDFS (Hadoop 분산 파일 시스템)를 최적화하기위한 포괄적 인 최적화 안내서에는 하드웨어, 시스템 구성 및 네트워크 설정에 대한 포괄적 인 고려가 필요합니다. 이 기사는 HDFS 성능을 향상시키는 데 도움이되는 일련의 최적화 전략을 제공합니다. 1. 하드웨어 업그레이드 및 선택 리소스 확장 : 서버의 CPU, 메모리 및 저장 용량을 최대한 많이 늘립니다. 고성능 하드웨어 : 고성능 네트워크 카드 및 스위치를 채택하여 네트워크 처리량을 개선합니다. 2. 시스템 구성 미세 조정 커널 매개 변수 조정 : TCP 연결 번호, 파일 핸들 번호 및 메모리 관리와 같은 커널 매개 변수를 최적화하기 위해 /etc/sysctl.conf 파일을 수정합니다. 예를 들어 TCP 연결 상태 및 버퍼 크기를 조정하십시오

CentOS에서 IP 주소를 구성하는 단계 : 현재 네트워크 구성보기 : IP Addr 네트워크 구성 파일 편집 : Sudo vi/etc/ifcfg-eths 스크립트/IFCFG-ETH-Scripts 변경 IP 주소 : iPaddr = 라인 변경 서브넷 마스크 및 게이트웨이 (옵션) (옵션) 네트워크 주소 : Su Systemctl CTL CTL CTLCTCTCTCTC TH SYSTEMCCTL

Centos에서 Hadoop 분산 파일 시스템 (HDFS) 구성에 대한 일반적인 문제 및 솔루션 Centos에서 HadoophDFS 클러스터를 구축 할 때 일부 일반적인 잘못된 구성으로 인해 성능 저하, 데이터 손실이 발생할 수 있으며 심지어 클러스터조차 시작할 수 없습니다. 이 기사는 이러한 공통 문제와 이러한 함정을 피하고 HDFS 클러스터의 안정성과 효율적인 작동을 보장하는 데 도움이되는 솔루션을 요약합니다. 랙 인식 구성 오류 : 문제 : 랙-인식 정보가 올바르게 구성되지 않아 데이터 블록 복제본의 분포가 고르지 않고 네트워크로드가 증가합니다. 솔루션 : HDFS-Site.xml 파일에서 랙-인식 구성을 두 번 확인하고 HDFSDFSADMIN-PRINTTOPO를 사용하십시오.

CentOS 방화벽의 상태는 Sudo Firewall-CMD-상태 명령을 통해 볼 수 있으며 실행 또는 실행되지 않음으로 돌아갑니다. 보다 자세한 정보를 보려면 구성된 영역, 서비스, 포트 등을 포함하여 Sudo Firewall-CMD (목록)를 사용할 수 있습니다. Firewall-CMD가 문제를 해결하지 않으면 Sudo iptables -n을 사용하여 iptables 규칙을 볼 수 있습니다. 서버 보안을 보장하기 위해 방화벽 구성을 수정하기 전에 백업을해야합니다.

Centos 시스템에서 Hadoop 분산 파일 시스템 (HDF)을 구축하려면 여러 단계가 필요합니다. 이 기사는 간단한 구성 안내서를 제공합니다. 1. 초기 단계에서 JDK를 설치할 준비 : 모든 노드에 JavadevelopmentKit (JDK)을 설치하면 버전이 Hadoop과 호환되어야합니다. 설치 패키지는 Oracle 공식 웹 사이트에서 다운로드 할 수 있습니다. 환경 변수 구성 : /etc /프로파일 파일 편집, Java 및 Hadoop 설정 설정 시스템에서 JDK 및 Hadoop의 설치 경로를 찾을 수 있습니다. 2. 보안 구성 : SSH 비밀번호가없는 로그인 SSH 키 : 각 노드에서 ssh-keygen 명령을 사용하십시오.
