Hue 有模块配置,可以配置文件中对应的模块进行注释或开启即可, 路径为 desktop/conf/pseudo-distributed.ini 中的 [[interpreters]] 项下的内容

这里需要注意的是, 启动对应的模块服务的时候会有一些依赖

安装过程

  1. 以 centos7 为例, 安装之前需要安装以下包

    yum install -y python-devel gmp-devel openldap-devel libxslt-devel sqlite-devel gcc-c++ libffi-devel openssl-devel mysql-devel
    
  2. 配置好 maven 源

  3. git 处 下载代码, 并解压,然后执行以下命令,编译hue 运行对应的环境

    cd hue && make apps
    

    <aside> 💡 如果在编译过程中有没有办法下载下来的 pip 包的话, 可以手动下载. ./build/env/bin/pip install <包名>==<版本名>

    </aside>

  4. 编译完成之后开始进行配置

    # 修改$HADOOP_HOME中的 *hdfs-site.xml*
    set dfs.webhdfs.enabled=true
    
    # 修改core-site.xml, 允许其他机器使用 hadoop 账号访问 hdfs
    set hadoop.proxyuser.hadoop.hosts=*
    set hadoop.proxyuser.hadoop.groups=*
    

    如果还在配置 HA 的话,还需要在 $HADOOP_HOME 下的 httpfs-site.xml 中配置

    set httpfs.proxyuser.hadoop.hosts=*
    set httpfs.proxyuser.hadoop.groups=*
    

    并执行以下命令启动 httpfs. httpfs.sh start

  5. 修改 desktop/conf/pseudo-distributed.ini( 开发模式 )

    [desktop]
    http_host=master
    http_port=8000
    time_zone=Asia/Shanghai
    server_user=hadoop
    server_group=hadoop
    default_user=hadoop # 修改为默认登录hdfs 的用户
    default_hdfs_superuser=hadoop # 修改为 hdfs 的 superuser
    [hadoop]
       [[hdfs_clusters]]
           [[[default]]]
               fs_defaultfs=hdfs://master:9820
               # 只能在 非ha集群中使用
               webhdfs_url=http://master:50070/webhdfs/v1 # 可选
               # 对于 HDFS HA部署方式,只能使用 HttpFS
               webhdfs_url=http://master:14000/webhdfs/v1 # 可选
               hadoop_conf_dir=$HADOOP_CONF_DIR
       [[yarn_clusters]]
           [[[default]]]
               resourcemanager_host=master
               resourcemanager_port=8032
    					 logical_name=YarnHA  # yarn集群名字
               submit_to=True
               resourcemanager_api_url=http://master:8088
               history_server_api_url=http://master:19888
               spark_history_server_url=http://master:19889
           [[[ha]]]
               logical_name=HACluster
               resourcemanager_api_url=http://slave5:8088
               history_server_api_url=http://slave5:19888
    [beeswax]
       hive_server_host=master
       hive_server_port=10000
       hive_conf_dir=$HIVE_HOME/conf
    [hbase]
       hbase_clusters=master:16000 # 如果是 ha 集群需要修改为 (HACluster|master:16000)
       hbase_conf_dir=$HBASE_HOME/conf
    [liboozie]
    oozie_url=http://slave1:11000/oozie
    #databases的配置,要去掉注释
    [[database]]
    name=hue # 创建一个库用户存放 hue 的元数据
       engine=mysql
       host=localhost
       port=3306
       user=hue
       password=hue
    #[librdbms]的[databases]的[mysql]配置,同样去掉注解
    [[databases]]
       name=hue # 创建一个库用户存放 hue 的元数据
       engine=mysql
       host=localhost
       port=3306
       user=hue
       password=hue
    
  6. 设置环境变量

    export DESKTOP_LOG_DIR=/opt/logs/hue
    
  7. 执行以下命令 初始化数据库, 并启动服务器

    ./build/env/bin/hue syncdb
    ./build/env/bin/hue migrate # 从 默认使用的 sqlite 迁移数据到mysql
    ./build/env/bin/hue runserver 0.0.0.0:8000 # 开发模式
    
  8. 访问 web.

  9. 访问配置页 可以看到自己哪些配置有问题,进行修复