Cluster Hadoop con apache Ambari

CDA 2015/16


Índice General

1 Entorno de prácticas

1.1 Arranque de las máquinas virtuales

1.2 Instalación previa

1.2.1 Configuración de partida en todas las máquinas (ya hecho)

1.2.2 Instalación de Apache Ambari en MAESTRO (ya hecho)

1.3 Puesta en marcha de Apache Ambari

1.3.1 Arranque del servidor

1.3.2 Configuración del cluster

  1. Desde un navegador web en la máquina anfitrión, acceder a la URL http://192.168.56.111:8080 y conectarse con el usuario admin y la contraseña admin.

  2. Iniciar asistente Launch Install Wizard
      Name your cluster: cda
      Stacks: HDP 2.3
      Target Hosts:  esclavo1
                     esclavo2
                     maestro
      SSH private key:   -----BEGIN RSA PRIVATE KEY-----
                         ...
                         ...
                         -----END RSA PRIVATE KEY-----
    
                       < copiarla desde el archivo '/root/.ssh/id_rsa' de MAESTRO >
                         (root@maestro:~# cat /root/.ssh/id_rsa)
    
  3. Selección de servicios a desplegar en el cluster Hadoop

  4. Asignar la ubicación de los ''maestros'' de cada servicio

  5. Asignar la ubicación de ''esclavos'' y ''clientes''

  6. Configuración de los servicios (Customize Services) Confirmar la configuración y lanzar el despliegue de los componentes (aprox. 15-20 min.)

1.3.3 Configuración de las ''vistas''

Más información en: Ambari Views Guide

  1. Acceder al 'gestor de vistas'
  2. Crear vista del sistema de ficheros

  3. Crear vista de Pig

  4. Crear vista de Hive

  5. Crear el directorio raíz del usuario admin (desde terminal como usuario hdfs)
     
    root@maestro:~# su - hdfs
    
    $ hadoop fs -mkdir /user/admin/
    $ hadoop fs -chown admin:hdfs /user/admin/
    $ hadoop fs -ls /user
    
    Found 4 items
    drwxr-xr-x   - admin     hdfs          0 2015-12-14 17:36 /user/admin
    drwxrwx---   - ambari-qa hdfs            0 2015-12-14 12:09 /user/ambari-qa
    drwxr-xr-x   - hcat      hdfs            0 2015-12-14 12:02 /user/hcat
    drwx------   - hive      hdfs            0 2015-12-14 12:04 /user/hive
    
    $ exit
    

  6. Habilitar al usuario root el acceso a HDFS configurando un proxyuser (necesario para la 'vista Ficheros' y la 'vista Pig')

  7. Habilitar al usuario hcat el acceso a HDFS configurando un proxyuser (necesario para la 'vista Pig')

  8. Habilitar al usuario root el acceso a WebHCat configurando un proxyuser (necesario para la 'vista Pig')

2 Ejemplos de uso de Apache Pig

Tutoriales básicos sobre Apache Pig de http://hortonworks.com/

3 Ejemplos de uso de Apache Hive

Tutorial básico sobre Apache Hive de http://hortonworks.com/



ribadas 2015-12-22