Suponga que el directorio de instalación predeterminado de HDFS es /srv/BigData/hadoop/data1/dn.
El directorio de instalación debe cambiarse a /srv/BigData/hadoop/data2/dn.
1. Inicie sesión en el portal de FusionInsight Manager y seleccione Services > More Actions > Stop Cluster para detener el clúster.
2. Inicie sesión en cada nodo de datos como usuario root usando PuTTY y ejecute los siguientes comandos:
· Para crear y montar el directorio de destino:
mkdir/srv/BigData/hadoop/data2
mkdir/srv/BigData/hadoop/data2/dn
· Para copiar los datos al directorio de destino:
cp -af/srv/BigData/hadoop/data1/dn/*/srv/BigData/hadoop/data2/dn
3. En el portal de FusionInsight Manager, elija Services > HDFS > Configuration para abrir la página de configuración del nodo de datos HDFS, cambie el valor del elemento de configuración del nodo de datos dfs.datanode.data.dir de /srv/BigData/hadoop/data1/dn a/srv/BigData/hadoop/data2/dn.
4. Inicia el servicio HDFS. (Solo es necesario iniciar los servicios de los que depende HDFS).
5. Una vez que el servicio se haya iniciado con éxito, ejecute fsck para verificar si los datos se han copiado correctamente.
Ejemplo de comando:
hdfs fsck /
6. Si la pérdida de archivos se muestra en fsck, marque 2 y realice restauraciones relacionadas.
7. Si no se muestra ninguna pérdida de archivo en fsck y HDFS no está en modo seguro, los datos se copian correctamente.
8. Elimine los archivos en el directorio de datos original / srv / BigData / hadoop / data1 / dn.
9. Inicie los servicios restantes en el clúster.