Diferencias
Muestra las diferencias entre dos versiones de la página.
Ambos lados, revisión anterior Revisión previa Próxima revisión | Revisión previa Última revisión Ambos lados, revisión siguiente | ||
howto [2020/06/29 14:05] capuzzi [Como ejecutar trabajos] |
howto [2023/04/18 17:56] andres [Acceso a Dirac] |
||
---|---|---|---|
Línea 14: | Línea 14: | ||
Los usuarios externos sólo tienen acceso mediante clave de acceso **ssh**. | Los usuarios externos sólo tienen acceso mediante clave de acceso **ssh**. | ||
- | Para solicitar una cuenta de acceso, diríjase al formulario [[quiero|Solicitud de usuario]] | + | Para solicitar una cuenta de acceso, diríjase al formulario **[[quiero|Solicitud de usuario]]** |
===== Límites de uso interactivo ===== | ===== Límites de uso interactivo ===== | ||
Línea 97: | Línea 97: | ||
Puede encontrar más detalles para utilizar python en el cluster en en [[python|Uso de python]] | Puede encontrar más detalles para utilizar python en el cluster en en [[python|Uso de python]] | ||
+ | |||
+ | =====Sistemas de archivos===== | ||
+ | Los nodos de cómputo en Dirac poseen tres sistemas de archivos separados: | ||
+ | *'' **/home/**'' es un sistema de archivos nfs4 montado sobre la red Gigabit ethernet interna del cluster, recomendable para guardar el trabajo ya completado, fuentes de código y correr programas si estos no necesitan un acceso frecuente y voluminoso de espacio. El ''/home'' es el mismo en cada nodo de cómputo y el nodo central (dirac). | ||
+ | *''**/scratch**'' es un sistema de archivos paralelo de alta performance (Beegfs) montando sobre la red infiniband DDR. Posee una cuota superior al ''/home'' y está recomendado para realizar corridas que demanden un uso más intensivo de disco. ''/scratch'' es el mismo en cada nodo de cómputo y en el nodo central (dirac). | ||
+ | * ''**/tmp**'' es un sistema de archivos local en cada nodo de cómputo y separado para cada job. El mismo se borra automáticamente al finalizar el job. Dependiendo el programa utilizado, los archivos temporarios se suelen alojar ahí. Si necesita retener algún archivo creado en'' /tmp'' durante la ejecución de un job debe copiarlo a su ''/home/USER'' antes de finalizar. | ||
===== Gestión de disco ===== | ===== Gestión de disco ===== | ||
Línea 247: | Línea 253: | ||
Este comando ejecuta el script mpi.sh en el conjunto de los nodos del cluster. | Este comando ejecuta el script mpi.sh en el conjunto de los nodos del cluster. | ||
- | Recuerde que sea para trabajos seriales o paralelos, la memoria de cada nodo es compartida por todos los procesos y no está reservada para un proceso en particular. Sin embargo, es conveniente indicar correctamente la cantidad de memoria a utilizar para que el sistema de colas seleccione un nodo con memoria suficiente y el programa se ejecute normalmente. Para indicar la memoria deberá incluir el tag: | + | Recuerde que sea para trabajos seriales o paralelos, la memoria de cada nodo es compartida por todos los procesos y no está reservada para un proceso en particular. Sin embargo, es conveniente indicar correctamente la cantidad de memoria a utilizar para que el sistema de colas seleccione un nodo con memoria total suficiente. Para indicar la memoria deberá incluir el tag: |
<code bash> | <code bash> |