Difference between revisions of "Singularity"

From VeRLab Wiki
Jump to: navigation, search
(Singularity)
 
(74 intermediate revisions by 3 users not shown)
Line 10: Line 10:
 
* A massa de arquivos de dataset (que geralmente ocupam espaço >=500GB) ficam localmente armazenados na máquina host, assim evita tráfego desnecessário na rede. Geralmente na pasta /homeLocal/nome_do_usuario.
 
* A massa de arquivos de dataset (que geralmente ocupam espaço >=500GB) ficam localmente armazenados na máquina host, assim evita tráfego desnecessário na rede. Geralmente na pasta /homeLocal/nome_do_usuario.
  
* O usuário deixa na sua pasta home da rede apenas sua máquina container em formato de imagem (que em geral ocupa ~4GB) assim basta logar em uma máquina de processamento para rodar seu experimento.
+
* O usuário deixa na sua pasta home da rede apenas sua máquina container em formato de imagem (que em geral ocupa ~4GB) assim quando logar em qualquer máquina de processamento a mesma estará disponível para rodar seu experimento.
  
 +
* Dataset's e containers podem ser armazenados no serviço de storage da rede, assim ficam disponíveis em qualquer máquina de processamento para rodar seu experimento. Geralmente na pasta /srv/storage/datasets/nome_do_usuario e /srv/storage/singularity/images/nome_do_usuario.
 +
<br><br><br>
  
 +
== Singularity vs. Docker ==
 +
<br>
 +
'''Docker'''
  
== Instalação ==
+
* Popularidade: Docker é amplamente utilizado e tem uma grande comunidade de desenvolvedores.
Toda máquina de processamento do Verlab/J (máquinas com GPU) deve ter o Singularity instalado e não precisam ter pacotes específicos de software como ROS, cuda, tensorflow.  
+
* Flexibilidade: Permite a criação de containers para diferentes sistemas operacionais (Linux, Windows, macOS).
 
+
* Ecosistema: Oferece uma vasta gama de imagens pré-construídas (Docker Hub) e integração com ferramentas de CI/CD.
A equipe de rede é responsável por manter máquinas locais e máquinas de processamento disponíveis para executar o singularity. Foi escolhido que o sigularity estará disponível apenas nas máquinas com GPU Nvidia, assim confira a lista de máquinas na [https://www.verlab.dcc.ufmg.br/restrict-area/ área restrita] do site do verlab:
+
* Segurança: Embora seguro, pode exigir permissões elevadas (root) para certas operações.
 
 
=== Máquinas locais com GPU Nvidia ===
 
* Instalar o Singularity em toda máquina host com GPU (máquina de processamento)
 
* Criar a pasta <code>/homeLocal</code> em toda máquina host. Essa pasta deve dar permissão para qualquer usuários criarem e modificarem suas máquinas container.
 
* Configurar o comando <code> $sudo singularity ... </code> de modo que todo usuário possa rodá-lo dentro da pasta <code>/homeLocal</code>, sem necessitar de senha root
 
 
 
=== Máquinas de processamento da rede com GPU Nvidia e acesso ao /srv/forge e /srv/storage/singularity/forge ===
 
* Foi escolhido que das máquinas de processamento na rede, apenas '''PROC2 e ESCHER''' serão capazes de criar um container e abrir em modo edição com '''<code> $sudo singularity shell --writable... </code>'''. Uma segunda restrição é que essa permissão só pode ser executada na pasta <code>'''/srv/forge'''</code>
 
* Configurar a montagem da pasta <code>/srv/forge</code> nas máquinas PROC2 e ESCHER e configurar a montagem das mesmas para que o comando <code> $sudo singularity ... </code> possa ser executado por qualquer usuário, sem necessitar de permissão root
 
* Para executar o container sem modo de edição ('''<code>$singularity shell...</code>'''), a pasta <code>/srv/forge</code> é espelhada em <code>proc2:/srv/storage/singularity/forge$</code> e <code>escher:/srv/storage/singularity/forge$</code>
 
 
 
=== PIP ===
 
O '''Python Package Installer''', também conhecido como PIP, é responsável por instalar os pacotes Python criados pela comunidade. Dentro do singularity + moosefs, ele tem um comportamento anômalo, não instalando nas pastas padrão. Tais pastas "''padrão''" são especificadas diretamente no código-fonte do python, mais precisamente no módulo ''sys''.
 
Faz-se portanto necessário utilizar a flag -t/--target ao instalar os pacotes via pip, apontando para a pasta ''dist-packages'' da distribuição utilizada.
 
 
 
<code> pip install <package> -t /usr/local/lib/python2.7/dist-packages/ </code>
 
  
 +
'''Singularity'''
  
 +
* Foco em HPC: Singularity é especialmente popular em ambientes de computação de alto desempenho (HPC) e pesquisa científica.
 +
* Segurança: Projetado para ser executado com permissões de usuário comuns, sem a necessidade de privilégios elevados.
 +
* Portabilidade: Focado principalmente em ambientes Linux, mas com suporte limitado para outros sistemas operacionais.
 +
* Definição de Containers: Utiliza arquivos de definição (Singularity Definition Files) que são diferentes dos arquivos Dockerfile.
  
 +
<br><br><br>
  
 +
== Versão em uso no VeRLab/JLab ==
  
== <span style="color: red;">IMPORTANTE</span>: Diferença entre os 3 formatos criados pelo <code>build</code>: ==
+
Atualmente temos a versão 4.1.x instalada nas máquinas da rede VeRLab/JLab.
  
 +
=== '''Singularity CE v4.x''' ( ''Community Edition'', ''freeware'', versão em todas as máquinas <span style="color: red;">a partir de jun/2024</span>) ===
 +
* [https://www.verlab.dcc.ufmg.br/mediawiki/index.php/Singularity4  Link para dicas de uso do Singularity CE v4.x]
  
==== Arquivo único, extensão <code>'''.simg'''</code>: <span style="color: red;">NÃO</span> é possivel editar container ====
 
* Destinado para fase de experimentos em massa (produção)
 
* Vantagem: Em geral, ocupa menos espaço e executa mais rápido que um container equivalente no formato '''.img'''. Indicado para produção, versão final de experimentos.
 
* Desvantagem: Não pode-se fazer modificação no container. Para Instalar algo, tem que transformar em '''.img''' ou '''"pasta sandbox"'''.
 
* (single file) compressed read-only squashfs file system suitable for production (default)
 
  
  
==== Arquivo único, extensão <code>'''.img'''</code>: <span style="color: red;">NÃO</span> indicado para editar o container, apesar de possível com limitação de espaço ====
+
'''Versões anteriores utilizadas na rede rede VeRLab/Jlab'''
* Destinado para a fase de desenvolvimento, mas com container sofrendo poucas alterações.
 
* Vantagem: Em geral, ocupa menos espaço e executa mais rápido que um container equivalente no formato "pasta sandbox". E ainda pode-se instalar pacotes (opção --writable), porém tem limitação de espaço em disco.
 
* Desvantagem: O disco tem tamanho fixo, então é possível fazer modificações e instalações com opção --writable, mas se não couber no disco, o mesmo tem que ser expandido manualmente com [https://sylabs.io/guides/2.5/user-guide/appendix.html#image-expand image.expand --size]
 
*(single file): writable ext3 file system suitable for interactive development ( --writable option )
 
 
 
 
 
==== '''Pasta Sandbox''' <code>sandbox directory </code>: <span style="color: red;">INDICADO PARA EDITAR</span>, sem limitações de espaço significativas ====
 
* Destinado para desenvolvimento inicial do container, quando ainda não se sabe exatamente as configurações e ferramentas a serem usadas, logo o container ainda sofre muitas alterações.
 
* Vantagem: vários arquivos e sub-pastas que são expansíveis automaticamente conforme vai-se instalando pacotes (opção --writable). O tamanho do disco é expansível conforme disponibilidade da máquina host.
 
* Desvantagem: Mais lento dos formatos para execução!
 
* (many files and sub-folders): writable (ch)root directory called a sandbox for interactive development ( --sandbox option)
 
 
 
  
 +
* [https://www.verlab.dcc.ufmg.br/mediawiki/index.php/Singularity3  Link para dicas de uso do Singularity CE v3.x]  (descontinuada em mai/2024)
  
 +
* A versão 2.5.x já foi utilizada, mas seu suporte parou em jul/2018 e foi descontinuada na rede VeRLab/Jlab desde mar/2022.
 +
<!-- Comentado
 +
* '''Singularity v2.5.x''' (''freeware'', <span style="color: red;">versão sem suporte desde jul/2018, vai ser descontinuada na rede VeRLab/JLab</span>)
 +
**[https://www.verlab.dcc.ufmg.br/mediawiki/index.php/Singularity2  Link para dicas de uso do Singularity v2.5.x]
 +
-->
 +
<br> <br> <br>
  
 
== Regras de bom uso dos recursos ==
 
== Regras de bom uso dos recursos ==
 +
* Arquivos mais importantes e pequenos, como códigos, documentos e resultados finais, devem ser mantidos na home do usuário.
 +
** '''Obs:''' Usuários '''não''' devem deixar o datasets e arquivos temporários de processamento dentro da sua pasta '''home'''. Os datasets são muitos arquivos que vão ser acessados durante o experimento e que seu tamanho total, em geral, é >=500GB.  Pois isso aumenta o tráfego na rede desnecessáriamente.
  
*Cada usuário deve criar uma pasta com seu nome de usuário dentro das pastas de uso comum (<code> /homeLocal/fulano  ou  /srv/forge/fulano  ou  /srv/storage/datasets </code>) e usá-la para seus arquivos. Assim fica organizado e facilita identificar quem são os donos dos containers ou datasets.
 
  
* A máquina container para rodar os experimentos deve estar em formato de imagem para rodar mais rápido (<code>.img</code> ou  <code>.simg</code>). Porém, enquanto estiver em teste e instalando pacotes, ela deve ser uma "pasta sandbox".
+
* Massa de dados e arquivos maiores, tais como datasets, dados pre-processados e resultados parciais, devem ser armazenados em locais de uso comum dentro de uma pasta com o "nome do usuário" ou "nome do projeto" (no caso de um grupo de trabalho maior que tem um aluno sênior coordenando).
  
* Usuários '''não''' devem deixar o dataset dentro da sua pasta '''home na rede'''. Os datasets são muitos arquivos que vão ser acessados durante o experimento e que seu tamanho total, em geral, é >=500GB.  Pois isso aumenta o tráfego na rede desnecessáriamente. Os datasets devem ser armazenados numa pasta local do computador com o nome do usuário ou no servidor de storage (usando uma pasta com o nome do usuário).
 
** Por exemplo, para o login "fulano" '''não usar''' <code> /home/fulano/dataset </code> mas sim:
 
** <code> /homeLocal/fulano/dataset </code>
 
** <code> /srv/storage/datasets/fulano/ </code>
 
  
 +
* Temos as seguintes opções de pastas de uso comum para massa de dados:
 +
**<code>/homeLocal/</code> : pasta local na máquina, montada no barra da mesma. O usuário pode armazenar seus containers e dados de experimentos.
 +
**<code>/srv/storage/datasets</code>) : pasta no servidor de storage para armazenar datasets
 +
**<code>/srv/storage/singularity/images/</code> : pasta no servidor de storage para armazenar as imagens singularity fechadas (<code>.sif</code>) que são executadas nos experimentos.
 +
**<code>/srv/storage/singularity/forge/</code> : pasta no servidor de storage para criação de imagens singularity em modo sandbox (evitar deixar as imagens em sandbox, mais detalhes abaixo)
 +
*** Foi escolhido que das máquinas de processamento na rede, apenas '''EPONA, GHOST e MAGRITTE''' serão capazes de criar um container e abrir em modo edição com '''<code> $sudo singularity shell --writable... </code>'''.
 +
*** Outra restrição é que essa permissão só pode ser executada na pasta <code>'''/srv/forge'''</code>
  
* <del>Cada usuário deve criar/preparar sua máquina container em uma '''pasta local''' e executá-la em ''"modo edição" e como "pasta sandbox" (<code>--writable</code>)'' para instalar os pacotes e dependências para seus experimentos. Por exemplo, usar a pasta local <code> /homeLocal/fulano/my_container </code>. Depois de pronta, a máquina container, pode ser convertida para o formato de imagem (<code>.img</code> ou  <code>.simg</code>) e ser ser armazenado na pasta home da rede, assim pode ser executada como leitura de qualquer máquina de processamento que o usuário logar.</del>
+
 
 +
* Cada usuário deve criar uma pasta com seu "nome de usuário" (ou "nome de projeto" se for o caso) dentro da pasta de uso comum para conter seus arquivos. Assim fica organizado e facilita identificar quem são os donos dos containers ou datasets. Exemplos para o nome de usuário "fulano":
 +
**  '''O usuário é responsável por liberar o espaço em disco quando não estiver mais precisando do mesmo ou fazendo testes'''
 +
**<code>/homeLocal/fulano</code> :
 +
**<code>/srv/storage/datasets/fulano</code>
 +
**<code>/srv/storage/singularity/forge/fulano</code>
 +
**<code>/srv/storage/singularity/images/fulano</code>
  
  
 +
* A máquina container para rodar os experimentos deve estar em formato de imagem para rodar mais rápido (<code>.sif</code>.
 +
** Porém, enquanto estiver em teste e instalando pacotes, ela deve ser uma "pasta sandbox".
 +
** Pedimos que não mantenham muitas imagens singularity em modo sandbox. Sempre que possível, feche sua imagem (converter para <code>.sif</code> e de preferência coloque-as na pasta storage/singularity/images.
 +
** '''Obs:''' Imagens em modo sandbox deixam uma quantidade enorme de arquivos, e como o servidor de storage tem que mapear todos os arquivos na memória RAM, e às vezes a mesma estoura por esse motivo.
  
 +
<br> <br> <br>
  
== Passo a Passo: caso de uso do Singularity ==
+
== Instalação ==
 +
Toda máquina de processamento do Verlab/J (máquinas com GPU) deve ter o Singularity instalado e não precisam ter pacotes específicos de software como ROS, cuda, tensorflow.
  
 +
A equipe de rede é responsável por manter máquinas locais e máquinas de processamento disponíveis para executar o singularity. Foi escolhido que o sigularity estará disponível apenas nas máquinas com GPU Nvidia, assim confira a lista de máquinas na [https://www.verlab.dcc.ufmg.br/restrict-area/ área restrita] do site do verlab:
  
==== Criar sua máquina container em "modo edição" e no formato "pasta sandbox" ( para instalar os pacotes e dependências para seus experimentos). ====
+
=== Estações de trabalho Desktop no Verlab/J com GPU Nvidia ===
 
+
* Instalar o Singularity em toda máquina host com GPU (máquina de processamento)
 
+
* Criar a pasta <code>/homeLocal</code> em toda máquina host.  
1) Criar sua pasta de usuario em <code> /srv/forge/fulano/ </code>  ou  <code>/homeLocal/fulano </code> :
+
** O usuário precisa solicitar à equipe de rede para criar uma pasta filha na <code>/homeLocal/nome_do_usuario</code> e dar permissão de leitura/escrita. Assim, para casos específicos é possível criar e modificarem máquinas container localmente, sem usar o serviço de storage.
    cd /srv/forge
+
* Configurar o comando <code> $sudo singularity ... </code> de modo que todo usuário possa rodá-lo dentro da pasta <code>/homeLocal</code>, sem necessitar de senha root
    mkdir fulano
 
    cd /srv/forge/fulano
 
 
 
    cd /homeLocal
 
    mkdir fulano
 
    cd /homeLocal/fulano
 
 
 
 
 
2) criar seu container singularity no formato "pasta sandbox" para ser possível instalar pacotes:
 
 
 
    sudo singularity build --sandbox my_container docker://jjanzic/docker-python3-opencv:opencv-4.0.1
 
 
 
 
 
3) executar seu container singularity em modo edição para instalar pacotes:
 
    sudo singularity shell --writable my_container/
 
 
 
 
 
Depois de pronta, a máquina container, pode ser convertida para o formato de imagem (<code>.img</code> ou  <code>.simg</code>) e ser ser armazenado na pasta home da rede, assim pode ser executada como leitura de qualquer máquina de processamento que o usuário logar.
 
 
 
* Use <code>sudo</code> somente quando necessário (e.g., instalação de pacotes e configuração). Quando for rodar o container para experimentos, não será necessário invocar o singularity com permissão <code>sudo</code>.
 
 
 
    singularity shell my_container/
 
 
 
 
 
 
 
 
 
==== Converter uma máquina container container do formato '''"pasta sandbox"''' para o formato '''<code>.simg</code>''' ====
 
* Para converter do formato '''"pasta sandbox"''' para o formato '''<code>.simg</code>'''. [https://www.sylabs.io/guides/2.5.1/user-guide/quick_start.html#converting-images-from-one-format-to-another Dicas sobre conversão de formatos das máquinas container]:
 
 
 
    sudo singularity build my_ubuntu.simg my_container/
 
 
 
 
 
 
 
 
 
== Links para aprender Singularity ==
 
 
 
==== Documentação oficial ====
 
 
 
* https://www.sylabs.io/docs/ (atual, desde julho/2018)
 
 
 
* https://singularity.lbl.gov/docs-docker (verãos antiga)
 
 
 
==== More details about the different build options and best practices, read singularity flow: ====
 
 
 
https://sylabs.io/guides/2.5/user-guide/introduction.html#the-singularity-usage-workflow
 
 
 
== Docker Hub: Máquinas Container Prontas! ==
 
* Docker Hub: várias imagens prontas com ferramentas instaladas
 
 
 
    https://hub.docker.com/
 
 
 
Por exemplo pode-se buscar no google: "docker hub opencv ubuntu", uma das respostas será o repositório
 
 
 
    https://hub.docker.com/r/jjanzic/docker-python3-opencv
 
 
 
Para usar um endereço de imagem docker hub e criar seu container singularity, usa-se o '''formato docker://REPOSITORIO:TAGS'''
 
 
 
No caso do repósitório exemplo, ao abrir o link, vai encontrar diversas TAGS listadas na pagina:
 
 
 
    List of available docker tags:
 
    opencv-4.1.0 (latest branch)
 
    contrib-opencv-4.1.0 (opencv_contrib branch)
 
    opencv-4.0.1
 
    contrib-opencv-4.0.1
 
    opencv-4.0.0
 
    contrib-opencv-4.0.0
 
    opencv-3.4.2
 
    contrib-opencv-3.4.2
 
    (...)
 
 
 
Assim para criar o container usando <code>build</code> e copiando do repositório exemplo a tag <code>opencv-4.0.1</code>, tem-se:
 
 
 
    <code>sudo singularity build --sandbox opencv-base docker://jjanzic/docker-python3-opencv:opencv-4.0.1</code>
 
 
 
 
 
 
 
 
 
== Alguns Comandos Básicos ==
 
https://www.sylabs.io/guides/2.5.1/user-guide/quick_start.html#interact-with-images
 
 
 
* <code>[https://www.sylabs.io/guides/2.5.1/user-guide/build_a_container.html#build-a-container '''build''']</code>: Cria uma imagem para a máquina container  [http://singularity.lbl.gov/docs-build '''old link''']
 
 
 
 
 
* <code> [https://www.sylabs.io/guides/2.5.1/user-guide/quick_start.html#shell '''shell''']</code>: Executa a máquina container no prompt do shell  [http://singularity.lbl.gov/docs-shell '''old link''']
 
 
 
 
 
* <code>[https://www.sylabs.io/guides/2.5.1/user-guide/quick_start.html#executing-commands '''exec''']</code>: Executa um comando dentro do shell da máquina container, em segundo plano, e apresenta o resultado no shell da máquina host [http://singularity.lbl.gov/docs-exec '''old link''']
 
 
 
 
 
* <code>[https://www.sylabs.io/guides/2.5.1/user-guide/quick_start.html#running-a-container '''run''']</code>: Executa ações e scripts configurados no container, como se fosse um executável. [http://singularity.lbl.gov/docs-run '''old link''']
 
 
 
 
 
* <code>[http://singularity.lbl.gov/docs-pull '''pull''']</code>: ??? Copia um container de um repositório, pasta sandbox ou imagem pronta ???
 
 
 
 
 
 
== <code>'''build'''</code>: Criar uma máquina container ==
 
 
 
==== Criar uma máquina container editável (para instalar pacotes) ====
 
* Deve-se usar um singularity no formato "pasta sandbox" (estrutura de diretórios). [https://www.sylabs.io/guides/2.5.1/user-guide/quick_start.html#sandbox-directory Dicas sobre a opção <code>--sandbox</code>].
 
* Criar singularity sandbox usando o repositório Ubuntu 18.04 do Docker Hub:
 
 
 
<code>sudo singularity build --sandbox my_container/ docker://index.docker.io/library/ubuntu:18.04</code>
 
 
 
<code> sudo singularity build --sandbox my_container/ docker://index.docker.io/library/ubuntu:latest </code>
 
 
 
* Exemplo singularity sandbox usando um repositório qualquer do dockerhub
 
<code> sudo singularity build --sandbox my_container/ docker://repository_name:tag </code>
 
 
 
==== outros exemplos menos usados, pois criam container's com limitação de edição ou não editável ====
 
* Criar uma máquina container em formato <code>.img</code> (read-only) a partir de um repositório Docker Hub:
 
    <code> sudo singularity build my_ubuntu.img docker://index.docker.io/library/ubuntu:latest </code>
 
 
 
Deve-se usar o formato <code>.img</code> (writable) a partir de um repositório Docker Hub:
 
    <code> sudo singularity build --writable my_ubuntu.img docker://index.docker.io/library/ubuntu:latest </code>
 
 
 
* Para aumentar o tamanho do disco no container formato <code>.img</code> pode-se utilizar o comando [https://sylabs.io/guides/2.5/user-guide/appendix.html#image-expand  <code>singularity image.expand --size XXX</code> ]
 
    singularity image.expand my_test.img  # Specify a size for an operation in MiB, i.e. 1024*1024B (default 768MiB)
 
    singularity image.expand --size 500 my_test.img  # expand size of 500 MiB
 
 
 
 
 
* Converter ou Criar uma máquina container em formato de imagem a partir de uma pasta sandbox: ([https://www.sylabs.io/guides/2.5.1/user-guide/quick_start.html#converting-images-from-one-format-to-another Dicas sobre conversão de formatos das máquinas container]
 
 
 
    <code>sudo singularity build my_ubuntu.simg my_container/</code>
 
 
 
 
 
* Criar uma máquina container em formato <code>.simg</code> (read-only) a partir de um repositório Docker Hub:
 
    <code> singularity build lolcow.simg docker://godlovedc/lolcow </code>
 
 
 
 
 
 
 
 
 
== Executar a máquina container sandbox no shell para instalar pacotes: ==
 
 
 
* TODO: Como fazer na homeLocal e como fazer na proc2:/srv/forge
 
 
 
<code>sudo singularity shell --writable my_container/</code>
 
 
 
 
 
 
 
 
 
== Executar a máquina container no shell: ==
 
 
 
You can make changes to the container (assuming you have the proper permissions to do so) but those changes will disappear as soon as you exit. To make your changes persistent across sessions, use the --writable option. It’s also a good practice to shell into your container as root to ensure you have permissions to write where you like.
 
 
 
* Executar a máquina container no shell, sem salvar modificações feitas na sessão:
 
  
<code>singularity shell my_container/</code>
+
=== Servidores de Processamento da rede Verlab/J com GPU Nvidia ===
 +
* Configurar montagem automática das pastas na rede:
 +
**<code>/srv/forge</code> (apenas '''EPONA, GHOST e MAGRITTE''')
 +
**<code>/srv/storage/datasets</code>
 +
**<code>/srv/storage/singularity/images/</code>
 +
**<code>/srv/storage/singularity/forge/</code>
  
<code>singularity shell my_ubuntu.img/</code>
+
* Foi escolhido que das máquinas de processamento na rede, apenas '''EPONA, GHOST e MAGRITTE''' serão capazes de criar um container e abrir em modo edição com '''<code> $sudo singularity shell --writable... </code>'''.
 +
* Uma segunda restrição é que essa permissão só pode ser executada na pasta <code>'''/srv/forge'''</code>
 +
* Configurar a montagem da pasta <code>/srv/forge</code> nas máquinas EPONA, GHOST e MAGRITTE e configurar a montagem das mesmas para que o comando <code> $sudo singularity ... </code> possa ser executado por qualquer usuário, sem necessitar de permissão root
 +
* Para executar o container em modo leitura ('''<code>$singularity shell...</code>'''), a pasta <code>/srv/forge</code> é espelhada nas demais máquinas:
 +
**<code>/srv/storage/singularity/forge$</code>
  
* para algum teste de configuração ou instalação de pacote temporário
+
== Dicas de Uso ==
<code>sudo singularity shell my_ubuntu.img/</code>
 
  
* Executar a máquina container no shell, salvando as modificações da sessão ao sair do container. usar opção --writable ([https://singularity.lbl.gov/docs-flow#writable-image Dicas sobre a opção <code>--writable</code>])
+
O uso do Singularity é direto ao ponto em muitos sentidos. Isso se deve ao fato de que, para utilizar os recursos da GPU, o container Singularity faz um linking com o driver da máquina host, o que já disponibiliza, para o container, a mesma versão do driver e do CUDA que já estão instalados na máquina host.<br>
  
<code>sudo singularity shell --writable my_container/</code> - para instalação de pacotes / configuração
+
A principal '''vantagem''' dessa abordagem é evitar ter que fazer configurações extras como a do nvidia-container-toolkit, que é necessária no Docker.
 +
<br>
 +
Ainda assim, é importante prestar atenção à versão do driver Nvidia instalada no sistema para que o container consiga acessar a GPU!
  
<code>singularity shell --writable my_container/</code> - para a execução de experimentos
+
A versão de CUDA instalada dentro do container é totalmente independente da versão instalada na máquina host, o que significa que é possível rodar uma versão do CUDA no container que é diferente da versão instalada na máquina host. Mas é importante prestar atenção que a versão do driver do container será sempre igual à versão do driver na máquina host, pois é feito um link do container para o host, e isso não pode ser mudado.
  
 +
Pode-se verificar a versão do driver Nvidia instalado executando '''<code>nvidia-smi</code>''' na máquina host.
  
 +
Por conta disso, '''pode ser que a versão do driver instalada na máquina host não suporte todas as versões do CUDA'''. Para ver quais versões são suportadas, é importante se atentar a quais
 +
versões do CUDA a versão do driver atual suporta. Isso pode ser verificado em:
  
 +
* https://docs.nvidia.com/deploy/cuda-compatibility/index.html.
  
==== Exemplos com exec ====
+
Para carregar o driver Nvidia no container use a opção  '''<code>--nv</code>'''

Latest revision as of 16:43, 13 November 2024

Singularity

O Singularity é uma ferramenta para a criação de "máquina container" (uma espécie de "máquina virtual") que trás algumas vantagens, quando for rodar experimentos nas máquinas de processamento do Verlab/J:

  • Não precisa ser usuário com privilégios root para executar sua máquina container (apenas para criar) e pode instalar suas dependências de experimento no container sem alterar a máquina host. Isso evita mudanças e instalação de pacotes nas máquinas de processamento e que podem atrapalham experimentos de outros usuários.
  • Depois de criar sua máquina container com todas suas dependências, pode-se usá-la para rodar experimento em diferentes máquinas host que tenham GPU. Isso trás flexibilidade para rodar experimento em máquinas simultaneamente, sem precisar instalar todas dependências novamente em outra máquina host.
  • A massa de arquivos de dataset (que geralmente ocupam espaço >=500GB) ficam localmente armazenados na máquina host, assim evita tráfego desnecessário na rede. Geralmente na pasta /homeLocal/nome_do_usuario.
  • O usuário deixa na sua pasta home da rede apenas sua máquina container em formato de imagem (que em geral ocupa ~4GB) assim quando logar em qualquer máquina de processamento a mesma estará disponível para rodar seu experimento.
  • Dataset's e containers podem ser armazenados no serviço de storage da rede, assim ficam disponíveis em qualquer máquina de processamento para rodar seu experimento. Geralmente na pasta /srv/storage/datasets/nome_do_usuario e /srv/storage/singularity/images/nome_do_usuario.




Singularity vs. Docker


Docker

  • Popularidade: Docker é amplamente utilizado e tem uma grande comunidade de desenvolvedores.
  • Flexibilidade: Permite a criação de containers para diferentes sistemas operacionais (Linux, Windows, macOS).
  • Ecosistema: Oferece uma vasta gama de imagens pré-construídas (Docker Hub) e integração com ferramentas de CI/CD.
  • Segurança: Embora seguro, pode exigir permissões elevadas (root) para certas operações.

Singularity

  • Foco em HPC: Singularity é especialmente popular em ambientes de computação de alto desempenho (HPC) e pesquisa científica.
  • Segurança: Projetado para ser executado com permissões de usuário comuns, sem a necessidade de privilégios elevados.
  • Portabilidade: Focado principalmente em ambientes Linux, mas com suporte limitado para outros sistemas operacionais.
  • Definição de Containers: Utiliza arquivos de definição (Singularity Definition Files) que são diferentes dos arquivos Dockerfile.




Versão em uso no VeRLab/JLab

Atualmente temos a versão 4.1.x instalada nas máquinas da rede VeRLab/JLab.

Singularity CE v4.x ( Community Edition, freeware, versão em todas as máquinas a partir de jun/2024)


Versões anteriores utilizadas na rede rede VeRLab/Jlab

  • A versão 2.5.x já foi utilizada, mas seu suporte parou em jul/2018 e foi descontinuada na rede VeRLab/Jlab desde mar/2022.




Regras de bom uso dos recursos

  • Arquivos mais importantes e pequenos, como códigos, documentos e resultados finais, devem ser mantidos na home do usuário.
    • Obs: Usuários não devem deixar o datasets e arquivos temporários de processamento dentro da sua pasta home. Os datasets são muitos arquivos que vão ser acessados durante o experimento e que seu tamanho total, em geral, é >=500GB. Pois isso aumenta o tráfego na rede desnecessáriamente.


  • Massa de dados e arquivos maiores, tais como datasets, dados pre-processados e resultados parciais, devem ser armazenados em locais de uso comum dentro de uma pasta com o "nome do usuário" ou "nome do projeto" (no caso de um grupo de trabalho maior que tem um aluno sênior coordenando).


  • Temos as seguintes opções de pastas de uso comum para massa de dados:
    • /homeLocal/ : pasta local na máquina, montada no barra da mesma. O usuário pode armazenar seus containers e dados de experimentos.
    • /srv/storage/datasets) : pasta no servidor de storage para armazenar datasets
    • /srv/storage/singularity/images/ : pasta no servidor de storage para armazenar as imagens singularity fechadas (.sif) que são executadas nos experimentos.
    • /srv/storage/singularity/forge/ : pasta no servidor de storage para criação de imagens singularity em modo sandbox (evitar deixar as imagens em sandbox, mais detalhes abaixo)
      • Foi escolhido que das máquinas de processamento na rede, apenas EPONA, GHOST e MAGRITTE serão capazes de criar um container e abrir em modo edição com $sudo singularity shell --writable... .
      • Outra restrição é que essa permissão só pode ser executada na pasta /srv/forge

 

  • Cada usuário deve criar uma pasta com seu "nome de usuário" (ou "nome de projeto" se for o caso) dentro da pasta de uso comum para conter seus arquivos. Assim fica organizado e facilita identificar quem são os donos dos containers ou datasets. Exemplos para o nome de usuário "fulano":
    • O usuário é responsável por liberar o espaço em disco quando não estiver mais precisando do mesmo ou fazendo testes
    • /homeLocal/fulano :
    • /srv/storage/datasets/fulano
    • /srv/storage/singularity/forge/fulano
    • /srv/storage/singularity/images/fulano


  • A máquina container para rodar os experimentos deve estar em formato de imagem para rodar mais rápido (.sif.
    • Porém, enquanto estiver em teste e instalando pacotes, ela deve ser uma "pasta sandbox".
    • Pedimos que não mantenham muitas imagens singularity em modo sandbox. Sempre que possível, feche sua imagem (converter para .sif e de preferência coloque-as na pasta storage/singularity/images.
    • Obs: Imagens em modo sandbox deixam uma quantidade enorme de arquivos, e como o servidor de storage tem que mapear todos os arquivos na memória RAM, e às vezes a mesma estoura por esse motivo.




Instalação

Toda máquina de processamento do Verlab/J (máquinas com GPU) deve ter o Singularity instalado e não precisam ter pacotes específicos de software como ROS, cuda, tensorflow.

A equipe de rede é responsável por manter máquinas locais e máquinas de processamento disponíveis para executar o singularity. Foi escolhido que o sigularity estará disponível apenas nas máquinas com GPU Nvidia, assim confira a lista de máquinas na área restrita do site do verlab:

Estações de trabalho Desktop no Verlab/J com GPU Nvidia

  • Instalar o Singularity em toda máquina host com GPU (máquina de processamento)
  • Criar a pasta /homeLocal em toda máquina host.
    • O usuário precisa solicitar à equipe de rede para criar uma pasta filha na /homeLocal/nome_do_usuario e dar permissão de leitura/escrita. Assim, para casos específicos é possível criar e modificarem máquinas container localmente, sem usar o serviço de storage.
  • Configurar o comando $sudo singularity ... de modo que todo usuário possa rodá-lo dentro da pasta /homeLocal, sem necessitar de senha root

Servidores de Processamento da rede Verlab/J com GPU Nvidia

  • Configurar montagem automática das pastas na rede:
    • /srv/forge (apenas EPONA, GHOST e MAGRITTE)
    • /srv/storage/datasets
    • /srv/storage/singularity/images/
    • /srv/storage/singularity/forge/
  • Foi escolhido que das máquinas de processamento na rede, apenas EPONA, GHOST e MAGRITTE serão capazes de criar um container e abrir em modo edição com $sudo singularity shell --writable... .
  • Uma segunda restrição é que essa permissão só pode ser executada na pasta /srv/forge
  • Configurar a montagem da pasta /srv/forge nas máquinas EPONA, GHOST e MAGRITTE e configurar a montagem das mesmas para que o comando $sudo singularity ... possa ser executado por qualquer usuário, sem necessitar de permissão root
  • Para executar o container em modo leitura ($singularity shell...), a pasta /srv/forge é espelhada nas demais máquinas:
    • /srv/storage/singularity/forge$

Dicas de Uso

O uso do Singularity é direto ao ponto em muitos sentidos. Isso se deve ao fato de que, para utilizar os recursos da GPU, o container Singularity faz um linking com o driver da máquina host, o que já disponibiliza, para o container, a mesma versão do driver e do CUDA que já estão instalados na máquina host.

A principal vantagem dessa abordagem é evitar ter que fazer configurações extras como a do nvidia-container-toolkit, que é necessária no Docker.
Ainda assim, é importante prestar atenção à versão do driver Nvidia instalada no sistema para que o container consiga acessar a GPU!

A versão de CUDA instalada dentro do container é totalmente independente da versão instalada na máquina host, o que significa que é possível rodar uma versão do CUDA no container que é diferente da versão instalada na máquina host. Mas é importante prestar atenção que a versão do driver do container será sempre igual à versão do driver na máquina host, pois é feito um link do container para o host, e isso não pode ser mudado.

Pode-se verificar a versão do driver Nvidia instalado executando nvidia-smi na máquina host.

Por conta disso, pode ser que a versão do driver instalada na máquina host não suporte todas as versões do CUDA. Para ver quais versões são suportadas, é importante se atentar a quais versões do CUDA a versão do driver atual suporta. Isso pode ser verificado em:

Para carregar o driver Nvidia no container use a opção --nv