public cloud compute  gpu

Servidores cloud concebidos para o tratamento de tarefas maciçamente paralelas

As instâncias GPU integram processadores gráficos NVIDIA para responder às exigências do cálculo massivamente paralelo. Integradas na oferta OVHcloud, estas instâncias oferecem as vantagens dos recursos a pedido e da faturação à hora, e adaptam-se às necessidades de Machine Learning ou Deep Learning.​

Propulsionado pela NVIDIA

Esta gama de GPU, entre as mais potentes do mercado, foi concebida para a exploração em datacenter. Aceleram os cálculos nos domínios da inteligência artificial (AI), renderização 3D e processamento gráfico.

NVIDIA NGC

De forma a oferecer a melhor experiência de utilizador, a OVHcloud e a NVIDIA associaram-se para criar a plataforma acelerada por GPU mais potente do mercado para o Deep Learning, o cálculo de alto rendimento e a inteligência artificial (AI), dando lugar à forma mais simples de implementar e manter containers acelerados por GPU, graças a um catálogo completo. Saber mais.

1 a 4 placas com desempenhos garantidos

As placas NVIDIA são diretamente fornecidas à instância através de PCI Passthrough, sem camada de virtualização, de forma que toda a sua potência seja dedicada à sua utilização. Além disso, podem ser ligadas até 4 placas para juntar os rendimentos de cada uma delas. Assim, o material fornece toda a sua capacidade de cálculo à sua aplicação.

Icons/concept/Page/Page Certificate Created with Sketch.

Certificações ISO/IEC 27001, 27701 e conformidade para o alojamento de dados de saúde

Características do NVIDIA H100, A100, L40S, L4, V100S e V100

  Desempenho

Interface

Memória
H100 80 GB
  • FP 64: 26 teraflops
  • FP 32: 51 teraflops
  • FP 16: 205 teraflops
  • PCIe 5.0
  • Capacidade: 80 GB HBM2e
  • Largura de banda: 2000 GB/s
A100 80 GB
  • FP 64: 9,7 teraflops
  • FP 32: 19,5 teraflops
  • FP 16: 78,0 teraflops
  • PCIe 4.0
  • Capacidade: 80 GB HBM2e
  • Largura de banda: 2039 GB/s
L40S 48GB
  • FP 64: 1,43 teraflops
  • FP 32: 91,6 teraflops
  • FP 16: 91,6 teraflops
  • PCIe 4.0
  • Capacidade: 48 GB GDDR6
  • Largura de banda: 864 GB/s
L4 24GB
  • FP 64: 0,5 teraflops
  • FP 32: 30,3 teraflops
  • FP 16: 30,3 teraflops
  • PCIe 4.0
  • Capacidade: 24 GB GDDR6
  • Largura de banda: 300 GB/s
V100S 32 GB
  • FP 64: 8,2 teraflops
  • FP 32: 16,4 teraflops
  • FP 16: 32,7 teraflops
  • PCIe 3.0
  • Capacidade: 32 GB HBM2
  • Largura de banda: 1133 GB/s
V100 16 GB
  • FP 64: 7,1 teraflops
  • FP 32: 14,1 teraflops
  • FP 16: 28,7 teraflops
  • PCIe 3.0
  • Capacidade: 16 GB HBM2
  • Largura de banda: 897 GB/s

 

Exemplos de utilização

Reconhecimento de imagens

Extrair informações de imagens para as classificar, para identificar um elemento ou para criar documentos mais complexos é necessário em muitos domínios. Imagiologia, redes sociais, proteção e segurança do público... Graças às frameworks como Caffe2, aliadas às GPU Tesla V100S, isto já é possível e facilmente acessível.

Análise de situações

O tempo real impõe-se em certos casos, onde é esperada uma reação apropriada face a situações variadas e imprevisíveis. Este tipo de necessidade surge, por exemplo, para os carros autónomos ou a análise de tráfego da rede da Internet. É aí que o Deep Learning intervém para formar redes de neurónios que aprendem de forma autónoma, através de uma fase de treino.

Interação humana

No passado, o ser humano aprendeu a comunicar com máquinas e, atualmente, encontramo-nos numa era onde as máquinas aprendem a comunicar connosco. Quer seja por reconhecimento de voz ou por identificação de emoções por som ou vídeo, as ferramentas como TensorFlow permitem ultrapassar os limites dessas interações e possibilitam uma imensidão de utilizações.

Precisa de treinar a sua inteligência artificial com GPU?

Graças à nossa solução AI Training, poderá treinar de forma eficaz e simples os seus modelos de inteligência artificial e otimizar os seus recursos de cálculo GPU.

Concentre-se na sua atividade e não na infraestrutura que a suporta. Execute os seus treinos através de uma linha de comandos e pague ao minuto os recursos utilizados.

Descobrir o OVHcloud AI Training

Modo de utilização

1

Começar

Execute a sua instância optando pelo modelo mais adequado para si, assim como a imagem NGC (t2: V100S abaixo).

2

Configurar

$ docker pull nvcr.io/nvidia/tensorflow
$ nvidia-docker run nvidia/tensorflow t2

3

Utilizar

A framework AI já está disponível para iniciar os cálculos.

Pronto para começar?

Crie uma conta e lance os seus serviços imediatamente

Tarifas Public Cloud

Faturação de GPU

As instâncias GPU são faturadas da mesma forma que as outras instâncias: paga o que utiliza no final de cada mês. O preço depende do tamanho da instância utilizada e da duração de utilização.

Perguntas frequentes

Qual é o SLA garantido pela OVHcloud numa instância GPU?

O SLA é de 99,999% de disponibilidade mensal nas instâncias GPU. Para obter mais informações, consulte as condições gerais de venda.

Qual é o hipervisor utilizado para a virtualização das instâncias?

Tal como as outras instâncias, as instâncias GPU são virtualizadas pelo hipervisor KVM do kernel Linux.

O que é o PCI Passthrough?

As placas com processadores gráficos são servidas através do bus PCI do servidor físico. O PCI Passthrough é uma funcionalidade do hypervisor que permite dedicar um hardware a uma máquina virtual ao dar diretamente acesso ao bus PCI, sem passar pela virtualização.

É possível redimensionar uma instância GPU?

Sim, as instâncias GPU podem passar para um modelo superior após uma reinicialização. No entanto, não têm capacidade para evoluir para um modelo inferior.

As instâncias GPU beneficiam de uma proteção Anti-DDoS?

Sim, a nossa proteção anti-DDoS está incluída em todas as soluções da OVHcloud, sem custos adicionais.

É possível migrar uma instância atualmente faturada mensalmente para uma faturação à hora, a meio do mês?