ScalewayAller à la connexionAller au contenu principalAller au pied de page

ai-PULSE 2024 : Préinscrivez-vous ! Nov 7, Paris

Un usage polyvalent

Bénéficiant à la fois de capacités de décodage d'images et de vidéos et de rendering efficace et rapide, ainsi que de la capacité d'entrainer et de servir des modèles de Deep Learning variés, l'instance GPU L4 couvre une gamme polyvalente de besoins.

Un prix abordable sans compromis

Offrant une alternative économique aux GPU plus coûteux, l'instance GPU L4 permet d'obtenir de solides performances sans alourdir le budget, ce qui convient parfaitement aux startups et aux projets de petite à moyenne taille.

L'excellence de l'AI video

L'Instance GPU L4 offre une excellente génération vidéo, un décodage et un traitement pré-post, permettant aux industries telles que la mode, l'architecture, les jeux et la publicité de créer des contenus visuels nouveaux, impressionnant de réalisme et cohérents.

Innovation verte : 50 % d’énergie en moins, 100 % renouvelable

DC5 PAR2 Paris

DC5 est l'un des centres de données les plus écologiques d'Europe, entièrement alimenté par de l'énergie éolienne et hydraulique renouvelable (certifiée GO), avec un système de refroidissement ultra-efficace utilisant la ventilation directe et le refroidissement adiabatique. Avec un PUE de 1,16 (vs. 1,55 en moyenne dans l'industrie), il réduit la consommation d'énergie de 30 à 50 % par rapport aux centres de données traditionnels.

En savoir plus

WAW2 Varsovie

WAW2 est alimenté à 100 % par de l'énergie éolienne (certifiée GO) et utilise une combinaison de refroidissement direct, de free chilling, de systèmes d'immersion et de climatisation pour optimiser le refroidissement des systèmes. Avec un PUE de 1,32 — inférieur à la moyenne du secteur — il minimise la consommation d'énergie pour une efficacité maximale.

Spécificités techniques

  • gpu

    GPU

    GPU NVIDIA L4 Tensor Core

  • memory

    Mémoire GPU

    24 GB GDDR6 (300 GB/s)

  • processor

    Processeur

    8 vCPUs AMD EPYC 7413

  • processor_frequency

    Fréquence du processeur

    2,65 Ghz

  • memory

    Mémoire

    48 GB de RAM

  • memory_type

    Type de mémoire

    DDR4

  • bandwidth

    Bande passante réseau

    2,5 Gbps

  • storage

    Stockage

    Block Storage

  • threads_cores

    Coeurs

    Tensor Cores 4th generation RT Cores 3rd generation

Cas d'usage

Générer des images et de vidéos à un coût abordable

Si vous avez mis en production un modèle texte-to-image et que vous cherchez à optimiser le coût de votre infrastructure, mais pas au détriment de la performance. L'Instance GPU L4 est à considérer!


L'Instance GPU L4 génère une image de 256x256px en 14445.1 pixel/seconde

  • C'est 56% plus rapide qu'avec une Instance GPU Render (9278.3 pixel/seconde)
  • C'est 6,3% plus rapide qu'avec une Instance GPU T4 (13583.3 pixel/seconde)
  • 8,5% plus rapide qu'avec une Instance V100 PCIe GPU (16G) (13314.6 pixel/seconde)
  • 8,2 % plus rapide que l'instance V100 SXM2 GPU (16G) (13348,8 pixels/seconde)
  • Et presque aussi rapide qu'avec une Instance A100 SXM 40GB (-1,6%) (14681.1pixel/seconde)

Avec une capacité de mémoire accrue de 50 % par rapport la génération précédente GPU T4, la L4 permet de générer des images plus grandes, jusqu'à 1024x768.


Source : Le modèle a testé InvokeAI, un framework open-source populaire pour la génération et la modification d'images. De plus, [Cloud Mercato a créé invokeai-benchmark](https://projector.cloud-mercato.com/projects/scaleway-nvidia-h100/invokeai/graph), un outil pratique qui rend nos tests et notre méthodologie plus facilement reproductibles.

Estimez votre coût

Choisissez votre forfait

Sélectionner...
Sélectionner...
GB

Min. 10 GB

Si vous choisissez une Instance dotée d’une adresse IPv4, il vous faudra une IP flexible. Décochez cette option si vous en avez déjà une sur votre compte ou si vous n’avez pas besoin d’une IPv4.

Estimated cost

OptionValuePrice
ZoneParis 2
Instance1x0€
Volume10GB0€
IPv4 flexibleOui0.004€
Total
À la journée0
À la semaine0
Au mois0
Testez la nouvelle Instance avec GPU L4

Faites évoluer votre infrastructure sans effort

Choisissez le bon format

Nom de l'InstanceNombre de GPUTFLOPs FP16 Tensor CoresVRAMprix par heureprix à la minute
L4-1-24G1 NVIDIA L4 Tensor Core GPU242 TFLOPS24 GB0,75€/heure0,0125€/min
L4-2-24G2 NVIDIA L4 Tensor Core GPU484 TFLOPS2 x 24 GB1,5€/heure0,025€/min
L4-4-24G4 NVIDIA L4 Tensor Core GPU968 TFLOPS4x 24GB3€/heure0,05€/min
L4-8-24G8 NVIDIA L4 Tensor Core GPU1936 TFLOPS8x 24GB6€/heure0,1€/min

Construire et surveiller une infrastructure cloud flexible et sécurisée

KubernetesDedicatedControlPlane-Schema-1040px-Dar.webp

Bénéficiez d'un écosystème cloud complet

Cockpit

Analysez et surveillez les performances de toutes vos ressources en quelques clics, grâce à notre service d'observabilité managé.

Learn more

Kubernetes Kapsule

Simple d’utilisation, Kubernetes Kapsule est entièrement intégré à notre écosystème cloud.

Learn more

Load Balancer

Répartissez les charges de travail sur plusieurs serveurs à l'aide d'un Load Balancer afin de garantir une disponibilité continue et d'éviter la surcharge des serveurs.

Learn more

Foire aux questions

Qu'est-ce qui est inclus dans le prix de l'Instance ?

Les prix de nos instances GPU incluent le vCPU et la RAM nécessaires pour une performance optimale.
Pour lancer l'Instance GPU L4, vous devrez provisionner un minimum de Block Storage et une IP flexible à vos frais.
En cas de doute sur le prix, utilisez le calculateur, il est fait pour ça !

Quelles sont les différences entre L4-1-24G, L4-2-24G, L4-4-24G et L4-8-24G ?

Il s'agit de 4 formats de la même instance intégrant le GPU NVIDIA L4 Tensor Core.

  • L4-1-24G intègre 1 GPU NVIDIA L4 Tensor Core, offrant une mémoire GPU de 24 Go.
  • L4-2-24G intègre 2 GPU NVIDIA L4 Tensor Core, offrant une mémoire GPU de 2 fois 24 Go.
  • L4-4-24G embarque 4 GPU NVIDIA L4 Tensor Core, offrant une mémoire GPU de 4 fois 24 Go.
  • L4-8-24G intègre 8 GPU NVIDIA L4 Tensor Core, offrant une mémoire GPU de 8 fois 24 Go.
Puis-je utiliser MIG pour tirer le meilleur parti de mon GPU ?

NVIDIA Multi-Instance GPU (MIG) est une technologie introduite par NVIDIA pour améliorer l'utilisation et la flexibilité des GPU en data center, spécialement conçus pour la virtualisation et les environnements multi-tenant. Cette fonctionnalité est disponible sur l'Instance GPU H100 PCIe mais pas sur l'Instance GPU L4. Cependant, les utilisateurs peuvent bénéficier de la compatibilité avec Kubernetes Kapsule pour optimiser leur infrastructure.

En savoir plus

Comment choisir le bon GPU pour ma charge de travail ?

De nombreux critères doivent être pris en compte pour choisir la bonne instance GPU :

  • Exigences de la charge de travail ;
  • Exigences en matière de performances ;
  • Type de GPU ;
  • Mémoire du GPU ;
  • CPU et RAM ;
  • Compatibilité des pilotes de GPU et des logiciels ;
  • Mise à l'échelle.

Pour plus d'informations, consultez la [documentation dédiée à ce sujet] (https://www.scaleway.com/en/docs/compute/gpu/reference-content/choosing-gpu-instance-type/)