Pourquoi choisir le service Red Hat OpenShift Serverless ?

Copier l'URL

Le modèle de cloud computing serverless offre aux développeurs un système de développement d'applications modernes et cloud-native pour les clouds hybrides. Les développeurs peuvent ainsi concentrer leurs efforts sur le code sans avoir à se préoccuper de l'infrastructure. Le service Red Hat OpenShift Serverless évite de dépendre d'un fournisseur unique et est compatible avec une approche multicloud.

Essayer gratuitement Red Hat OpenShift

Red Hat® OpenShift® Serverless est un service basé sur le projet Open Source Knative. Il fournit une plateforme serverless adaptée aux entreprises, qui augmente la portabilité et la cohérence dans les environnements hybrides et multicloud. Les développeurs peuvent ainsi créer des applications cloud-native centrées sur la source à l'aide d'un ensemble de définitions de ressources personnalisées (CRD) et des contrôleurs associés dans Kubernetes.

Knative inclut trois composants principaux :

  • Build : approche flexible du développement de code source en conteneurs.
  • Eventing : infrastructure qui permet la consommation et la production d'événements afin de stimuler les applications.
  • Serving : permet le développement rapide et la mise à l'échelle automatique des conteneurs.

Découvrir en quoi consiste Knative

Ressources Red Hat

Mise en production du code plus rapide

Le service OpenShift Serverless encourage l'adoption des pratiques DevOps en évitant aux développeurs de décrire explicitement l'infrastructure que l'équipe d'exploitation doit leur fournir. Les développeurs sont en mesure de déployer des applications et des charges de travail de conteneurs à l'aide d'API natives pour Kubernetes, indépendamment du langage et de la structure qu'ils utilisent.

Toutes les charges de travail, partout

L'association des opérateurs, de Knative et de Red Hat OpenShift Container Platform permet l'exécution de charges de travail stateful, stateless et serverless sur une plateforme de conteneurs multicloud avec une exploitation automatisée.

Mise à l'échelle des applications en fonction de la demande

Les applications peuvent être déclenchées par différentes sources telles que des événements issus de vos propres applications, des services cloud de nombreux fournisseurs, des systèmes SaaS et des flux Red Hat AMQ.

Premiers pas avec Knative

Apprenez à créer et déployer une application serverless grâce aux ressources du portail Red Hat Developer.

Création et déploiement d'un service serverless dans Knative

Red Hat OpenShift Serverless est disponible sur Red Hat OpenShift Container Platform 4.3 et les versions ultérieures.

Simplifiez le processus de distribution du code du développement à la production en limitant la configuration de l'infrastructure ou le développement back-end.

Découvrez les nouvelles fonctions, les modalités de fonctionnement, les configurations prises en charge et les composants. 

Prêt à créer et déployer des applications serverless ? 

En savoir plus sur Red Hat OpenShift Serverless

Le service OpenShift Serverless permet de développer et déployer des applications serverless en les associant à d'autres services OpenShift Container Platform tels que OpenShift Service Mesh et la surveillance de cluster. Les développeurs peuvent ainsi utiliser une plateforme unique pour héberger leurs applications de microservices, existantes et serverless. Les applications se présentent sous la forme de conteneurs Linux et peuvent être exécutées dans n'importe quel environnement. 


Red Hat vous permet de démarrer plus rapidement puisque le service OpenShift Serverless est livré prêt pour la production. Le service OpenShift Serverless peut également faciliter le travail des équipes d'exploitation puisqu'il s'installe facilement sur Red Hat OpenShift, a été testé avec d'autres produits Red Hat et donne accès à un service d'assistance primé.

Hub

Le blog officiel de Red Hat

Découvrez les dernières informations concernant notre écosystème de clients, partenaires et communautés.

Tous les essais de produits Red Hat

Profitez de nos essais gratuits de produits Red Hat pour renforcer votre expérience pratique, préparer une certification ou évaluer l'adéquation d'un produit avec les besoins de votre entreprise.

En savoir plus

Le vLLM, qu'est-ce que c'est ?

Le vLLM est une bibliothèque de code Open Source qui vise à améliorer l'efficacité des calculs réalisés par les modèles de langage.

Les inférences d'IA, qu'est-ce que c'est ?

L'inférence d'IA est l'opération dans le cadre de laquelle un modèle d'IA fournit une réponse à partir de données. Il s'agit de l'étape finale d'un processus complexe d'apprentissage automatique.

Le contrôle d'accès, qu'est-ce que c'est ?

Le contrôle d'accès est une technique de sécurité basée sur l'autorisation qui détermine les ressources qu'un utilisateur ou système peut voir ou avec lesquelles il peut interagir au sein d'une infrastructure informatique.

Microservices : ressources recommandées

Produit recommandé