DASP
DASP
Computación en la nube
1.1. Antecedentes
ww
El desarrollo de la computación en la nube comenzó a finales de los años cincuenta. Por
aquel entonces las empresas comenzaron a utilizar ordenadores centrales (llamados
mainframes). Que cada usuario tuviera su propio equipo era demasiado costoso, así que se
desarrolló un sistema de proce-ww samiento de tiempo compartido, que permitía a varios
usuarios acceder y utilizar recursos informáticos centralizados. Esta idea representa el
primer uso de recursos informáticos compartidos, que forman la base de la computación en
la nube moderna.
En la década de los setenta, con la aparición de internet, la computación en la nube
comenzó a tomar una forma más tangible con la llegada de las primeras máquinas virtuales,
que permitían a los usuarios ejecutar múltiples sistemas informáticos en una única
configuración física.
La funcionalidad de estas máquinas virtuales dio lugar al concepto de vir-tualización, que
tuvo una gran influencia en el desarrollo de la computación en la nube.
Durante las décadas de los setenta y ochenta, las empresas tecnológicas referentes
(Microsoft, Apple e IBM) desarrollaron tecnologías que mejoraron los entornos de nube y
ampliaron el uso de servidores en la nube y servicios de alojamiento de servidores, pero no
es hasta 1999 cuando la empresa Salesforce se convirtió en la primera en ofrecer
aplicaciones empresariales a través de la web.
En 2006, Amazon lanzó Amazon Web Services (AWS), que ofrece servicios como
computación en la nube y almacenamiento de datos. Este movimiento inicial de Amazon
marcó el comienzo de una nueva era en la in-formática, dando pie a una competencia
intensa en el sector. Microsoft introdujo Azure en 2010, ofreciendo una amplia gama de
servicios en la nube, incluyendo soluciones de computación, análisis, almacenamiento y
redes. Por su parte, Google irrumpe en 2011 con el lanzamiento de Google Cloud Platform,
proporcionando servicios similares a los de AWS y Azure. pero con un enfoque en la
integración de sus propias tecnologías de búsqueda y análisis de datos.
1.2. Definición
En el término computación en la nube (o cloud computing), la analogia de «la nube»
proviene del mundo de los diagramas de red, donde se representa a internet como una
nube. Este concepto abstracto encapsula una idea esencial, que es la que da lugar a la
definición: la disponibilidad de recursos informáticos en cualquier lugar donde haya
conexión a internet.
En esencia, y como ya hemos dicho, la computación en la nube implica el suministro de
servicios informáticos a través de internet, permitiendo el acceso a recursos que van desde
el hardware (servidores, almacena-miento, redes..) hasta el software (bases de datos,
aplicaciones, servicios web...), sin necesidad de poseer o gestionar la infraestructura fisica
sub-yacente. Es como tener un enorme almacén virtual con una variedad de herramientas
listas para usar sin la preocupación de mantener el almacén en sí mismo.
Esto, como veremos más adelante, es una extraordinaria ventaja tanto para los usuarios y
empresas como para el medioambiente, ya que es la tecnolo-gia habilitadora digital que
favorece en mayor medida el modelo de negocio sostenible de ofrecer el producto como
servicio.
2. Modelos de nube
Como ya hemos dicho, la computación en la nube permite disponer de una amplia variedad
de recursos.
Cuando se decide utilizar la nube en un entorno, ya sea personal o profe-sional, es
conveniente conocer que existen diferentes modelos de nube, de los cuales podríamos
decir, de forma muy simplificada, que se diferencian por la cantidad de recursos que se
ponen a nuestra disposición.
• Nube pública
Una nube pública es un conjunto de recursos proporcionados integra-mente por una entidad
externa. Estos recursos, que están derivados de una infraestructura de hardware que
pertenece a quien presta este modelo de nube, se ponen a disposición de los usuarios
(particulares o em-presas) a través de un interfaz de autoservicio automatizada.
Los servicios en la nube pública están disponibles para cualquier usuario con conexión a
internet, lo que permite el acceso desde cualquier ubicación.
Por otro lado, se trata de un modelo que facilita el despliegue rápido de aplicaciones y
servicios, ya que el proveedor suele ofrecer las capacidades preconfiguradas y listas para
usar.
Una de las principales ventajas de este modelo es la escalabilidad bajo demanda; eso es, la
capacidad de escalar (aumentar o reducir)
recursos de manera dinámica según las necesidades del usuario, ya sea la capacidad de
procesamiento, el almacenamiento o cualquier otro servicio.
Se basa en un modelo de pago por uso, en el que los usuarios pagan solo por los recursos
que consumen durante un periodo específico. Esto elimina la necesidad de inversiones
iniciales y permite una mayor flexibilidad financiera. Además, en este sentido, como los
recursos, como servidores y almacenamiento, son compartidos entre múltiples usuarios, se
optimizan costes.
El proveedor de la nube pública se encarga del mantenimiento de la infraestructura y las
actualizaciones de software, liberando a los usuarios de estas responsabilidades.
Los principales proveedores del modelo de nube pública son AWS, Microsoft Azure y
Google Cloud Platform (GCP).
• Nube privada
Una nube privada es utilizada por una única organización y proporciona un mayor control
sobre la infraestructura y los recursos.
ww
Con este modelo, la empresa es responsable de todos los costes asocia-dos: dotación de
personal para su gestión y mantenimiento, adquisición y mantenimiento de la
infraestructura...
No obstante, existen proveedores que ofrecen nubes privadas como ser-ww vicio
gestionado.
Este tipo de servicio permite a las empresas crear y operar una nube privada implementada,
configurada y administrada por personal especializado sin tener que gestionar ellos mismos
la nube privada a diario.
Las nubes privadas permiten una mayor personalización de la infraestructura para satisfacer
requisitos específicos de la organización, lo que facilita la adaptación a políticas internas y
regulaciones.
Los principales proveedores de nube privada son VMware y OpenStack.
• Nube hibrida
Una nube híbrida es una infraestructura que combina recursos y servicios de nubes públicas
y privadas, permitiendo la transferencia de datos y aplicaciones entre ellas, según las
necesidades del usuario.
Este enfoque busca aprovechar lo mejor de ambos mundos; así, por ejemplo, permite que
datos y aplicaciones críticas se mantengan en la nube privada, donde el control del
cumplimiento de regulaciones y políticas específicas es más directo y, a la vez, proporciona
flexibilidad para escalar recursos y distribuir la carga de trabajo entre los entornos de nube
pública y privada.
Los principales proveedores de nube hibrida actualmente son Microsoft Azure y Amazon
Web Services. Hoy en día, más del 80 % de las empresas usan este modelo de nube.
• Modelo multinube
El modelo multinube involucra la integración de dos o más nubes del mismo tipo (pública o
privada) que se ofrecen por distintos proveedores. en lugar de depender exclusivamente de
un proveedor.
La característica diferenciadora, sobre todo del modelo de nube híbrida. es la diversidad de
proveedores. Así, una empresa puede seleccionar los servicios que más le interesen de
cada proveedor e interconectarlos, con lo que aprovecha las fortalezas particulares de cada
proveedor y reduce la dependencia.
3. Servicios en la nube
Los modelos de servicio en la nube, también conocidos como modelos de implementación
en la nube, describen cómo se ofrecen y consumen los servicios en el entorno de la nube.
Estos modelos definen las relaciones entre proveedores y usuarios finales, así como la
gestión de recursos y res-ponsabilidades.
A continuación, se pueden ver los tres modelos principales de servicio en la nube:
Infraestructura como servicio (laaS)
En el modelo de laas, los usuarios tienen acceso remoto a una infraestructura (hardware)
virtualizada a través de internet. Esto incluye recursos como servidores virtuales,
almacenamiento y redes que son gestionados y escalados según las demandas del usuario.
Las principales características de las son:
• Virtualización de recursos: se emplea la virtualización para ofrecer recursos
computacionales, de almacenamiento y redes.
• Escalabilidad dinámica: la capacidad de aumentar o disminuir recursos
según las necesidades empresariales.
• Control total: los usuarios mantienen control total sobre el sistema ope-rativo,
configuraciones y aplicaciones.
• Modelo de pago por uso: la facturación se realiza de acuerdo con la utilización real de los
recursos, evitando costes fijos.
El principal inconveniente de este modelo es la complejidad en la gestión de la
infraestructura, requiriendo habilidades técnicas avanzadas. También hay que tener en
cuenta que su escalabilidad es manual (lo que le resta agilidad) y que el coste es variable,
lo que dificulta la gestión presupues-taria. El modelo laS tiene la gran ventaja de facilitar el
acceso a recursos hardware que, de otra manera, exigiria una inversión que normalmente
no es posible asumir.
Plataforma como servicio (PaaS)
En modelo de PaaS proporciona a los desarrolladores un entorno completo para el
desarrollo, implementación y ejecución de aplicaciones. Se libera a los desarrolladores de
preocupaciones sobre la infraestructura subyacente, que se centran en la creación de
aplicaciones de manera eficiente.
Las principales características de PaaS son:
• Entorno de desarrollo completo: ofrece herramientas y servicios, como lenguajes de
programación y bases de datos, para facilitar el desarrollo de aplicaciones.
• Automatización del despliegue: permite el despliegue sencillo de aplicaciones sin
preocuparse por la gestión de servidores.
• Escalabilidad automática: la plataforma maneja automáticamente la es-calabilidad según
las necesidades de la aplicación.
• Gestión simplificada de recursos: los desarrolladores se centran en la lógica de la
aplicación, delegando la gestión de la infraestructura a la plataforma.
El principal inconveniente de este modelo es la limitación en la personalización de la
infraestructura. Por otro lado, también se puede tener una dependencia significativa del
proveedor de servicios. Sin embargo, como en el modelo laaS, supone un considerable
ahorro en entornos de trabajo donde solo es necesario disponer de la plataforma, no del
hardware.
Como podemos deducir de los ejemplos, las principales ventajas del edge computing son:
• Latencia reducida: al procesar datos localmente, se minimiza el tiempo que tarda la
información en viajar de un punto a otro, esencial para aplicaciones que requieren
respuestas casi instantáneas. Esto se ve claramente en sistemas de realidad virtual
aumentada, donde la latencia mínima es crítica para una experiencia inmersiva.
• Ahorro de ancho de banda: al procesar datos localmente, se reduce la necesidad de
transmitir grandes volúmenes de datos a la nube, optimizando el uso del ancho de banda.
Por ejemplo, en un sistema de vigilancia con cámaras en red, donde el procesamiento local
de imágenes minimiza la carga de la red.
• Menor dependencia de la conectividad: al no necesitar que todas las operaciones se
procesen en la nube, se reduce la dependencia de una conectividad constante con esta
para realizar tareas críticas. Esto es especialmente valioso en entornos donde la
conectividad puede ser intermitente o sujeta a limitaciones. Por ejemplo, en operaciones
agricolas remotas con sensores de suelo y clima, en lugares donde no siempre está
garantizada una buena conectividad a internet.
• Mayor disponibilidad y fiabilidad: al descentralizar el procesamiento, el edge computing
mejora la disponibilidad y fiabilidad de las aplicaciones Los dispositivos en el borde pueden
realizar funciones críticas incluso en ausencia de conectividad con la nube, asegurando un
funcionamiento continuo en condiciones adversas. Por ejemplo, en una línea robotizada de
producción industrial, se garantiza la realización de operaciones de manera ininterrumpida
incluso en momentos de pérdida de conexión con la nube.
• Mayor privacidad y seguridad: al limitar la transmisión de datos sensibles a la nube, se
mejora la privacidad y la seguridad de la información. Por ejemplo, en sistemas de
reconocimiento facial donde el procesamiento local de las imágenes reduce la exposición de
datos biométricos a la red
• Reducción de costes operativos: al procesar datos localmente en el bor-de, se reduce la
necesidad de transferir grandes volúmenes de información a la nube, lo que disminuye los
costes asociados con el ancho de banda y con el consumo en la nube. Por ejemplo, en
sistemas de monito-rización de energía en edificios inteligentes, donde nodos edge pueden
procesar datos para ajustar la iluminación y la climatización, reduciendo así la carga en la
nube.
• Escalabilidad eficiente: al distribuir la carga de trabajo entre dispositivos en el borde y la
nube. A medida que aumenta la demanda, se pueden agregar nodos de procesamiento en
el borde para manejar incrementos locales, evitando una sobrecarga en la nube. Por
ejemplo, en sistemas de gestión de tráfico urbano, donde la demanda varía según la hora
del dia, la escalabilidad permite ajustar dinámicamente la capacidad de procesamiento en
los nodos edge de los semáforos inteligentes para gestionar mejor el flujo vehicular.