PDF Ccna2 v5-281-420
PDF Ccna2 v5-281-420
PDF Ccna2 v5-281-420
Al configurar una ruta estática en redes punto a punto, una alternativa al uso de la dirección IPv6
de siguiente salto es especificar la interfaz de salida. Esto es una alternativa utilizada en IOS más
antiguos o cada vez que se deshabilita CEF, para evitar el problema de búsquedas recursivas.
La tabla de routing IPv6 para el R1 en la figura 2 muestra que cuando un paquete está destinado a
la red 2001:DB8:ACAD:3::/64, el R1 busca una coincidencia en la tabla de routing y encuentra que
puede reenviar el paquete desde su interfaz serial 0/0/0. No se necesita ninguna otra búsqueda.
Observe que la tabla de routing se ve diferente para la ruta configurada con una interfaz de salida
que para la ruta configurada con una entrada recursiva.
La configuración de una ruta estática conectada directamente con una interfaz de salida permite
que la tabla de routing resuelva esta interfaz en una única búsqueda, no en dos. Recuerde que con
el uso del mecanismo de reenvío CEF, las rutas estáticas con una interfaz de salida se consideran
innecesarias. Se realiza una única búsqueda utilizando una combinación de la FIB y la tabla de
adyacencia almacenadas en el plano de datos.
Utilice el verificador de sintaxis en las figuras 3 y 4 para configurar las rutas estáticas IPv6
conectadas directamente.
Una ruta estática completamente especificada tiene determinadas tanto la interfaz de salida como
la dirección IPv6 del siguiente salto. De modo similar a las rutas estáticas completamente
especificadas que se utilizan con IPv4, esto se usaría si CEF no estuviera habilitado en el router y
la interfaz de salida estuviera en una red multiacceso. Con CEF, una ruta estática que solo utiliza
una dirección IPv6 del siguiente salto sería el método preferido incluso cuando la interfaz de salida
sea una red multiacceso.
A diferencia de IPv4, hay una situación en IPv6 que se da cuando se debe utilizar una ruta estática
completamente especificada. Si la ruta estática IPv6 usa una dirección IPv6 link-local como la
dirección del siguiente salto, debe utilizarse una ruta estática completamente especificada que
incluya la interfaz de salida. En la figura 1, se muestra un ejemplo de una ruta estática IPv6
completamente calificada que utiliza una dirección IPv6 link-local como la dirección del siguiente
salto.
La razón por la cual se debe utilizar una ruta estática completamente especificada es que las
direcciones IPv6 link-local no están incluidas en la tabla de routing IPv6. Las direcciones link-local
solo son exclusivas en una red o un enlace dados. La dirección link-local del siguiente salto puede
ser una dirección válida en varias redes conectadas al router. Por lo tanto, es necesario que la
interfaz de salida se incluya.
En la figura 1, se configura una ruta estática completamente especificada con la dirección link-local
del R2 como dirección del siguiente salto. Observe que el IOS requiere que se especifique una
interfaz de salida.
En la figura 2, se muestra la entrada de la tabla de routing IPv6 para esta ruta. Observe que la
dirección link-local del siguiente salto y la interfaz de salida están incluidas.
Utilice el verificador de sintaxis en la figura 3 para configurar las rutas estáticas IPv6
completamente especificadas en el R2, a fin de que alcancen la LAN del R1 mediante una
dirección link-local.
Además de los comandos ping y traceroute, otros comandos útiles para verificar las rutas
estáticas son los siguientes:
En la figura 1, se muestra un ejemplo del resultado que genera el comando show ipv6 route
static. El resultado refleja el uso de rutas estáticas con las direcciones de unidifusión global del
siguiente salto.
En la figura 2, se muestra un ejemplo del resultado que genera el comando show ip route
2001:DB8:ACAD:3::.
Una ruta predeterminada es una ruta estática que coincide con todos los paquetes. En lugar de
almacenar rutas para todas las redes en Internet, los routers pueden almacenar una única ruta
predeterminada que represente cualquier red que no esté en la tabla de routing.
Los routers suelen utilizar rutas predeterminadas configuradas de forma local, o bien, descubiertas
por otro router, mediante un protocolo de routing dinámico. Se utilizan cuando ninguna otra ruta
coincide con la dirección IP de destino del paquete en la tabla de routing. Es decir, si no existe una
coincidencia más específica, entonces se utiliza la ruta predeterminada como el gateway de último
recurso.
Un router con solo un router vecino ascendente. El router no tiene otros vecinos y, por lo
tanto, se denomina “router de rutas internas”.
Como se muestra en la ilustración, la sintaxis del comando para una ruta estática predeterminada
es similar a la sintaxis del comando de cualquier otra ruta estática, excepto que prefijo-
ipv6/longitud-prefijo es::/0, y coincide con todas las rutas.
El R1 puede configurarse con tres rutas estáticas para alcanzar todas las redes remotas en la
topología. Sin embargo, el R1 es un router de rutas internas, ya que está conectado únicamente al
R2. Por lo tanto, sería más eficaz configurar una ruta estática predeterminada IPv6.
El ejemplo en la ilustración muestra una configuración de una ruta estática predeterminada IPv6 en
el R1.
En la figura 1, el resultado del comandoshow ipv6 route static muestra el contenido de la tabla de
routing.
A diferencia de IPv4, IPv6 no establece en forma explícita que la ruta estática predeterminada IPv6
es el gateway de último recurso.
La clave para esta configuración es la máscara ::/0. Recuerde que la longitud-de-prefijo de ipv6 en
una tabla de routing determina cuántos bits deben coincidir entre la dirección IP de destino del
paquete y la ruta en la tabla de routing. La máscara::/0 indica que no se requiere que ninguno de
los bits coincida. Mientras no exista una coincidencia más específica, la ruta estática
predeterminada IPv6 coincide con todos los paquetes.
Lanzadas en 1981, RFC 790 y RFC 791 describen cómo se asignaron inicialmente las direcciones
de red IPv4 según un sistema de clasificación. En la especificación original de IPv4, los autores
establecieron las clases para proporcionar tres tamaños distintos de redes para organizaciones
grandes, medianas y pequeñas. Por consiguiente, se definieron las direcciones de clase A, B y C
con un formato específico para los bits de orden superior. Los bits de orden superior son los bits
del extremo izquierdo en una dirección de 32 bits.
Direcciones de clase B que comienzan con 10: diseñadas para organizaciones medianas a
grandes. Esta clase incluye todas las direcciones de 128.0.0.0 (10000000) a 191.255.255.255
(10111111).
Direcciones de clase C que comienzan con 110: diseñadas para organizaciones pequeñas
a medianas. Esta clase incluye todas las direcciones de 192.0.0.0 (11000000) a
223.255.255.255 (11011111).
Enlaces:
Como se especifica en RFC 790, cada clase de red tiene asociada una máscara de subred
predeterminada.
Como se muestra en la figura 1, las redes de clase A utilizan el primer octeto para identificar la
porción de red de la dirección. Esto se traduce a una máscara de subred con clase 255.0.0.0.
Debido a que solo se dejaron 7 bits en el primer octeto (recuerde que el primer bit es siempre 0), se
elevó el 2 a la 7.a potencia, o se generaron 128 redes. El número real es de 126 redes, porque hay
dos direcciones reservadas de clase A (es decir, 0.0.0.0/8 y 127.0.0.0/8). Con 24 bits en la porción
de host, cada dirección de clase A tenía capacidad para más de 16 millones de direcciones host
individuales.
Como se muestra en la figura 2, las redes de clase B utilizan los dos primeros octetos para
identificar la porción de red de la dirección de red. Con los primeros dos bits ya establecidos en 1 y
0, quedaban 14 bits en los primeros dos octetos para asignar redes, lo que produjo 16 384
direcciones de red de clase B. Debido a que cada dirección de red de clase B contenía 16 bits en
la porción de host, controlaba 65 534 direcciones. (Recuerde que dos direcciones se reservaron
para las direcciones de red y de difusión).
Como se muestra en la figura 3, las redes de clase C utilizan los dos primeros octetos para
identificar la porción de red de la dirección de red. Con los primeros tres bits establecidos en 1 y 1,
y 0, quedaban 21 bits para asignar redes para más de 2 millones de redes de clase C. Pero cada
red de clase C sólo tenía 8 bits en la porción de host o 254 direcciones host posibles.
Una ventaja de asignar máscaras de subred predeterminadas específicas a cada clase es que
reduce los mensajes de actualización de routing. Los protocolos de routing con clase no incluyen la
información de la máscara de subred en las actualizaciones. El router receptor aplica la máscara
predeterminada según el valor del primer octeto que identifica la clase.
El uso de direcciones IP con clase significaba que la máscara de subred podía determinarse por el
valor del primer octeto, o más precisamente, los primeros tres bits de la dirección. Los protocolos
de routing, como RIPv1, solo necesitan propagar la dirección de red de las rutas conocidas y no
necesitan incluir la máscara de subred en la actualización de routing. Esto se debe a que el router
que recibe la actualización de routing determina la máscara de subred con solo examinar el valor
del primer octeto de la dirección de red o al aplicar su máscara de interfaz de entrada para las
rutas divididas en subredes. La máscara de subred estaba directamente relacionada con la
dirección de red.
El direccionamiento con clase especificado en las RFC 790 y 791 generaba un enorme desperdicio
de espacio de direcciones. En los albores de Internet, se asignó a las organizaciones una dirección
de red con clase completa de clase A, B o C.
La clase A tenía el 50% del espacio de direcciones total. Sin embargo, solo podía asignarse
una dirección de red de clase A a 126 organizaciones. Lo ridículo era que cada una de estas
organizaciones podía proporcionar direcciones para un máximo de 16 millones de hosts. A las
organizaciones muy grandes se les asignaban bloques de direcciones enteros de clase A.
Algunas empresas y organizaciones gubernamentales aún tienen direcciones de clase A. Por
ejemplo, General Electric posee 3.0.0.0/8, Apple Computer, 17.0.0.0/8, y el servicio postal de
los Estados Unidos, 56.0.0.0/8.
La clase B tenía el 25% del espacio de direcciones total. Hasta 16 384 organizaciones podían
tener asignada una dirección de red de clase B, y cada una de estas redes podía admitir
hasta 65 534 hosts. Sólo las organizaciones más grandes y los gobiernos podían llegar a usar
alguna vez las 65 000 direcciones. Al igual que las redes de clase A, muchas direcciones IP
en el espacio de direcciones de clase B se perdían.
La clase C tenía el 12,5% del espacio de direcciones total. Muchas más organizaciones
podían obtener las redes de clase C, pero estaban limitadas en el número total de hosts que
podían conectar. De hecho, en muchos casos, las direcciones de clase C eran a menudo
demasiado pequeñas para la mayoría de las organizaciones medianas.
El resultado general fue que el direccionamiento con clase era un esquema de direccionamiento
que generaba mucho desperdicio. Debía desarrollarse una mejor solución para el direccionamiento
de red. Por este motivo, en 1993, se introdujo el routing entre dominios sin clase (CIDR).
6.4.2 CIDR
Del mismo modo en que Internet crecía a un ritmo exponencial a principios de la década de los
noventa, el tamaño de las tablas de routing que los routers de Internet mantenían también crecía
bajo el direccionamiento IP con clase. Por este motivo, la IETF introdujo el CIDR en la RFC 1517
en 1993.
El CIDR reemplazó las asignaciones de red con clase y las clases de direcciones (A, B, C) se
volvieron obsoletas. Con el CIDR, el valor del primer octeto ya no determina la dirección de red. En
cambio, la porción de red de la dirección la determina la máscara de subred, también conocida
como “prefijo de red” o “longitud de prefijo” (es decir, /8, /19, etc.).
Los ISP ya no están limitados a una máscara de subred de /8, /16 o /24. Ahora pueden asignar
espacio de direcciones de manera más eficaz mediante el uso de cualquier longitud de prefijo que
comience con /8 y valores superiores (es decir, /8, /9, /10, etc.). En la ilustración, se muestra de
qué manera los bloques de direcciones IP se pueden asignar a una red en función de los requisitos
del cliente, que pueden variar de unos pocos hosts a cientos o miles de hosts.
El CIDR también reduce el tamaño de las tablas de routing y administra el espacio de direcciones
IPv4 con mayor eficacia mediante:
Nota: una superred siempre es un resumen de rutas, pero un resumen de rutas no siempre es una
superred.
En la ilustración, observe que el ISP1 tiene cuatro clientes y que cada uno tiene una cantidad
variable de espacio de direcciones IP. El espacio de direcciones de los cuatro clientes puede
resumirse en un anuncio para el ISP2. La ruta 192.168.0.0/20 resumida o agregada incluye todas
las redes que pertenecen a los clientes A, B, C y D. Este tipo de ruta se conoce como “ruta de
superred”. Una superred resume varias direcciones de red con una máscara menor que la máscara
con clase.
Paso 2. Cuente el número de bits coincidentes del extremo izquierdo. Esta es la longitud de prefijo
o máscara de subred de la ruta resumida.
Paso 3. Copie los bits coincidentes y luego agregue los bits 0 al resto de la dirección para
determinar la dirección de red resumida.
La dirección de red sumarizada y la máscara de subred ahora pueden usarse como ruta
sumarizada para este grupo de redes.
Las rutas resumidas pueden configurarse por medio de rutas estáticas y protocolos de routing sin
clase.
La creación de tablas de enrutamiento más pequeñas hace que el proceso de búsqueda en la tabla
de enrutamiento sea más eficaz ya que existen menos rutas para buscar. Si se puede utilizar una
ruta estática en lugar de varias, se reduce el tamaño de la tabla de routing. En muchos casos, se
puede usar una sola ruta estática para representar docenas, cientos o incluso miles de rutas.
Las rutas resumidas CIDR se pueden configurar mediante rutas estáticas. Esto contribuye a reducir
el tamaño de las tablas de routing.
En la figura 2, se proporciona una solución con utilizando la sumarización CIDR. Las seis entradas
de ruta estática se podrían reducir a la entrada 172.16.0.0/13. En el ejemplo, se eliminan las seis
entradas de ruta estática y se las reemplaza con una ruta estática resumida.
Los protocolos de routing con clase no pueden enviar rutas de superred. Esto se debe a que el
router receptor aplica de forma automática la máscara de subred con clase predeterminada a la
dirección de red en la actualización de routing. Si la topología en la ilustración tuviera un protocolo
de routing con clase, entonces el R3 solo instalaría 172.16.0.0/16 en la tabla de routing.
La propagación de las rutas VLSM y de superred requiere un protocolo de routing sin clase, como
RIPv2, OSPF o EIGRP. Los protocolos de routing sin clase anuncian las direcciones de red junto
con las máscaras de subred asociadas. Con un protocolo de routing sin clase, el R2 puede resumir
las redes 172.16.0.0/16, 172.17.0.0/16, 172.18.0.0/16 y 172.19.0.0/16, y anunciar una ruta estática
resumida de superred 172.16.0.0/14 al R3. A continuación, el R3 instala la ruta de superred
172.16.0.0/14 en la tabla de routing.
Nota: cuando una ruta de superred se encuentra en una tabla de routing, por ejemplo, como una
ruta estática, un protocolo de routing con clase no incluye esa ruta en las actualizaciones.
6.4.3 VLSM
Con la máscara de subred de longitud fija (FLSM), se asigna la misma cantidad de direcciones a
cada subred. Si todas las subredes tuvieran los mismos requisitos en cuanto a la cantidad de
hosts, estos bloques de direcciones de tamaño fijo serían suficientes. Sin embargo, esto no es lo
que suele suceder.
Si bien la división en subredes tradicional satisface las necesidades de la LAN más grande y divide
el espacio de direcciones en una cantidad adecuada de subredes, da como resultado un
desperdicio significativo de direcciones sin utilizar.
Por ejemplo, solo se necesitan dos direcciones en cada subred para los tres enlaces WAN. Dado
que cada subred tiene 30 direcciones utilizables, hay 28 direcciones sin utilizar en cada una de
estas subredes. Como se muestra en la figura 3, esto da como resultado 84 direcciones sin utilizar
(28 x 3). Además, de esta forma se limita el crecimiento futuro al reducir el número total de
subredes disponibles. Este uso ineficiente de las direcciones es característico de la división en
subredes tradicional de redes con clase.
En la división en subredes tradicional se aplica la misma máscara de subred a todas las subredes.
Esto significa que cada subred tiene la misma cantidad de direcciones de host disponibles.
Con VLSM, la longitud de la máscara de subred varía según la cantidad de bits que se toman
prestados para una subred específica, de lo cual deriva la parte “variable” de la máscara de subred
de longitud variable. Como se muestra en la figura 2, VLSM permite dividir un espacio de red en
partes desiguales.
VLSM permite el uso de diferentes máscaras para cada subred. Después de que una dirección de
red se divide en subredes, esas subredes también se pueden dividir en subredes. VLSM
simplemente subdivide una subred. Se puede considerar a VLSM como una división en sub-
subredes.
La figura muestra la red 10.0.0.0/8 que se ha dividido en subredes usando la máscara de subred
de /16, lo que produce 256 subredes. Es decir 10.0.0.0/16, 10.1.0.0/16, 10.2.0.0/16, …,
10.255.0.0/16. En la ilustración, se muestran cuatro de estas subredes de /16. Cualquiera de las
subredes /16 pueden subdividirse aún más.
Las direcciones host individuales se asignan a partir de las direcciones de "sub-subredes". Por
ejemplo, la figura muestra la subred 10.1.0.0/16 dividida en subredes de /24. La dirección 10.1.4.10
sería ahora miembro de la subred más específica 10.1.4.0/24.
Otra forma de ver las subredes de VLSM es enumerar cada subred y sus sub-subredes.
En la figura 1, la red 10.0.0.0/8 es el espacio de direcciones inicial y está dividida en subredes con
una máscara /16. El préstamo de 8 bits (que van de /8 a /16) crea 256 subredes que van de
10.0.0.0/16 a 10.255.0.0/16.
En la figura 2, la subred 10.1.0.0/16 se vuelve a dividir en subredes al tomar prestados 8 bits más.
Esto crea 256 subredes con una máscara /24. Esta máscara permite que haya 254 direcciones
host por subred. Las subredes comprendidas entre 10.1.0.0/24 y 10.1.255.0/24 son subredes de la
subred 10.1.0.0/16.
En la figura 3, la subred 10.2.0.0/16 se vuelve a dividir en subredes con una máscara /24, lo que
permite que haya 254 direcciones host por subred. Las subredes comprendidas entre 10.2.0.0/24 y
10.2.255.0/24 son subredes de la subred 10.2.0.0/16.
En la figura 4, la subred 10.3.0.0/16 se vuelve a dividir en subredes con una máscara /28. De esta
manera, crea 4096 subredes y permite que haya 14 direcciones host por subred. Las subredes
comprendidas entre 10.3.0.0/28 y 10.3.255.240/28 son subredes de la subred 10.3.0.0/16.
En la figura 5, la subred 10.4.0.0/16 se vuelve a dividir en subredes con una máscara /20. De esta
manera, crea 16 subredes y permite que haya 4094 direcciones host por subred. Las subredes
comprendidas entre 10.4.0.0/20 y 10.4.240.0/20 son subredes de la subred 10.4.0.0/16. Estas
subredes /20 son lo suficientemente grandes como para dividirse aún más veces y permitir que
haya más redes.
Al utilizar la división en subredes tradicional, los primeros siete bloques de direcciones se asignan
a las LAN y WAN, tal como se muestra en la figura 2. Este esquema da como resultado 8 subredes
con 30 direcciones utilizables cada una (/27). Si bien este esquema funciona para los segmentos
LAN, se desperdician muchas direcciones en los segmentos WAN.
Como se muestra en la figura 3, para utilizar el espacio de direcciones de manera más eficaz, se
crean subredes /30 para los enlaces WAN. A fin de mantener juntos los bloques de direcciones sin
utilizar, la última subred /27 se vuelve a dividir en subredes para crear subredes /30. Las primeras
tres subredes se asignaron a los enlaces WAN que crearon las subredes 192.168.20.224/30,
192.168.20.228/30 y 192.168.20.232/30. Si se diseña el esquema de direccionamiento de esta
manera, quedan tres subredes /27 y cinco subredes /30 sin utilizar.
CIDR omite la restricción de límites con clase y permite la sumarización con máscaras más
pequeñas que las de la máscara con clase predeterminada. Este tipo de sumarización ayuda a
reducir la cantidad de entradas en las actualizaciones de enrutamiento y disminuye la cantidad de
entradas en las tablas de enrutamiento locales. Reduce, además, el uso del ancho de banda para
las actualizaciones de enrutamiento y acelera las búsquedas en las tablas de enrutamiento.
En la ilustración, el R1 requiere una ruta estática resumida para alcanzar las redes en el rango de
172.20.0.0/16 a 172.23.0.0/16.
La sumarización de redes en una única dirección y máscara se puede realizar en tres pasos:
Paso 1. Enumere las redes en formato binario. En la figura 1 se indican las redes 172.20.0.0/16 a
172.23.0.0/16 en formato binario.
Paso 2. Cuente el número de bits coincidentes que se encuentran en el extremo izquierdo para
determinar la máscara de la ruta resumida. En la figura 2, se destacan los 14 bits coincidentes que
se encuentran en el extremo izquierdo. Este es el prefijo, o la máscara de subred, para la ruta
resumida: /14 o 255.252.0.0.
Paso 3. Copie los bits coincidentes y luego agregue los bits 0 para determinar la dirección de red
resumida. En la figura 3, se muestra que los bits coincidentes con ceros al final producen la
dirección de red 172.20.0.0. Las cuatro redes (172.20.0.0/16, 172.21.0.0/16, 172.22.0.0/16 y
172.23.0.0/16) pueden sumarizar en una única dirección de red y prefijo 172.20.0.0/14.
En la figura 4, se muestra el R1 configurado con una ruta estática resumida para alcanzar las redes
172.20.0.0/16 a 172.23.0.0/16.
Las múltiples rutas estáticas se pueden resumir en una sola ruta estática si:
Las redes de destino son contiguas y se pueden resumir en una única dirección de red.
Todas las rutas estáticas utilizan la misma interfaz de salida o la dirección IP del siguiente
salto.
Considere el ejemplo de la figura 1. Todos los routers tienen conectividad mediante rutas estáticas.
En la figura 2, se muestran las entradas de la tabla de routing estático para el R3. Observe que
tiene tres rutas estáticas que pueden resumirse, porque comparten los mismos dos primeros
octetos.
Paso 2. Para encontrar la máscara de subred para la sumarización, comience con el bit del
extremo izquierdo y vaya hacia la derecha. Verá que todos los bits coinciden de forma consecutiva
hasta una columna en la cual los bits no coinciden, la cual identifica el límite del resumen.
Paso 4. Para encontrar la dirección de red para el resumen, copie los 22 bits que coinciden y
agregue a todos los bits 0 al final para obtener 32 bits.
Después de identificar la ruta resumida, reemplace las rutas existentes por esta ruta.
En la figura 4, se muestra cómo se eliminan las tres rutas existentes y, luego, cómo se configura la
nueva ruta estática resumida.
En la figura 5, se confirma que la ruta estática resumida está en la tabla de routing del R3.
Aparte del hecho de que las direcciones IPv6 tienen una longitud de 128 bits y están escritas en
hexadecimales, el resumen de direcciones IPv6 es muy similar al resumen de las direcciones IPv4.
Solo requiere de algunos pasos más debido a las direcciones IPv6 abreviadas y a la conversión
hexadecimal.
Varias rutas estáticas IPv6 se pueden resumir en una única ruta estática IPv6 si:
Las redes de destino son contiguas y se pueden resumir en una única dirección de red.
Todas las rutas estáticas utilizan la misma interfaz de salida o la dirección IPv6 del siguiente
salto.
Consulte la red de la figura 1. Actualmente, el R1 tiene cuatro rutas estáticas IPv6 para alcanzar
las redes 2001:DB8:ACAD:1::/64 a 2001:DB8:ACAD:4::/64.
En la figura 2, se muestran las rutas estáticas IPv6 instaladas en la tabla de routing IPv6.
El resumen de redes IPv6 en un único prefijo IPv6 y una única longitud de prefijo se puede realizar
en siete pasos, tal como se muestra en las figuras 1 a 7:
Paso 1. Enumere las direcciones de red (prefijos) e identifique la parte en la cual las direcciones
difieren.
Paso 4. Cuente el número de bits coincidentes que se encuentran en el extremo izquierdo para
determinar la longitud de prefijo para la ruta resumida.
Paso 5. Copie los bits coincidentes y luego agregue los bits 0 para determinar la dirección de red
resumida (prefijo).
Después de identificar la ruta resumida, reemplace las rutas existentes por esta ruta.
En la figura 1, se muestra cómo se eliminan las cuatro rutas existentes y, luego, cómo se configura
la nueva ruta estática resumida IPv6.
En la figura 2, se confirma que la ruta estática resumida está en la tabla de routing del R1.
Las rutas estáticas flotantes son rutas estáticas que tienen una distancia administrativa mayor que
la de otra ruta estática o la de rutas dinámicas. Son muy útiles para proporcionar un respaldo a un
enlace principal, como se muestra en la ilustración.
De manera predeterminada, las rutas estáticas tienen una distancia administrativa de 1, lo que las
hace preferibles a las rutas descubiertas mediante protocolos de routing dinámico. Por ejemplo, las
distancias administrativas de algunos protocolos de routing dinámico comunes son las siguientes:
EIGRP = 90
IGRP = 100
OSPF = 110
IS-IS = 115
RIP = 120
La distancia administrativa de una ruta estática se puede aumentar para hacer que la ruta sea
menos deseable que la ruta de otra ruta estática o una ruta descubierta mediante un protocolo de
routing dinámico. De esta manera, la ruta estática “flota” y no se utiliza cuando está activa la ruta
con la mejor distancia administrativa. Sin embargo, si se pierde la ruta de preferencia, la ruta
estática flotante puede tomar el control, y se puede enviar el tráfico a través de esta ruta
alternativa.
Una ruta estática flotante se puede utilizar para proporcionar una ruta de respaldo a varias
interfaces o redes en un router. También es independiente de la encapsulación, lo que significa
que puede utilizarse para reenviar paquetes desde cualquier interfaz, sin importar el tipo de
encapsulación.
Es importante tener en cuenta que el tiempo de convergencia afecta una ruta estática flotante. Una
ruta que pierde y restablece una conexión de manera continua puede hacer que la interfaz de
respaldo se active innecesariamente.
Para configurar rutas estáticas IPv4, se utiliza el comando ip route de configuración global y se
especifica una distancia administrativa. Si no se configura ninguna distancia administrativa, se
utiliza el valor predeterminado (1).
El R1 se configura con una ruta estática predeterminada que apunte al R2. Debido a que no está
configurada ninguna distancia administrativa, se utiliza el valor predeterminado (1) para esta ruta
estática. El R1 también está configurado con una ruta estática flotante predeterminada que apunta
al R3 con una distancia administrativa de 5. Este valor es mayor que el valor predeterminado 1, y,
por lo tanto, esta ruta flota y no está presente en la tabla de routing, a menos que la ruta preferida
falle.
¿Qué ocurriría si el R2 falla? Para simular esta falla, se desactivan ambas interfaces seriales del
R2, como se muestra en la figura 2.
Observe en la figura 3 que el R1 genera mensajes de forma automática que indican que la interfaz
serial al R2 está inactiva. Al revisar la tabla de routing, se puede verificar que la ruta
predeterminada ahora apunta al R3 que utiliza la ruta estática flotante predeterminada que se
configuró para el siguiente salto 10.10.10.2.
El resultado en la figura 4 confirma que el tráfico ahora fluye directamente entre el R1 y el R3.
Nota: la configuración de rutas estáticas flotantes IPv6 está fuera del ámbito de este capítulo.
Haga clic en el botón Reproducir de la ilustración para ver una animación en la que la PC1 envía
un paquete a la PC3.
2. R1 no tiene una ruta específica hacia la red de destino, 192.168.2.0/24; por lo tanto, R1 utiliza la
ruta estática predeterminada.
3. R1 encapsula el paquete en una nueva trama. Debido a que el enlace a R2 es un enlace punto a
punto, R1 agrega una dirección de "todos 1 (unos)" para la dirección de destino de Capa 2.
4. La trama se reenvía a través de la interfaz serial 0/0/0. El paquete llega a la interfaz serial 0/0/0
en R2.
5. El R2 desencapsula la trama y busca una ruta hacia el destino. El R2 tiene una ruta estática a
192.168.2.0/24 que sale de la interfaz serial 0/0/1.
7. La trama se reenvía a través de la interfaz serial 0/0/1. El paquete llega a la interfaz serial 0/0/1
en el R3.
8. El R3 desencapsula la trama y busca una ruta hacia el destino. El R3 tiene una ruta conectada a
192.168.2.0/24 que sale de la interfaz serial GigabitEthernet 0/0.
9. El R3 busca la entrada en la tabla ARP para 192.168.2.10 para encontrar la dirección de control
de acceso a los medios (MAC) de capa 2 para la PC3. Si no existe una entrada, el R3 envía una
solicitud de protocolo de resolución de direcciones (ARP) a través de la interfaz GigabitEthernet 0/0
y la PC3 responde con una respuesta de ARP, la cual incluye la dirección MAC de la PC3.
10. El R3 encapsula el paquete en una trama nueva con la dirección MAC de la interfaz
GigabitEthernet 0/0 como dirección de capa 2 de origen y la dirección MAC de la PC3 como
dirección MAC de destino.
11. La trama se reenvía a través la interfaz GigabitEthernet 0/0. El paquete llega a la interfaz de la
tarjeta de interfaz de red (NIC) de la PC3.
Las redes están condicionadas a situaciones que pueden provocar un cambio en su estado con
bastante frecuencia:
Entre los comandos comunes para la resolución de problemas de IOS, se encuentran los
siguientes:
ping
traceroute
show ip route
Encontrar una ruta que falta (o que está mal configurada) es un proceso relativamente sencillo, si
se utilizan las herramientas adecuadas de manera metódica.
En este ejemplo, el usuario en la PC1 informa que no puede acceder a los recursos en la LAN del
R3. Esto puede confirmarse haciendo ping en la interfaz LAN del R3 que utiliza la interfaz LAN del
R1 como origen (consulte la figura 1). Los resultados muestran que no hay conectividad entre
estas LAN.
El siguiente paso es investigar la tabla de routing del R2, porque es el router que muestra un
patrón extraño de reenvío. La tabla de routing en la figura 3 muestra que la red 192.168.2.0/24 está
configurada de manera incorrecta. Se configuró una ruta estática a la red 192.168.2.0/24 con la
dirección del siguiente salto 172.16.2.1. Mediante la dirección del siguiente salto configurada, los
paquetes destinados a la red 192.168.2.0/24 se devuelven al R1. La topología deja en claro que la
red 192.168.2.0/24 está conectada al R3, no al R1. Por lo tanto, la ruta estática a la red
192.168.2.0/24 en el R2 debe utilizar el siguiente salto 192.168.1.1, no 172.16.2.1.
En la figura 5, se verifica si el R1 puede alcanzar la interfaz LAN del R3. Como último paso de
confirmación, el usuario de la PC1 también debe probar la conectividad a la LAN 192.168.2.0/24.
6.7 Resumen
En este capítulo, aprendió cómo pueden utilizarse las rutas estáticas IPv4 e IPv6 para alcanzar
redes remotas. Las redes remotas son redes a las que se puede llegar únicamente mediante el
envío del paquete a otro router. Las rutas estáticas son fáciles de configurar. Sin embargo, en
redes de gran tamaño, esta operación manual puede ser complicada. Las rutas estáticas aún se
utilizan, incluso cuando se implementa un protocolo de routing dinámico.
Las rutas estáticas pueden configurarse con una dirección IP del siguiente salto que generalmente
es la dirección IP del router del siguiente salto. Cuando se utiliza una dirección IP del siguiente
salto, el proceso de la tabla de enrutamiento debe resolver esta dirección para una interfaz de
salida. En enlaces seriales punto a punto, suele ser más eficaz configurar la ruta estática con una
interfaz de salida. En redes de accesos múltiples, como Ethernet, se pueden configurar tanto una
dirección IP del siguiente salto como una interfaz de salida en la ruta estática.
Las rutas estáticas tienen una distancia administrativa predeterminada de 1. Esta distancia
administrativa también se aplica a las rutas estáticas configuradas con una dirección del siguiente
salto y una interfaz de salida.
Solo se introduce una ruta estática en la tabla de routing si la dirección IP del siguiente salto se
puede resolver a través de una interfaz de salida. Ya sea que la ruta estática esté configurada con
una dirección IP del siguiente salto o una interfaz de salida, la ruta estática no se incluye en la tabla
de routing si la interfaz de salida que se utiliza para reenviar ese paquete no se encuentra en esa
tabla.
Con el CIDR, pueden configurarse varias rutas estáticas como única ruta resumida. Esto significa
que habrá menos entradas en la tabla de enrutamiento y que el proceso de búsqueda en la tabla
de enrutamiento será más rápido. El CIDR también administra el espacio de direcciones IPv4 con
más eficacia.
La ruta resumida final es una ruta predeterminada, configurada con una dirección de red 0.0.0.0 y
una máscara de subred 0.0.0.0 para IPv4, y el prefijo/longitud de prefijo ::/0 para IPv6. Si no existe
una coincidencia más específica en la tabla de routing, dicha tabla utiliza la ruta predeterminada
para reenviar el paquete a otro router.
Una ruta estática flotante se puede configurar para respaldar un enlace principal al manipular su
valor administrativo.
7 Routing dinámico
7.1 Introducción
Las redes de datos que usamos en nuestras vidas cotidianas para aprender, jugar y trabajar varían
desde pequeñas redes locales hasta grandes internetworks globales. En el hogar, un usuario
puede tener un router y dos o más computadoras. En el trabajo, una organización probablemente
tenga varios routers y switches para atender las necesidades de comunicación de datos de cientos
o hasta miles de computadoras.
Los routers reenvían paquetes mediante el uso de la información de la tabla de routing. Los routers
pueden descubrir las rutas hacia las redes remotas de dos maneras: de forma estática y de forma
dinámica.
En una red grande con muchas redes y subredes, la configuración y el mantenimiento de rutas
estáticas entre dichas redes conllevan una sobrecarga administrativa y operativa. Esta sobrecarga
administrativa es especialmente tediosa cuando se producen cambios en la red, como un enlace
fuera de servicio o la implementación de una nueva subred. Implementar protocolos de routing
dinámico puede aliviar la carga de las tareas de configuración y de mantenimiento, además de
proporcionar escalabilidad a la red.
En este capítulo, se presentan los protocolos de routing dinámico, se exploran los beneficios de
utilizar esta clase de protocolos, la forma en que se clasifican los distintos protocolos de routing y
las métricas que utilizan los protocolos de routing para determinar la mejor ruta para el tráfico de la
red. Entre otros temas que se analizan en este capítulo, se encuentran las características de los
protocolos de routing dinámico y la forma en que se diferencian los distintos protocolos de routing.
Los profesionales de red deben comprender cuáles son los diferentes protocolos de routing
disponibles a fin de decidir fundadamente cuándo utilizar routing dinámico o estático. También
necesitan saber cuál es el protocolo de routing dinámico más adecuado en un entorno de red
determinado.
Los protocolos de routing dinámico se utilizan en el ámbito de las redes desde finales de la década
de los ochenta. Uno de los primeros protocolos de routing fue el protocolo de información de
routing (RIP). Si bien el protocolo RIP versión 1 (RIPv1) se lanzó en 1988, ya en 1969 se utilizaban
algunos de los algoritmos básicos en dicho protocolo en la Advanced Research Projects Agency
Network (ARPANET).
A medida que las redes evolucionaron y se volvieron más complejas, surgieron nuevos protocolos
de routing. El protocolo de routing RIP se actualizó a RIPv2 a fin de admitir el crecimiento del
entorno de red. Sin embargo, la versión más nueva de RIP aún no es escalable a las
implementaciones de red más extensas de la actualidad. Con el objetivo de satisfacer las
necesidades de las redes más grandes, se desarrollaron dos protocolos de routing: el protocolo
OSPF (Open Shortest Path First) e Intermediate System-to-Intermediate System (IS-IS). Cisco
desarrolló el protocolo de routing de gateway interior (IGRP) e IGRP mejorado (EIGRP), que
también tiene buena escalabilidad en implementaciones de redes más grandes.
RIP es el más simple de los protocolos de routing dinámico y, en esta sección, se utiliza para
proporcionar un nivel básico de comprensión sobre los protocolos de routing.
Poder encontrar un mejor camino nuevo si la ruta actual deja de estar disponible
Los componentes principales de los protocolos de routing dinámico incluyen los siguientes:
Estructuras de datos: por lo general, los protocolos de routing utilizan tablas o bases de
datos para sus operaciones. Esta información se guarda en la RAM.
Mensajes del protocolo de routing:los protocolos de routing usan varios tipos de mensajes
para descubrir routers vecinos, intercambiar información de routing y realizar otras tareas
para descubrir la red y conservar información precisa acerca de ella.
Algoritmo: un algoritmo es una lista finita de pasos que se usan para llevar a cabo una tarea.
Los protocolos de enrutamiento usan algoritmos para facilitar información de enrutamiento y
para determinar el mejor camino.
En la ilustración, se destacan las estructuras de datos, los mensajes del protocolo de routing y el
algoritmo de routing que utiliza EIGRP.
Los protocolos de routing permiten a los routers compartir información en forma dinámica sobre
redes remotas y agregar esa información automáticamente a sus propias tablas de routing.
Consulte la animación en la ilustración.
Los protocolos de routing determinan la mejor ruta hacia cada red y, a continuación, esa ruta se
agrega a la tabla de routing. Uno de los beneficios principales de los protocolos de routing
dinámico es que los routers intercambian información de routing cuando se produce un cambio en
la topología. Este intercambio permite a los routers obtener automáticamente información sobre
nuevas redes y también encontrar rutas alternativas cuando se produce una falla de enlace en la
red actual.
Antes de identificar los beneficios de los protocolos de routing dinámico, considere los motivos por
los que los profesionales de red utilizan el routing estático. El routing dinámico definitivamente tiene
varias ventajas sobre el routing estático, sin embargo, el routing estático todavía se utiliza en redes
hoy en día. De hecho, las redes generalmente usan una combinación de enrutamiento estático y
dinámico.
Realiza routing desde y hacia una red de rutas internas, que es una red con una sola ruta
predeterminada hacia fuera y sin conocimiento de redes remotas.
Permite acceder a una única ruta predeterminada (la cual se utiliza para representar una ruta
hacia cualquier red que no tiene una coincidencia más específica con otra ruta en la tabla de
routing).
En la tabla de la ilustración, se destacan las ventajas y las desventajas del routing estático. El
routing estático es fácil de implementar en redes pequeñas. Las rutas estáticas permanecen sin
alteraciones, lo que hace que sea relativamente fácil llevar a cabo la resolución de problemas. Las
rutas estáticas no envían mensajes de actualización y, por lo tanto, ocasionan muy poca
sobrecarga.
Imagine tener que mantener las configuraciones de routing estático para los siete routers en
figura 1.
¿Qué sucedería si la empresa creciera y ahora tuviera cuatro regiones y 28 routers para
administrar, como se muestra en la figura 2? ¿Qué sucede cuando un enlace deja de funcionar?
¿Cómo se asegura de que las rutas redundantes estén disponibles?
El routing dinámico es la mejor opción para redes grandes como la que se muestra.
En la tabla de la ilustración, se destacan las ventajas y las desventajas del routing dinámico. Los
protocolos de routing dinámico funcionan bien en cualquier tipo de red conformada por varios
routers. Son escalables y determinan automáticamente las mejores rutas si se produce un cambio
en la topología. Si bien existen otros aspectos para tener en cuenta respecto de la configuración de
los protocolos de routing dinámico, son más simples de configurar en redes grandes.
El routing dinámico presenta desventajas. Esta clase de routing requiere conocer comandos
adicionales. Además, es menos seguro que el routing estático, porque las interfaces identificadas
por el protocolo de routing envían actualizaciones de routing fuera de la red. Las rutas tomadas
pueden variar entre paquetes. El algoritmo de routing utiliza CPU, RAM y ancho de banda de
enlace adicionales.
Observe la forma en que el routing dinámico aborda las desventajas del routing estático.
Todos los protocolos de routing están diseñados para descubrir redes remotas y adaptarse
rápidamente cuando ocurre un cambio en la topología. El método que usa un protocolo de
enrutamiento para lograr su propósito depende del algoritmo que use y de las características
operativas de ese protocolo.
3. Los routers intercambian información de enrutamiento para obtener información sobre redes
remotas.
Todos los protocolos de routing siguen los mismos patrones de funcionamiento. Para ayudar a
ilustrar esto, considere la siguiente situación en la que los tres routers ejecutan RIPv2.
Haga clic en Reproducir en la ilustración para ver una animación de la detección inicial de las redes
conectadas para cada router.
Observe la forma en que los routers avanzan a través del proceso de arranque y luego detectan las
redes conectadas directamente y las máscaras de subred. Esta información se agrega a sus tablas
de routing de la siguiente manera:
El R2 agrega la red 10.2.0.0 disponible a través de la interfaz Serial 0/0/0, y 10.3.0.0 está
disponible a través de la interfaz Serial 0/0/1.
El R3 agrega la red 10.3.0.0 disponible a través de la interfaz Serial 0/0/1, y 10.4.0.0 está
disponible a través de la interfaz FastEthernet 0/0.
Con esta información inicial, los routers proceden a encontrar orígenes de ruta adicionales para
sus tablas de routing.
Después del arranque inicial y del descubrimiento, la tabla de routing se actualiza con todas las
redes conectadas directamente y las interfaces en las que residen dichas redes.
El router envía un paquete de actualización por todas las interfaces habilitadas en el router. La
actualización contiene la información de la tabla de routing, que en este momento consta de todas
las redes conectadas directamente.
Al mismo tiempo, el router también recibe y procesa actualizaciones similares de otros routers
conectados. Una vez recibida la actualización, el router revisa si contiene información de red
nueva, y se agrega a la tabla de routing toda red que no esté incluida en ella aún.
Para ver la configuración de la topología entre tres routers (R1, R2 y R3), consulte la ilustración.
Sobre la base de esta topología, a continuación se muestra una lista de las distintas
actualizaciones que el R1, el R2 y el R3 envían y reciben durante la convergencia inicial.
R1:
Envía una actualización acerca de la red 10.1.0.0 desde la interfaz serial 0/0/0.
Recibe una actualización del R2 acerca de la red 10.3.0.0 e incrementa el conteo de saltos en
1.
R2:
Envía una actualización acerca de la red 10.3.0.0 desde la interfaz serial 0/0/0.
Envía una actualización acerca de la red 10.2.0.0 desde la interfaz serial 0/0/1.
Recibe una actualización del R1 acerca de la red 10.1.0.0 e incrementa el conteo de saltos en
1.
Recibe una actualización del R3 acerca de la red 10.4.0.0 e incrementa el conteo de saltos en
1.
R3:
Envía una actualización acerca de la red 10.4.0.0 desde la interfaz serial 0/0/1.
Recibe una actualización del R2 acerca de la red 10.2.0.0 e incrementa el conteo de saltos en
1.
Haga clic en Reproducir en la ilustración para ver una animación sobre la forma en que el R1, el R2
y el R3 comienzan el intercambio inicial.
Después de esta primera ronda de intercambios de actualizaciones, cada router tiene información
acerca de las redes conectadas de sus vecinos conectados directamente. Sin embargo, ¿observó
que R1 todavía no tiene información acerca de 10.4.0.0 al igual que R3 acerca de 10.1.0.0? La red
convergente no tiene lugar ni se obtiene información completa hasta que se produce otro
intercambio de información de routing.
En este punto, los routers tienen información sobre sus propias redes conectadas directamente y
las de sus vecinos más cercanos. Siguiendo el camino hacia la convergencia, los routers
intercambian la siguiente ronda de actualizaciones periódicas. Cada router verifica las
actualizaciones nuevamente para comprobar si hay información nueva.
Para ver la configuración de la topología entre tres routers (R1, R2 y R3), consulte la ilustración.
Una vez que se completa el descubrimiento inicial, cada router continúa el proceso de
convergencia mediante el envío y la recepción de las siguientes actualizaciones.
R1:
Envía una actualización acerca de la red 10.1.0.0 por la interfaz Serial 0/0/0.
Envía una actualización acerca de las redes 10.2.0.0 y 10.3.0.0 por la interfaz
FastEthernet0/0.
Recibe una actualización del R2 acerca de la red 10.4.0.0 e incrementa el conteo de saltos en
1.
La misma actualización del R2 contiene información acerca de la red 10.3.0.0 con el valor de
métrica 1. No se produce ningún cambio, por lo que la información de routing permanece
igual.
R2:
Envía una actualización acerca de las redes 10.3.0.0 y 10.4.0.0 por la interfaz Serial 0/0/0.
Envía una actualización acerca de las redes 10.1.0.0 y 10.2.0.0 por la interfaz Serial 0/0/1.
Recibe una actualización de R1 acerca de la red 10.1.0.0. No se produce ningún cambio, por
lo que la información de routing permanece igual.
Recibe una actualización de R3 acerca de la red 10.4.0.0. No se produce ningún cambio, por
lo que la información de routing permanece igual.
R3:
Envía una actualización acerca de la red 10.4.0.0 desde la interfaz serial 0/0/1.
Envía una actualización acerca de las redes 10.2.0.0 y 10.3.0.0 por la interfaz
FastEthernet0/0.
Recibe una actualización del R2 acerca de la red 10.1.0.0 e incrementa el conteo de saltos en
1.
La misma actualización del R2 contiene información acerca de la red 10.2.0.0 con el valor de
métrica 1. No se produce ningún cambio, por lo que la información de routing permanece
igual.
Haga clic en Reproducir en la ilustración para ver una animación sobre la forma en que el R1, el R2
y el R3 envían la tabla de routing más reciente a sus vecinos.
Por lo general, los protocolos de routing vector distancia implementan una técnica para evitar los
bucles de routing conocida como “horizonte dividido”. El horizonte dividido evita que la información
se envíe desde la misma interfaz en la que se recibió dicha información. Por ejemplo, el R2 no
envía una actualización que contenga la red 10.1.0.0 por la interfaz Serial 0/0/0, debido a que
obtuvo información acerca de la red 10.1.0.0 a través de la interfaz Serial 0/0/0.
Una vez que los routers dentro de una red realizan la convergencia, el router puede utilizar la
información que se encuentra en la tabla de rutas para determinar la mejor ruta para llegar a un
destino. Los distintos protocolos de routing tienen diferentes maneras de calcular la mejor ruta.
La convergencia de la red se produce cuando todos los routers tienen información completa y
precisa acerca de toda la red, como se muestra en la figura 1. El tiempo de convergencia es el
tiempo que los routers tardan en compartir información, calcular las mejores rutas y actualizar sus
tablas de enrutamiento. Una red no es completamente operativa hasta que la red haya convergido;
por lo tanto, la mayoría de las redes requieren tiempos de convergencia breves.
Como se muestra en la figura 2, los protocolos de routing pueden clasificarse según la velocidad
de convergencia: cuanto más rápida sea la convergencia, mejor será el protocolo de routing.
Generalmente, los protocolos más antiguos, como RIP, tienen una convergencia lenta, mientras
que los protocolos modernos, como EIGRP y OSPF, la realizan más rápidamente.
IGRP (antiguo): IGP, vector distancia, protocolo con clase desarrollado por Cisco (cayó en
desuso a partir del IOS 12.2)
EIGRP: IGP, vector distancia, protocolo sin clase desarrollado por Cisco
Los protocolos de routing con clase, RIPv1 e IGRP, son protocolos antiguos y se utilizan solamente
en redes antiguas. Estos protocolos de routing se convirtieron en los protocolos de routing sin clase
RIPv2 y EIGRP, respectivamente. Los protocolos de routing de estado de enlace son protocolos
sin clase naturalmente.
Un sistema autónomo (AS) es un conjunto de routers bajo una administración común, como una
empresa o una organización. Los AS también se conocen como “dominios de routing”. Los
ejemplos típicos de AS son la red interna de una empresa y la red de un ISP.
Debido a que Internet se basa en el concepto de AS, se requieren dos tipos de protocolos de
routing:
Protocolo de gateway interior (IGP): se utiliza para el routing dentro de un AS. También se
lo denomina “routing interno de AS”. Las empresas, las organizaciones e incluso los
proveedores de servicios utilizan un IGP en sus redes internas. Los IGP incluyen RIP, EIGRP,
OSPF e IS-IS.
Protocolo de gateway exterior (EGP): se utiliza para el routing entre AS. Los proveedores
de servicios y las empresas grandes pueden interconectarse mediante un EGP. El protocolo
de gateway fronterizo (BGP) es el único EGP viable actualmente y es el protocolo de routing
oficial utilizado por Internet.
Nota: dado que BGP es el único EGP disponible, no se suele utilizar el término EGP. En cambio, la
mayoría de los ingenieros simplemente hacen referencia a BGP.
ISP-1: es un AS que utiliza IS-IS como IGP. Se interconecta con otros sistemas autónomos y
proveedores de servicios que utilizan BGP para controlar explícitamente el modo en que se
enruta el tráfico.
ISP-2: es un AS que utiliza OSPF como IGP. Se interconecta con otros sistemas autónomos
y proveedores de servicios que utilizan BGP para controlar explícitamente el modo en que se
enruta el tráfico.
AS-1: se trata de una organización grande que utiliza EIGRP como IGP. Dado que es un
entorno de host múltiples (es decir, se conecta a dos proveedores de servicios distintos),
utiliza BGP para controlar explícitamente la forma en que el tráfico ingresa al AS y sale de él.
AS-2: se trata de una organización mediana y utiliza OSPF como IGP. También es un
entorno de host múltiples, por lo que utiliza BGP para controlar explícitamente la forma en
que el tráfico ingresa al AS y sale de él.
AS-3: se trata de una organización pequeña con routers más antiguos dentro del AS y utiliza
RIP como IGP. Dado que tiene conexión simple (es decir, conecta a solo un proveedor de
servicios), no se requiere BGP. En cambio, se implementa routing estático entre el AS y el
proveedor de servicios.
Nota: BGP excede el ámbito de este curso, motivo por el cual no se lo describe en detalle.
“Vector distancia” significa que las rutas se anuncian proporcionando dos características:
Distancia: identifica la distancia hasta la red de destino. Se basa en una métrica como el
conteo de saltos, el costo, el ancho de banda y el retraso, entre otros.
Por ejemplo, en la ilustración, el R1 tiene información de que la distancia para llegar a la red
172.16.3.0/24 es de un salto y de que el sentido es a través de la interfaz S0/0/0 hacia el R2.
A diferencia de la operación del protocolo de routing vector distancia, un router configurado con un
protocolo de routing de estado de enlace puede crear una “vista completa” o una topología de la
red al reunir información proveniente de todos los demás routers.
Para continuar con nuestra analogía de letreros, el uso de un protocolo de enrutamiento de link-
state es como tener un mapa completo de la topología de la red. Los letreros a lo largo de la ruta
de origen a destino no son necesarios, debido a que todos los routers de estado de enlace usan un
mapa de la red idéntico. Un router de estado de enlace usa la información de estado de enlace
para crear un mapa de la topología y seleccionar la mejor ruta hacia todas las redes de destino en
la topología.
Los routers con RIP habilitado envían actualizaciones periódicas de su información de routing a
sus vecinos. Los protocolos de enrutamiento de link-state no usan actualizaciones periódicas. Una
vez que se produjo la convergencia de la red, la actualización del estado de enlace solo se envía
cuando se produce un cambio en la topología. Por ejemplo, la actualización del estado de enlace
en la animación no se envía hasta que la red 172.16.3.0 se desactiva.
La mayor diferencia entre los protocolos de routing con clase y sin clase es que los protocolos de
routing con clase no envían información de la máscara de subred en sus actualizaciones de
routing. Los protocolos de routing sin clase incluyen información de la máscara de subred en las
actualizaciones de routing.
Los dos protocolos de routing IPv4 originales que se desarrollaron fueron RIPv1 e IGRP, que se
crearon cuando las direcciones de red se asignaban según las clases (es decir, clase A, B o C). En
ese entonces, no era necesario que un protocolo de routing incluyera la máscara de subred en la
actualización de routing, debido a que era posible determinar la máscara de red sobre la base del
primer octeto de la dirección de red.
Nota: solo RIPv1 e IGRP son protocolos con clase. El resto de los protocolos de routing IPv4 e
IPv6 son protocolos sin clase. El direccionamiento con clase nunca fue parte de IPv6.
Los protocolos de routing con clase también generan problemas en las redes no contiguas. Que
una red sea no contigua significa que las subredes de la misma dirección de red principal con clase
están separadas por una dirección de red con clase diferente.
Consulte la topología que se muestra en la figura 1 para ver una ilustración de las limitaciones del
routing con clase. Observe que las LAN del R1 (172.16.1.0/24) y del R3 (172.16.2.0/24) son
subredes de la misma red de clase B (172.16.0.0/16), que están separadas por distintas
direcciones de red con clase (192.168.1.0/30 y 192.168.2.0/30).
El R2 recibe la actualización y la procesa. A continuación, crea una entrada para la red de clase B
172.16.0.0/16 y la agrega en la tabla de routing, como se muestra en la figura 2.
En la figura 3, se muestra que cuando el R3 reenvía una actualización al R2, tampoco incluye
información de la máscara de subred y, por lo tanto, solamente reenvía la dirección de red con
clase 172.16.0.0.
En la figura 4, el R2 recibe y procesa la actualización y agrega otra entrada para la dirección de red
con clase 172.16.0.0/16 a su tabla de routing. Cuando hay dos entradas con métricas idénticas en
la tabla de routing, el router comparte la carga de tráfico por igual entre los dos enlaces. Esto se
conoce como “balanceo de carga”.
Como se muestra en la figura 5, esto tiene un efecto negativo sobre una red no contigua. Observe
el comportamiento irregular de los comandos ping y traceroute.
Los protocolos de routing IPv6 son protocolos sin clase. Por lo general, la distinción entre los
protocolos de routing con clase y sin clase se aplica únicamente a los protocolos de routing IPv4.
Se considera que todos los protocolos de routing IPv6 son protocolos sin clase, dado que incluyen
la duración de prefijo con la dirección IPv6.
En las figuras 1 a 5, se ilustra la forma en que el routing sin clase resuelve los problemas que se
generan con el routing con clase:
Figura 1: en este diseño de red no contigua, se implementó el protocolo sin clase RIPv2 en
los tres routers. Cuando el R1 reenvía una actualización al R2, RIPv2 incluye la información
de la máscara de subred con la actualización 172.16.1.0/24.
Escalabilidad: define cuán grande puede ser una red, según el protocolo de routing
implementado. Cuanto más grande sea la red, más escalable debe ser el protocolo de
enrutamiento.
Con clase o sin clase (uso de VLSM): los protocolos de routing con clase no incluyen la
máscara de subred y no admiten VLSM. Los protocolos de routing sin clase incluyen la
máscara de subred en las actualizaciones. Los protocolos de routing sin clase admiten VLSM
y una mejor sumarización de ruta.
En algunos casos, un protocolo de enrutamiento obtiene información sobre más de una ruta hacia
el mismo destino. Para seleccionar el mejor camino, el protocolo de enrutamiento debe poder
evaluar y diferenciar entre las rutas disponibles. Esto se logra mediante el uso de métricas de
routing.
Una métrica es un valor mensurable que el protocolo de routing asigna a distintas rutas según la
utilidad que tengan. En situaciones donde hay varias rutas hacia la misma red remota, las métricas
de routing se utilizan para determinar el “costo” total de una ruta de origen a destino. Los
protocolos de routing determinan la mejor ruta sobre la base del costo más bajo.
Los diferentes protocolos de enrutamiento pueden usar diferentes métricas. La métrica utilizada por
un protocolo de enrutamiento no es comparable con la métrica utilizada por otro protocolo de
enrutamiento. Dos protocolos de routing distintos pueden elegir diferentes rutas hacia el mismo
destino.
En la animación de la ilustración, se muestra que el protocolo RIP elegiría la ruta con la menor
cantidad de saltos, mientras que el protocolo OSPF elegiría la ruta con el mayor ancho de banda.
Los protocolos de routing vector distancia comparten actualizaciones entre vecinos. Los vecinos
son routers que comparten un enlace y que están configurados para usar el mismo protocolo de
enrutamiento. El router sólo conoce las direcciones de red de sus propias interfaces y las
direcciones de red remota que puede alcanzar a través de sus vecinos. Los routers que utilizan el
enrutamiento vector distancia no tienen información sobre la topología de la red.
Algunos protocolos de routing vector distancia envían actualizaciones periódicas. Por ejemplo, RIP
envía una actualización periódica a todos sus vecinos cada 30 segundos; incluso si no se produce
un cambio en la topología, RIP continúa enviando actualizaciones. Para llegar a todos sus vecinos,
RIPv1 envía actualizaciones a la dirección IPv4 de todos los hosts 255.255.255.255 mediante una
difusión.
Como se muestra en la ilustración, los dos protocolos de routing vector distancia IPv4 modernos
son RIPv2 y EIGRP. RIPv1 e IGRP se incluyen solamente por motivos de precisión histórica.
El algoritmo utilizado para los protocolos de enrutamiento define los siguientes procesos:
El mecanismo para calcular las mejores rutas e instalar rutas en la tabla de routing.
Los diferentes protocolos de enrutamiento utilizan diversos algoritmos para instalar rutas en la tabla
de enrutamiento, enviar actualizaciones a los vecinos y determinar las rutas. Por ejemplo:
IGRP y EIGRP utilizan el algoritmo de actualización por difusión (DUAL) como algoritmo de
routing, desarrollado por el Dr. J. J. Garcia-Luna-Aceves en SRI International.
En 1993, RIPv1 evolucionó a un protocolo de routing sin clase conocido como “RIP versión 2”
(RIPv2). RIPv2 introdujo las siguientes mejoras:
Protocolo de routing sin clase: admite VLSM y CIDR, debido a que incluye la máscara de
subred en las actualizaciones de routing.
Las actualizaciones RIP se encapsulan en un segmento UDP, con los números de puerto de origen
y de destino establecidos en el puerto UDP 520.
En 1997, se lanzó la versión de RIP con IPv6 habilitado. RIPng se basa en RIPv2. Aún tiene una
limitación de 15 saltos, y la distancia administrativa es 120.
El protocolo de routing de gateway interior (IGRP) fue el primer protocolo de routing IPv4 exclusivo
desarrollado por Cisco en 1984. Tenía las siguientes características de diseño:
Se utilizan el ancho de banda, el retraso, la carga y la confiabilidad para crear una métrica
compuesta.
En 1992, el protocolo IGRP se vio reemplazado por IGRP mejorado (EIGRP). Al igual que RIPv2,
EIGRP también introdujo compatibilidad con VLSM y CIDR. Con EIGRP se aumenta la eficiencia,
se reducen las actualizaciones de routing y se admite el intercambio seguro de mensajes.
Mantenimiento de una tabla de topología: se mantienen todas las rutas recibidas de los
vecinos (no sólo las mejores rutas) en una tabla de topología. DUAL puede insertar rutas de
respaldo en la tabla de topología de EIGRP.
Convergencia rápida: en la mayoría de los casos, se trata del IGP más rápido para realizar
la convergencia debido a que mantiene rutas alternativas, lo que permite una convergencia
casi instantánea. Si una ruta principal falla, el router puede utilizar la ruta alternativa
identificada. El cambio a la ruta alternativa es inmediato y no implica interacción con otros
routers.
Si bien el protocolo RIP se utiliza con muy poca frecuencia en las redes modernas, es útil como
base para comprender el routing de red básico. Por este motivo, en esta sección se proporciona
una breve descripción general de la forma en que se configuran los parámetros básicos de RIP y
de la manera en que se verifica RIPv2.
Para deshabilitar y eliminar RIP, utilice el comando de configuración global no router rip. Este
comando detiene el proceso RIP y elimina todas las configuraciones RIP existentes.
En la figura 4, se muestran los diversos comandos RIP que se pueden configurar. En esta sección,
se abordan las palabras clave resaltadas.
Al ingresar en el modo de configuración de router RIP, el router recibe instrucciones para que
ejecute el RIP. Pero el router aún necesita conocer las interfaces locales que deberá utilizar para
comunicarse con otros routers, así como las redes conectadas en forma local que deberá publicar
a dichos routers.
Para habilitar el routing RIP para una red, utilice el comando del modo de configuración del
router network dirección-red. Introduzca la dirección de red con clase para cada red conectada
directamente. Este comando realiza lo siguiente:
Habilita el RIP en todas las interfaces que pertenecen a una red específica. Hace que las
interfaces asociadas ahora envíen y reciban actualizaciones RIP.
En la figura 1, el comando network se utiliza para anunciar las redes conectadas directamente al
R1.
El comando show ip protocols muestra los parámetros del protocolo de routing IPv4 configurados
actualmente en el router. Este resultado que se muestra en la figura 1 confirma la mayoría de los
parámetros de RIP, incluido lo siguiente:
5. El R1 anuncia las redes con clase. Estas son las redes que el R1 incluye en sus actualizaciones
RIP.
6. Los vecinos RIP se indican mediante la inclusión de la dirección IP del siguiente salto, la AD
asociada que el R2 utiliza para las actualizaciones enviadas por ese vecino y el momento en que
dicho vecino recibió la última actualización.
Nota: este comando también resulta muy útil para verificar las operaciones de otros protocolos de
routing (es decir, EIGRP y OSPF).
El comando show ip route muestra las rutas RIP instaladas en la tabla de routing. En la figura 2, el
R1 ahora tiene información acerca de las redes resaltadas.
Utilice el verificador de sintaxis de la figura 3 para verificar las rutas RIP y la configuración de RIP
del R2 y del R3.
De manera predeterminada, cuando hay un proceso de RIP configurado en un router Cisco, este
ejecuta RIPv1, como se muestra en la figura 1. Sin embargo, a pesar de que el router sólo envía
mensajes de RIPv1, puede interpretar los mensajes de RIPv1 y RIPv2. Los routers RIPv1
simplemente ignoran los campos de RIPv2 en la entrada de ruta.
Utilice el comando del modo de configuración del router version 2 para habilitar RIPv2, como se
muestra en la figura 2. Observe la forma en que el comando show ip protocols verifica que el R2
ahora está configurado para enviar y recibir solamente mensajes de versión 2. El proceso de RIP
ahora incluye la máscara de subred en todas las actualizaciones, lo que hace que RIPv2 sea un
protocolo de routing sin clase.
En la figura 3, se verifica que ya no haya rutas RIP en la tabla de routing. Esto se debe a que el R1
ahora está a la escucha de actualizaciones RIPv2 únicamente. El R2 y el R3 todavía envían
actualizaciones RIPv1. Por lo tanto, se debe configurar el comando version 2 en todos los routers
en el dominio de routing.
Como se muestra en la figura 1, RIPv2 resume automáticamente las redes en los límites de red
principales de manera predeterminada, al igual que RIPv1.
De manera predeterminada, las actualizaciones RIP se reenvían por todas las interfaces con RIP
habilitado. Sin embargo, en realidad las actualizaciones RIP solo deben reenviarse por las
interfaces que se conectan a otros routers con RIP habilitado.
Por ejemplo, consulte la topología en la figura 1. RIP envía actualizaciones por su interfaz G0/0,
aunque no existe ningún dispositivo RIP en esa LAN. No hay manera de que el R1 tenga
información acerca de esto y, como resultado, envía una actualización cada 30 segundos. El envío
de actualizaciones innecesarias a una LAN impacta en la red de tres maneras:
Utilice el comando de configuración del router passive-interface para evitar que las
actualizaciones de routing se transmitan a través de una interfaz del router y permitir que esa red
se siga anunciando a otros routers. El comando detiene las actualizaciones de routing a través de
la interfaz especificada. Sin embargo, la red a la que pertenece la interfaz especificada aún se
anuncia en las actualizaciones de routing enviadas a otras interfaces.
No es necesario que el R1, el R2, y el R3 reenvíen actualizaciones RIP por sus interfaces LAN. En
la configuración de la figura 2, se identifica la interfaz G0/0 del R1 como pasiva. El comando show
ip protocols se utiliza para verificar que la interfaz Gigabit Ethernet es pasiva. Observe que ya no
se indica que la interfaz G0/0 envía o recibe actualizaciones de versión 2, sino que se encuentra en
la sección Passive Interface(s) (Interfaces pasivas). Asimismo, observe que la red 192.168.1.0 aún
se encuentra bajo Routing for Networks (Routing para redes), lo cual significa que esta red aún
está incluida como una entrada de ruta en las actualizaciones RIP que se envían al R2.
Utilice el verificador de sintaxis de la figura 3 para configurar la interfaz LAN como interfaz pasiva
en el R2 y en el R3.
Como alternativa, todas las interfaces se pueden convertir en pasivas con el comando passive-
interface default. Las interfaces que no deben ser pasivas se pueden volver a habilitar con el
comando no passive-interface.
Para propagar una ruta predeterminada, el router perimetral debe estar configurado con lo
siguiente:
Una ruta estática predeterminada mediante el comando ip route 0.0.0.0 0.0.0.0 interfaz-
salida ip-siguiente-salto.
Utilice el verificador de sintaxis de la figura 3 para verificar que la ruta predeterminada se haya
propagado al R2 y al R3.
Al igual que su equivalente para IPv4, RIPng no se suele utilizar en las redes modernas, pero
también resulta útil como base para comprender el routing de red básico. Por este motivo, en esta
sección se proporciona una breve descripción general de cómo configurar RIPng básico.
Para habilitar un router IPv6 para que reenvíe paquetes IPv6, se debe configurar el comando ipv6
unicast-routing.
En la figura 1, se habilita el routing de unidifusión IPv6 y se habilitan las interfaces Gigabit Ethernet
0/0 y Serial 0/0/0 para RIPng mediante el nombre de dominio RIP-AS.
El proceso para propagar una ruta predeterminada en RIPng es idéntico al de RIPv2, excepto que
se debe especificar una ruta estática predeterminada IPv6. Por ejemplo, suponga que el R1 tenía
una conexión a Internet de una interfaz Serial 0/0/1 a la dirección IP 2001:DB8:FEED:1::1/64. Para
propagar una ruta predeterminada, el R3 debería configurarse con lo siguiente:
Una ruta estática predeterminada mediante el comando de configuración global ipv6 route
0::/0 2001:DB8:FEED:1::1.
El comando show ipv6 route muestra las rutas instaladas en la tabla de routing, como se muestra
en la figura 2. El resultado confirma que el R1 ahora tiene información acerca las redes RIPng
resaltadas.
Observe que la LAN del R2 se anuncia como a dos saltos de distancia. Esto se debe a que hay
una diferencia en la forma en que RIPv2 y RIPng calculan los conteos de saltos. Con RIPv2 (y
RIPv1), la métrica hasta la LAN del R2 sería un salto. Esto se debe a que la métrica (el conteo de
saltos) que se muestra en la tabla de routing IPv4 es la cantidad de saltos requeridos para llegar a
la red remota (contando el router del siguiente salto como primer salto). En RIPng, el router emisor
se considera a sí mismo a un salto de distancia, por lo tanto, el R2 anuncia su LAN con un valor de
métrica 1. Cuando el R1 recibe la actualización, agrega otro conteo de saltos de 1 a la métrica. Por
lo tanto, el R1 considera que la LAN del R2 está a dos saltos de distancia. De manera similar,
considera que la LAN del R3 está a tres saltos de distancia.
Si se agrega la palabra clave rip al comando, como se muestra en la figura 3, solo se indican las
redes RIPng.
A los protocolos de enrutamiento de link-state también se les conoce como protocolos shortest
path first y se desarrollan en torno al algoritmo shortest path first (SPF) de Edsger Dijkstra. El
algoritmo SPF se analiza más detalladamente en una sección posterior.
Intermediate-System-to-Intermediate-System (IS-IS)
Los protocolos de enrutamiento de link-state son conocidos por presentar una complejidad
bastante mayor que sus vectores distancia equivalentes. Sin embargo, la funcionalidad básica y la
configuración de los protocolos de routing de estado de enlace son igualmente sencillas.
Al igual que RIP y EIGRP, las operaciones básicas de OSPF se pueden configurar mediante los
siguientes comandos:
Todos los protocolos de routing de estado de enlace aplican el algoritmo de Dijkstra para calcular
la mejor ruta. A este algoritmo se le llama comúnmente “algoritmo SPF” (Shortest Path First). Para
determinar el costo total de una ruta, este algoritmo utiliza costos acumulados a lo largo de cada
ruta, de origen a destino.
En la figura, cada ruta se rotula con un valor arbitrario para el costo. El costo de la ruta más corta
para que el R2 envíe paquetes a la LAN conectada al R3 es 27. Cada router determina su propio
costo hacia cada destino en la topología. En otros términos, cada router calcula el algoritmo SPF y
determina el costo desde su propia perspectiva.
Nota: el objetivo central de esta sección es analizar el costo, el cual está determinado por el árbol
SPF. Por este motivo, en los gráficos de esta sección se muestran las conexiones del árbol SPF y
no la topología. Todos los enlaces se representan mediante una línea negra continua.
En la tabla de la figura 1, se muestra la ruta más corta y el costo acumulado para llegar a las redes
de destino identificadas desde la perspectiva del R1.
La ruta más corta no es necesariamente la ruta con la menor cantidad de saltos. Por ejemplo,
observe la ruta hacia la LAN R5. Podría suponerse que el R1 realizaría el envío directamente al R4
en lugar de al R3. Sin embargo, el costo para llegar a R4 directamente (22) es más alto que el
costo para llegar a R4 a través de R3 (17).
Observe la ruta más corta para que cada router llegue a cada una de las LAN, como se muestra en
las figuras 2 a 5.
Por lo tanto, ¿de qué manera exactamente funciona un protocolo de enrutamiento de link-state?
Con los protocolos de enrutamiento de link-state, un enlace es una interfaz en un router. La
información acerca del estado de dichos enlaces se conoce como estados de enlace.
1. Cada router obtiene información acerca de sus propios enlaces y sus propias redes conectadas
directamente. Esto se realiza al detectar que una interfaz se encuentra en el estado activado.
2. Cada router es responsable de reunirse con sus vecinos en redes conectadas directamente. Los
routers de estado de enlace lo hacen mediante el intercambio paquetes de saludo con otros routers
de estado de enlace en redes conectadas directamente.
3. Cada router crea un Paquete de link-state (LSP) que incluye el estado de cada enlace
directamente conectado. Esto se realiza registrando toda la información pertinente acerca de cada
vecino, que incluye el ID de vecino, el tipo de enlace y el ancho de banda.
4. Cada router satura a todos los vecinos con el LSP. Estos vecinos almacenan todos los LSP
recibidos en una base de datos. A continuación, saturan a sus vecinos con los LSP hasta que
todos los routers del área hayan recibido los LSP. Cada router almacena una copia de cada LSP
recibido por parte de sus vecinos en una base de datos local.
5. Cada router utiliza la base de datos para construir un mapa completo de la topología y calcula el
mejor camino hacia cada red de destino. En forma similar a tener un mapa de carretera, el router
tiene ahora un mapa completo de todos los destinos de la topología y las rutas para alcanzarlos. El
algoritmo SPF se utiliza para construir el mapa de la topología y determinar el mejor camino hacia
cada red.
Nota: este proceso es el mismo para OSPF para IPv4 e IPv6. En los ejemplos de esta sección, se
hará referencia a OSPF para IPv4.
El primer paso en el proceso de routing de estado de enlace es que cada router descubra sus
propios enlaces y sus propias redes conectadas directamente. Cuando se configura una interfaz de
router con una dirección IP y una máscara de subred, la interfaz se vuelve parte de esa red.
Consulte la topología en la figura 1. A los fines de este análisis, suponga que el R1 se configuró
previamente y que tenía plena conectividad a todos los vecinos. Sin embargo, se cortó la
alimentación del R1 brevemente y tuvo que reiniciarse.
Como ocurre con los protocolos vector distancia y las rutas estáticas, la interfaz debe configurarse
de manera adecuada con una dirección IPv4 y una máscara de subred, y el enlace debe
encontrarse en estado activo antes de que el protocolo de routing de estado de enlace pueda
obtener información sobre un enlace. Asimismo, como ocurre con los protocolos vector distancia, la
interfaz debe incluirse en una de las instrucciones network de configuración del router para que
pueda participar en el proceso de routing de estado de enlace.
Nota: la implementación de OSPF de Cisco especifica la métrica de routing OSPF como el costo
del enlace sobre la base del ancho de banda de la interfaz de salida. A los fines de este capítulo,
utilizamos valores de costo arbitrarios para simplificar la demostración.
El segundo paso en el proceso de routing de estado de enlace es que cada router asume la
responsabilidad de encontrarse con sus vecinos en redes conectadas directamente.
Los routers con protocolos de enrutamiento de link-state utilizan un protocolo de saludo para
descubrir cualquier vecino en sus enlaces. Un vecino es cualquier otro router habilitado con el
mismo protocolo de enrutamiento de link-state.
Haga clic en Reproducir en la ilustración para ver una animación sobre el proceso de
descubrimiento de vecinos de estado de enlace con paquetes de saludo.
En la animación, el R1 envía paquetes de saludo por sus enlaces (interfaces) para detectar la
presencia de vecinos. R2, R3 y R4 responden al paquete de saludo con sus propios paquetes de
saludo debido a que dichos routers están configurados con el mismo protocolo de enrutamiento de
link-state. No hay vecinos fuera de la interfaz FastEthernet 0/0. Debido a que el R1 no recibe un
saludo en esta interfaz, no continúa con los pasos del proceso de routing de estado de enlace para
el enlace FastEthernet 0/0.
Cuando dos routers de estado de enlace descubren que son vecinos, forman una adyacencia.
Dichos pequeños paquetes de saludo continúan intercambiándose entre dos vecinos adyacentes y
cumplen la función de keepalive para monitorear el estado del vecino. Si un router deja de recibir
paquetes de saludo por parte de un vecino, dicho vecino se considera inalcanzable y se rompe la
adyacencia.
El tercer paso en el proceso de routing de estado de enlace es que cada router cree un paquete de
estado de enlace (LSP) que contiene el estado de cada enlace conectado directamente.
Una vez que un router establece sus adyacencias, puede armar LSP que contienen la información
de estado de enlace de sus enlaces. Una versión simplificada de LSP del R1, que se muestra en la
ilustración, contendría lo siguiente:
El cuarto paso en el proceso de routing de estado de enlace es que cada router satura con LSP a
todos los vecinos, quienes luego almacenan todos los LSP recibidos en una base de datos.
Cada router inunda con su información de link-state a todos los demás routers de link-state en el
área de enrutamiento. Siempre que un router recibe un LSP de un router vecino, envía de
inmediato dicho LSP a todas las demás interfaces, excepto la interfaz que recibió el LSP. Este
proceso crea un efecto de saturación de los LSP desde todos los routers a través del área de
enrutamiento.
Haga clic en Reproducir en la ilustración para ver una animación de la saturación con LSP.
En la animación, observe cómo se lleva a cabo la saturación con LSP de forma casi inmediata
después de ser recibidos sin ningún cálculo intermedio. Los protocolos de routing de estado de
enlace calculan el algoritmo SPF una vez que finaliza la saturación. Como resultado, los protocolos
de routing de estado de enlace logran la convergencia muy rápidamente.
Recuerde que los LSP no necesitan enviarse periódicamente. Un LSP sólo necesita enviarse:
Durante el arranque inicial del proceso del protocolo de routing (por ejemplo, en el reinicio del
router)
Cuando hay un cambio en la topología (por ejemplo, un enlace que se desactiva o activa, o
una adyacencia de vecinos que se establece o se rompe)
proceso permite que un router conserve sólo la información más actual en su base de datos de
link-state.
El paso final en el proceso de routing de estado de enlace es que cada router utiliza la base de
datos para construir un mapa completo de la topología y calcula la mejor ruta para cada red de
destino.
Finalmente, todos los routers reciben un LSP de todos los demás routers de estado de enlace en el
área de routing. Dichos LSP se almacenan en la base de datos de link-state.
Como resultado del proceso de saturación, el R1 obtuvo la información de estado de enlace para
cada router de su área de routing. Observe que R1 también incluye su propia información de link-
state en la base de datos de link-state.
Con una base de datos de estado de enlace completa, el R1 ahora puede utilizar la base de datos
y el algoritmo SPF (Shortest Path First) para calcular la ruta preferida o la ruta más corta a cada
red, lo que da como resultado el árbol SPF.
Cada router en el área de routing utiliza la base de datos de estado de enlace y el algoritmo SPF
para armar el árbol SPF.
Por ejemplo, utilizando la información de estado de enlace de todos los demás routers, el R1 ahora
puede comenzar a armar un árbol SPF de la red. Para comenzar, el algoritmo SPF interpreta el
LSP de cada router para identificar las redes y los costos asociados.
En las figuras 2 a 5, el R1 continúa agregando toda red desconocida y sus costos asociados al
árbol SPF. Observe que el R1 ignora cualquier red que ya haya identificado.
A continuación, el algoritmo SPF calcula las rutas más cortas para llegar a cada red individual, lo
que da como resultado el árbol SPF como se muestra en la figura 6. El R1 ahora tiene una vista de
topología completa del área de estado de enlace.
Cada router construye su propio árbol SPF independientemente de los otros routers. Para
garantizar el enrutamiento adecuado, las bases de datos de link-state utilizadas para construir
dichos árboles deben ser idénticas en todos los routers.
Al utilizar la información de la ruta más corta determinada por el algoritmo SPF, dichas rutas ahora
pueden agregarse a la tabla de enrutamiento. En la ilustración, se muestran las rutas que se
agregaron a la tabla de routing IPv4 del R1.
La tabla de routing también incluye todas las redes conectadas directamente y las rutas
provenientes de cualquier otro origen, tales como las rutas estáticas. Los paquetes ahora se
reenvían según dichas entradas en la tabla de routing.
Como se muestra en la ilustración, los protocolos de routing de estado de enlace presentan varias
ventajas en comparación con los protocolos de routing vector distancia.
Convergencia rápida: cuando reciben un LSP, los protocolos de routing de estado de enlace
saturan de inmediato todas las interfaces con el LSP, excepto la interfaz desde la que se lo
recibió. En cambio, el protocolo RIP necesita procesar cada actualización de routing y
actualizar su tabla de routing antes de saturar otras interfaces.
Los protocolos de estado de enlace también tienen algunas desventajas en comparación con los
protocolos de routing vector distancia:
Los protocolos de enrutamiento de link-state modernos están diseñados para minimizar los efectos
en la memoria, el CPU y el ancho de banda. La utilización y configuración de áreas múltiples puede
reducir el tamaño de las bases de datos de link-state. Las áreas múltiples también pueden limitar el
grado de saturación de información de link-state en un dominio de enrutamiento y enviar los LSP
sólo a aquellos routers que los necesitan. Cuando hay un cambio en la topología, solo los routers
del área afectada reciben el LSP y ejecutan el algoritmo SPF. Esto puede ayudar a aislar un enlace
inestable en un área específica en el dominio de enrutamiento.
Por ejemplo, en la ilustración hay tres dominios de routing independientes: área 1, área 0 y
área 51. Si una red en el área 51 deja de funcionar, solo los routers en esa área se saturan con el
LSP que contiene la información sobre dicho enlace fuera de servicio. Únicamente los routers del
área 51 necesitan actualizar sus bases de datos de estado de enlace, volver a ejecutar el algoritmo
SPF, crear un nuevo árbol SPF y actualizar sus tablas de routing. Los routers de otras áreas
descubren que esta ruta no funciona, pero esto se realiza con un tipo de LSP que no los obliga a
volver a ejecutar su algoritmo SPF. Los routers de otras áreas pueden actualizar sus tablas de
enrutamiento directamente.
El protocolo OSPF (Open Shortest Path First) es la implementación más popular. Fue diseñado por
el grupo de trabajo de OSPF del Grupo de trabajo de ingeniería de Internet (IETF). El desarrollo de
OSPF comenzó en 1987 y actualmente hay dos versiones en uso:
Nota: con la característica de familias de direcciones de OSPFv3, esta versión del protocolo es
compatible con IPv4 e IPv6.
El protocolo IS-IS fue diseñado por la Organización Internacional para la Estandarización (ISO) y
se describe en ISO 10589. La primera versión de este protocolo de routing se desarrolló en la
Digital Equipment Corporation (DEC) y se conoce como “DECnet fase V”. Radia Perlman fue la
principal diseñadora del protocolo de routing IS-IS.
IS-IS se diseñó originalmente para el suite de protocolos de OSI y no para el suites de protocolo de
TCP/IP. Más adelante, IS-IS integrado, o IS-IS doble, incluyó la compatibilidad con redes IP. Si
bien se conoció a IS-IS como el protocolo de enrutamiento más utilizado por proveedores e ISP, se
están comenzando a utilizar más redes IS-IS corporativas.
OSPF e IS-IS presentan varias similitudes y diferencias. Existen diversas posturas a favor de
OSPF y a favor de IS-IS que analizan y debaten las ventajas de un protocolo de enrutamiento
frente al otro. Ambos protocolos de routing proporcionan la funcionalidad de routing necesaria.
El R1 es el router perimetral que se conecta a Internet. Por lo tanto, propaga una ruta estática
predeterminada al R2 y al R3.
El R1, el R2 y el R3 contienen redes no contiguas separadas por otra red con clase.
En la figura 2, se muestra la tabla de routing IPv4 del R1 con las rutas dinámicas, estáticas y
conectadas directamente.
Nota: en los inicios, la jerarquía de la tabla de routing en el IOS de Cisco se implementó con el
esquema de routing con clase. Si bien la tabla de enrutamiento incorpora el direccionamiento con
clase y sin clase, la estructura general aún se construye en base a este esquema con clase.
Como se destaca en la figura 1, la tabla de routing del R1 contiene tres redes conectadas
directamente. Observe que cuando se configura una interfaz del router activa con una dirección IP
y una máscara de subred, automáticamente se crean dos entradas en la tabla de routing.
En la figura 2, se muestra una de las entradas de la tabla de routing en el R1 para la red conectada
directamente 172.16.1.0. Estas entradas se agregaron de forma automática a la tabla de
enrutamiento cuando se configuró y se activó la interfaz GigabitEthernet 0/0. Las entradas
contienen la siguiente información:
Origen de la ruta: identifica el modo en que se descubrió la ruta. Las interfaces conectadas
directamente tienen dos códigos de origen de ruta. Cidentifica una red conectada
directamente. Las redes conectadas directamente se crean de forma automática cada vez
que se configura una interfaz con una dirección IP y se activa. L identifica que la ruta es local.
Las rutas locales se crean de forma automática cada vez que se configura una interfaz con
una dirección IP y se activa.
Red de destino: la dirección de la red remota y la forma en que se conecta esa red.
Interfaz de salida: identifica la interfaz de salida que se utiliza para reenviar paquetes a la
red de destino.
Nota: antes del IOS versión 15, las entradas de la tabla de routing local no aparecían en las tablas
de routing.
En general, los routers tienen varias interfaces configuradas. En la tabla de routing se almacena
información acerca de las rutas conectadas directamente y de las rutas remotas. Tal como ocurre
con las redes conectadas directamente, el origen de la ruta identifica cómo se descubrió la ruta.
Por ejemplo, los códigos frecuentes para las redes remotas incluyen los siguientes:
S: indica que un administrador creó la ruta manualmente para llegar a una red específica.
Esto se conoce como “ruta estática”.
D: indica que la ruta se descubrió de forma dinámica de otro router mediante el protocolo de
routing EIGRP.
O: indica que la ruta se descubrió de forma dinámica de otro router mediante el protocolo de
routing OSPF.
R: indica que la ruta se descubrió de forma dinámica de otro router mediante el protocolo de
routing RIP.
En la ilustración, se muestra una entrada de la tabla de routing IPv4 en el R1 para la ruta hacia la
red remota 172.16.4.0 en el R3. La entrada indica la siguiente información:
Métrica: identifica el valor asignado para llegar a la red remota. Los valores más bajos
indican las rutas preferidas.
Siguiente salto: identifica la dirección IPv4 del router siguiente al que se debe reenviar el
paquete.
Marca de hora de la ruta: identifica cuándo fue la última comunicación con la ruta.
Interfaz de salida: identifica la interfaz de salida que se debe utilizar para reenviar un
paquete hacia el destino final.
Una tabla de routing armada dinámicamente proporciona mucha información, como se muestra en
la ilustración. Por lo tanto, es de vital importancia comprender el resultado generado por la tabla de
routing. Al analizar el contenido de una tabla de routing, se utilizan términos especiales.
Ruta final
Ruta de Nivel 1
Una ruta final es una entrada de la tabla de routing que contiene una dirección IPv4 del siguiente
salto o una interfaz de salida. Las rutas conectadas directamente, las rutas descubiertas
dinámicamente y las rutas locales son rutas finales.
En la ilustración, las áreas resaltadas son ejemplos de rutas finales. Observe que todas estas rutas
especifican una dirección IPv4 del siguiente salto o una interfaz de salida.
Una ruta de nivel 1 con una máscara de subred igual o inferior a la máscara con clase de la
dirección de red. Por lo tanto, una ruta de nivel 1 puede ser cualquiera de las siguientes:
Ruta de red: una ruta de red que tiene una máscara de subred igual a la de la máscara con
clase.
Ruta de superred: una dirección de red con una máscara menor que la máscara con clase,
por ejemplo, una dirección de resumen.
El origen de la ruta de nivel 1 puede ser una red conectada directamente, una ruta estática o un
protocolo de enrutamiento dinámico.
En la figura 1, se destaca la forma en que las rutas de nivel 1 también son rutas finales.
Como se ilustra en la figura 1, una ruta principal de nivel 1 es una ruta de red de nivel 1 que está
dividida en subredes. Una ruta principal nunca puede ser una ruta final.
En la figura 2, se destacan las rutas principales de nivel 1 en la tabla de routing del R1. En la tabla
de routing, básicamente se proporciona un encabezado para las subredes específicas que
contiene. Cada entrada muestra la dirección de red con clase, la cantidad de subredes y la
cantidad de máscaras de subred diferentes en las que se subdividió la dirección con clase.
Una ruta secundaria de nivel 2 es una ruta que constituye una subred de una dirección de red con
clase. Como se ilustra en la figura 1, una ruta principal de nivel 1 es una ruta de red de nivel 1 que
está dividida en subredes. Las rutas principales de nivel 1 contienen rutas secundarias de nivel 2,
como se muestra en la figura 2.
Al igual que en las rutas de nivel 1, el origen de una ruta de nivel 2 puede ser una red conectada
directamente, una ruta estática o una ruta descubierta en forma dinámica. Las rutas secundarias
de nivel 2 también son rutas finales.
Nota: la jerarquía de la tabla de routing en el IOS de Cisco tiene un esquema de routing con clase.
Una ruta principal de nivel 1 es la dirección de red con clase de la ruta de subred. Esto es así
incluso si un protocolo de enrutamiento sin clase es el origen de la ruta de subred.