Principios de Conmutacion y Enrutamiento

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 25

PRINCIPIOS DE CONMUTACION Y ENRUTAMIENTO

Un switch o conmutador es un dispositivo de interconexión de redes, que segmenta la red en


pequeños dominios de colisión, diseñados para resolver problemas de rendimiento, debido a
ancho de banda pequeños. Obteniendo un mayor ancho de banda para cada estación final
acelerando la salida de paquetes y reduciendo el tiempo de espera. Opera en la capa de
enlace de datos del modelo OSI (capa 2).
Un switch se describe a veces como un puente multipuerto, esto se debe a que un puente
típico puede tener sólo dos puertos que enlacen dos segmentos de red y un switch puede
tener varios puertos, según la cantidad de segmentos de red que sea necesario conectar. Los
switches almacenan determinada información sobre los paquetes de datos que son recibidos
de los distintos computadores de la red, para construir tablas de envío y poder determinar el
destino de los datos que se están mandando de un computador a otro de la red, por lo tanto,
dicha tabla contiene las direcciones físicas (MAC) de los dispositivos conectados a sus
puertos
Los switches Ethernet están llegando a ser soluciones para conectividad de uso difundido
debido a que mejoran el rendimiento de la red, la velocidad y el ancho de banda, aliviando la
congestión en las LAN Ethernet, reduciendo el tráfico y aumentando el ancho de banda.
Características de los switches
Funciona en el nivel de enlace de datos del modelo OSI.
➢ Realiza algunas funciones del físico:
• expande la red al interconectar segmentos de red.
• Permite la conexión de diferentes medios
2) Los puertos de un switch pueden ser:
• Dedicados: solo manejan una dirección MAC (una computadora por puerto)
• Compartidos: manejan varias direcciones MAC (varias computadoras
conectadas por medio de un hub)
3) Los puertos dedicados normalmente son utilizados por servidores y estaciones que
requieren un gran ancho de banda
4) Cada puerto es considerado un dominio de colisión.
5) Todos los puertos son un solo dominio Broadcast.

6) Los switches tienen baja latencia y un gran rendimiento.


• Latencia: tiempo que toma un paquete atravesar el switch
• Rendimiento: el número máximo de paquetes transferidos entre dos puertos sin
perdida.
Características Especiales de los Switches
➢ FULL DUPLEX
• Normalmente todas las transacciones en la red son del tipo Half Duplex
• Full dúplex se habilita solo en puertos dedicados
• El ancho de banda del puerto se duplica.
➢ LINK AGREGATION
• Acumulación de enlaces o trunking
• Permite agrupar varias líneas físicas entre switches o un switch y un servidos, para ser
utilizadas simultáneamente multiplicando el ancho de banda
• Se puede balancear la carga a través de enlaces paralelos
➢ LAN VIRTUALES (VLAN)
• Una LAN virtual es una red (dividida por un switch) que esta lógicamente segmentada
por funciones, grupos de trabajo o aplicaciones, sin tener en cuenta la localización
física de los usuarios.
• No hay comunicación entre las VLAN es como si estuviesen en switches diferentes.
• Por defecto existe un VLAN, la que contiene todos los puertos del switch
• Mejora la seguridad, aislando a las computadoras como servidores en una VLAN de
acceso restringido

➢ Las VLAN se pueden crear indicando:


• Los puertos que conforman la VLAN
• Las direcciones MAC que conforman una VLAN
• Las direcciones de red (IP o IPX) que conforman la VLAN

Tipos de switches
Los switches se pueden clasificar de distintas maneras, debido a que existen una gran
variedad de ellos, los criterios que se utilizan para clasificarlos son los siguientes:
Por el tipo de administración:
a.) Administrables: son aquellos switches que poseen funcionalidad de administración.
b.) No administrables: se les llama asi a los switches que no permiten funcionalidad de
administración.
Por capacidad:
a.) Switches apilables: permiten agrupar varias unidades sobre un bus de expansión, el bus
debe proporcionar suficiente ancho de banda para manejar comunicaciones full-duplex. Se
recomienda comprarlos del mismo fabricante para evitar problemas de administración global e
intercomunicación entre los switches. Por lo general son switches administrables.
b.) Switches no apilables: son los switches que no soportan bus de expansión.
Por modularidad
a.) Switches modulares: tienen la capacidad de soportar la agregación de puertos, como
nuevos módulos, por lo general son switches multicapa por trabajar en capa 2, 3, u otros
superiores del Modelo OSI. Generalmente utilizados como switches de troncal. Por lo general
son switches administrables.
b.) Switches no modulares: no poseen ninguna capacidad de agregación de módulos.
Por la capacidad de trafico
Son clasificados según las velocidades con las que trabajan, estas velocidades son 10, 100 y
1000 Mbps. Los switches que trabajan a mayores velocidades son utilizados generalmente
como switch de troncal, y pueden ser modulares y administrables.
Por conmutación
Como se dijo anteriormente los switches operan en la capa 2, esto significa que conmutan las
tramas entre sus puertos utilizando las tablas de MAC construidas. Existen distintas formas en
que conmutan los switches:
a.) Cut-through: Este tipo de switch permite al paquete o trama ser enviado a su trayectoria
de envío antes que todo el paquete o trama entera haya llegado al conmutador de LAN.
cuanto el paquete llega, se determina su dirección MAC de destino y el paquete
inmediatamente se encamina. El problema de este tipo de switch es que no detecta tramas
corruptas causadas por colisiones conocidos como runts, ni errores de CRC. Cuanto mayor
sea el número de colisiones en la red, mayor será el ancho de banda que consume al
encaminar tramas corruptas.
Existe un segundo tipo de switch cut-through, fragment free. En este caso, el switch siempre
lee los primeros 64 bytes de cada paquete, asegurando que el paquete tenga por lo menos el
tamaño mínimo de la trama de ethernet, y evitando el encaminamiento de runts por la red.
b.) Store-and-Forward: Los switches Store-and-Forward guardan cada trama en un buffer
antes del intercambio de información hacia el puerto de salida. Mientras la trama está en el
buffer, el switch calcula el CRC y mide el tamaño de esta. Si el CRC falla, o el tamaño no
corresponde al tamaño de una cuadra de Ethernet (entre 64 bytes y 1518 bytes) la trama es
descartada. Si se cumplen las condiciones la información es encaminada hacia el puerto de
salida.
Este método asegura operaciones sin error y aumenta la confianza de la red. Pero el tiempo
utilizado para guardar y chequear cada trama añade un tiempo de demora importante al
procesamiento de estas. El delay total es proporcional al tamaño de las tramas: cuanto mayor
es la trama, mayor será la demora.
Por la capa en la que operan
Los switches pueden ser clasificados de capa 2, capa 3 o capa 4, esto depende de la
segmentación de las sub-redes.
a.) Switch de capa 2: Son los switches tradicionales, que funcionan como bridges multi-
puertos. Su función principal es dividir una LAN en múltiples dominios de colisión, o en los
casos de las redes en anillo, segmentar la LAN en diversos anillos.

Los switches de capa 2 posibilitan, por lo tanto, múltiples transmisiones simultáneas, la


transmisión de una sub-red no interfiriendo en las otras sub-redes. Los switches de capa 2 no
consiguen, sin embargo, filtrar broadcasts, multicasts (en el caso en que más de una sub-red
contenga las estaciones pertenecientes al grupo multicast de destino), ni cuadros cuyo destino
aún no haya sido incluido en la tabla de direccionamiento.
b.) Switch de capa 3: Son los switches que, además de las funciones tradicionales de la
capa 2, incorporan algunas funciones de routeo, como por ejemplo la determinación del
camino de repaso basado en informaciones de capa de red (capa 3), validación de la
integridad del cableado de la capa 3 por checksum, y soporte a los protocolos de ruteo
tradicionales (RIP, OSPF, etc) Los switches de capa 3 soportan también la definición de
redes virtuales (VLAN's), y posibilitan la comunicación entre las diversas VLAN's, sin la
necesidad de utilizar un router externo.
Por permitir la unión de segmentos de diferentes DOMINIOS DE BROADCAST, los switches
de capa 3 son particularmente recomendados para la segmentación de LAN's muy grandes,
donde la simple utilización de switches de capa 2 provocaría una pérdida de performance y
eficiencia de la LAN, debido a la cantidad excesiva de broadcasts.

Se puede afirmar que la implementación típica de un switch de capa 3 es más escalable que
un router, pues éste último utiliza las técnicas de ruteo a nivel 3 y repaso a nivel 2 como
complementos, mientras que los switches sobreponen la función de ruteo encima del
switching, aplicando el ruteo donde sea necesario.
c.) Switch de capa 4: Básicamente, incorpora a las funcionalidades de un switch de capa 3
la habilidad de implementar la aplicación de políticas y filtros a partir de informaciones de capa
4 o superiores, como puertas TCP y UDP, o SNMP, FTP, etc.
Están en el mercado hace poco tiempo, y hay una controversia en relación con la adecuada
clasificación de estos equipos. Muchas veces son llamados de Layer 3+ (Layer 3 Plus).
Bandwidth, Backplane y Troughput en un Switch
En un switch es importante definir varios aspectos, entre estos: Bandwidth de transmisión, que
no es más que la velocidad de operación por puerto del switch, medida en múltiplos de bits
por segundo (puede ser half duplex o full duplex). Total, Bandwidth, se refiere a la suma total
de los anchos de banda máximo de cada puerto en un switch (se mide en múltiplos de bits por
segundo).
El backplane es la tarjeta lógica donde están conectados físicamente los puertos del switch y
cuya salida está conectada a un bus de alta velocidad encargado de transmitir la información,
aunque de manera más indirecta se puede ver al backplane como la velocidad de la tarjeta
interna y los buses. De esta manera definimos entonces la capacidad del backplane como el
ancho de banda que tiene un switch para soportar la comunicación entre sus puertos y se
calcula de la siguiente manera:
Troughput se define como la cantidad de paquetes que pueden ser enviados en un puerto del
switch en un momento determinado, en las comunicaciones es grandes redes este valor por lo
general es de un 50% del ancho de banda de transmisión teórico de cada puerto, esto debido
a varios factores entre ellos: la cantidad de usuarios, además de que por defecto también se
trata de diseñar de esta forma para evitar colisiones en el sistema.
Entonces debe existir una relación entre el ancho de banda total de un switch (determinado
con los troughput de cada puerto) y el backplane de dicho switch. En teoría el backplane
debería ser mayor para ofrecerle asi respaldo y evitar la congestión de las comunicaciones.
Aspectos de direccionamiento de switch
En una LAN los métodos de transmisión de datos de la capa 2 se clasifican de la siguiente
forma: unicast, multicast y broadcast.
Unicast
El método de transmisión unicast es uno a uno, con este método el envío de datos se realiza
desde un único emisor a un único receptor, como por ejemplo de un servidor a un grupo de
trabajo de una LAN. En un entorno unicast aunque varios usuarios puedan solicitar la misma
información al servidor al mismo tiempo, el servidor responderá a las peticiones de los
usuarios envía por separado el tráfico de los datos a cada equipo que ha solicitado los datos,
provocando la inundación de la red por la cantidad de tráfico.

Multicast
Es un método de transmisión de uno-a-muchos, el envío de los datos se realiza a múltiples
destinos simultáneamente, destinos que forman parte de un grupo específico. Cuando se
envía grandes cantidades de datos el método multicast ahorra considerablemente el ancho de
banda en la red, debido a que la mayor parte de los datos se envían solo una vez.

La información se envía desde su origen pasando por la parte central de la red y se multiplica
o distribuye hasta llegar a los usuarios finales.
Ilustración 1Método de Transmisión Multicast.

Broadcast
Es un método de transmisión de uno-a-todos, en donde se envían los datos a todos los
dispositivos al mismo tiempo. Con este método, el tráfico de datos se envía a todos los nodos
de la red cuando el broadcast no se filtra o bloquea con un router, ya que un router corta un
dominio broadcast.

Ilustración 2Método de Transmisión Broadcast.


Protocolo Spanning Tree
La redundancia en una red es importante porque permite a las redes ser tolerantes a los
fallos. Las topologías redundantes protegen a la red de tiempo de inactividad debido a fallas
en un único enlace. Las topologías redundantes basadas en switches y bridges son
susceptibles a tormentas de broadcasts, transmisiones múltiples de frames e inestabilidad de
la base de datos de direcciones MAC. Por lo tanto, la redundancia en la red requiere una
cuidadosa planificación y monitoreo para funcionar apropiadamente.
Una red que se basa en switches o bridges introducirá enlaces redundantes entre dichos
switches o bridges para superar el fallo de un único enlace. Estas conexiones introducen
bucles físicos en la red. Estos bucles de bridging se crean para que, si un enlace falla, otro
pueda asumir la función de enviar tráfico. El Protocolo Spanning-Tree (STP) se utiliza en
redes conmutadas para crear una topología lógica libre de bucles a partir de una topología
física con bucles. Los enlaces, puertos y switches que no son parte de la topología libre de
bucles activa, no participan en el envío de frames de datos. Este Protocolo es una potente
herramienta que proporciona a los administradores de red la seguridad de una topología
redundante sin el riesgo de los problemas ocasionados por los bucles de
conmutación. Permitiendo a los dispositivos de interconexión activar o desactivar
automáticamente los enlaces de conexión, de forma que se garantice que la topología está
libre de bucles.
Si la configuración de STP cambia, o si un segmento en la red redundante llega a ser
inalcanzable, el algoritmo reconfigura los enlaces y restablece la conectividad, activando uno
de los enlaces de reserva. Si el protocolo falla, es posible que ambas conexiones estén
activas simultáneamente, lo que podrían dar lugar a un bucle de tráfico infinito. El Spanning
tree permanece vigente hasta que ocurre un cambio en la topología, situación que el protocolo
es capaz de detectar de forma automática. Cuando ocurre uno de estos cambios, el puente
raíz actual redefine la topología del spanning tree o se elige un nuevo puente raíz.
El Protocolo Spanning-Tree establece un nodo raíz, denominado bridge raíz. Construye una
topología que tiene una única ruta para llegar a cada nodo de la red. El árbol resultante se
origina en el bridge raíz y los enlaces redundantes que no son parte del árbol de la ruta más
corta están bloqueados, y por esto que es posible una topología libre de ciclo. Los dispositivos
de red intercambian mensajes para detectar bucles de bridging, bloqueando los enlaces que
causen bucles. El mensaje que envía un switch, permitiendo la formación de una topología
lógica libre de bucles, se denomina Unidad de Datos del Protocolo de Bridge (BPDU). Las
BPDUs continúan siendo recibidas en los puertos bloqueados. Esto asegura que, si una ruta o
dispositivo activos fallan, puede calcularse un nuevo spanning-tree. Las BPDUs contienen la
suficiente información como para que todos los switches puedan hacer lo siguiente:

• Seleccionar un único switch que actuará como raíz del spanning-tree


• Calcular la ruta más corta desde sí mismo al switch raíz
• Designar a uno de los switches como el más cercano a la raíz, para cada segmento
LAN. Este se denomina switch designado y su función es manipular toda la
comunicación desde esa LAN hacia el bridge raíz.
• Elegir para cada switch no raíz un puerto raíz, para proporcionar una mejor ruta hacia
el switch raíz.
• Seleccionar puertos que son parte del spanning-tree (puertos designados) y bloquear
los puertos no designados.
El protocolo spanning tree administra la topología de la red cambiando el estado de los
puertos según lo siguiente:
• Bloqueo: En este estado sólo se pueden recibir BPDU's. Las tramas de datos se
descartan y no se actualizan las tablas de direcciones MAC (mac-address-table).
• Escucha: A este estado se llega desde Bloqueo. En este estado, los switches
determinan si existe alguna otra ruta hacia el puente raíz. En el caso que la nueva ruta
tenga un coste mayor, se vuelve al estado de Bloqueo. Las tramas de datos se
descartan y no se actualizan las tablas ARP. Se procesan las BPDU.
• Aprendizaje: A este estado se llega desde Escucha. Las tramas de datos se
descartan, pero ya se actualizan las tablas de direcciones MAC (aquí es donde se
aprenden por primera vez). Se procesan las BPDU.
• Envío: A este estado se llega desde Aprendizaje. Las tramas de datos se envían y se
actualizan las tablas de direcciones MAC (mac-address-table). Se procesan las BPDU.
• Desactivado: A este estado se llega desde cualquier otro. Se produce cuando un
administrador deshabilita el puerto o éste falla. No se procesan las BPDU.
Técnicas de conmutación

Las redes de comunicación pueden ser de dos tipos:


• Conmutación pura
• Almacenamiento y conmutación
Conmutación pura: en este tipo de redes los nodos de conmutación están encargados de
establecer la trayectoria de conmutación de una computadora destino, terminándola cuando
ya no se necesita. Mientras una línea estuviera asignada a una comunicación, ninguna otra
trayectoria de comunicación podría utilizarla, como sucede con las líneas telefónicas.

Almacenamiento y conmutación: estas redes son conocidas como store and forward, los
nodos de estas redes almacenan temporalmente los mensajes recibidos para trasmitirlos
cuando la línea de comunicación ente disponible. La forma en que se realiza la comunicación
de la computadora fuente a la computadora destino a través de la red de comunicación
depende de la técnica de conmutación que se utilice. Los nodos intermedios, o MIP, juegan un
papel primordial en este aspecto.
Las técnicas de conmutación más utilizadas son:
• Conmutación de circuitos
• Conmutación de mensajes
• Conmutación de paquetes
Conmutación de circuitos
En esta técnica de conmutación consiste en establecer una ruta de comunicación a través de
los nodos intermedios de la red dedicada completamente a la comunicación de fuente a
destino. El ancho de banda de las líneas de comunicación que intervienen en la trayectoria se
asigna a la comunicación, aunque este ancho de banda no se utilice completamente.
En este tipo de conmutación, los nodos actúan simplemente como elementos de conmutación
sin realizar ningún almacenamiento temporal interno. La velocidad de transmisión en el
circuito será igual a la velocidad de la línea más lenta que forma parte del circuito. Para cada
conexión entre dos estaciones, los nodos intermedios dedican un canal lógico a
dicha conexión. Para establecer el contacto y el paso de la información de estación a estación
a través de los nodos intermedios, se requieren estos pasos:
1. Establecimiento del circuito: el emisor solicita a un cierto nodo el establecimiento de
conexión hacia una estación receptora. Este nodo es el encargado de dedicar uno de sus
canales lógicos a la estación emisora. Este nodo es el encargado de encontrar los nodos
intermedios para llegar a la estación receptora.
2. Transferencia de datos: una vez establecido el circuito exclusivo para esta transmisión, la
estación se transmite desde el emisor hasta el receptor conmutando sin demoras de nodo en
nodo, ya que estos nodos tienen reservado un canal lógico para ella.
3. Desconexión del circuito: una vez terminada la transferencia, el emisor o el receptor indican
a su nodo más inmediato que ha finalizado la conexión, y este nodo informa al siguiente de
este hecho, así hasta informar a todos los nodos, liberando el canal dedicado.
Debido a que cada nodo conmutador debe saber organizar el tráfico y las conmutaciones,
éstos deben tener la suficiente "inteligencia" como para realizar su labor eficientemente. La
conmutación de circuitos suele ser bastante ineficiente ya que los canales están reservados,
aunque no circulen datos a través de ellos.
Conmutación de mensajes
Cuando una computadora anfitriona quiere enviar un mensaje a otra, está la agrega al
mensaje la dirección de destino y lo pasa a la subred para que viaje de nodo a nodo hasta
llegar a su destino. En cada nodo intermedio el mensaje es almacenado temporalmente y
luego, con base en la información de enrutamiento, la disponibilidad y el costo que tiene el
nodo, este determina el siguiente nodo de la ruta y le envía el mensaje. Este proceso continua
hasta que el mensaje llega a su destino.
Este esquema presenta ciertas ventajas sobre la técnica de conmutación de circuitos.
Primero, la eficiencia de los canales de conmutación es mayor, ya que los canales entre los
nodos no se dedican exclusivamente a la comunicación entre anfitriones, sino que son
compartidos por muchos mensajes. Además, no requiere que el transmisor y el receptor estén
disponibles al mismo tiempo. Cuando el tráfico aumenta en redes con conmutación de
circuitos algunas peticiones son bloqueadas, pero en redes con conmutación de mensajes,
solo aumenta el tiempo para que llegue el mensaje a su destino. Con la conmutación de
mensajes, un mensaje puede ser enviado a muchos destinos, en conmutación de circuitos
sería necesario establecer varios circuitos en forma secuencial.

Cuando se utiliza la conmutación de mensajes, se puede establecer la prioridad de los


mensajes. Con la conmutación de mensajes, el control y la recuperación de errores pueden
ser efectuados en la subred de comunicación. Incluso se pueden hacer cambios de velocidad
de transmisión y de códigos cuando se utiliza la conmutación de mensajes. La conmutación
de mensajes no es útil para procesos de tiempo real o procesos interactivos, ya que el tiempo
para que llegue el mensaje a su destino puede ser grande.

Conmutación de paquetes
Debido al auge de las transmisiones de datos, la conmutación de circuitos es un sistema muy
ineficiente ya que mantiene las líneas mucho tiempo ocupadas aun cuando no hay
información circulando por ellas. Además, la conmutación de circuitos requiere que los dos
sistemas conectados trabajen a la misma velocidad, cosa que no suele ocurrir hoy en día
debido a la gran variedad de sistemas que se comunican. En conmutación de paquetes, los
datos se transmiten en paquetes cortos. Para transmitir grupos de datos más grandes, el
emisor trocea estos grupos en paquetes más pequeños y les adiciona una serie de bits de
control. En cada nodo, el paquete se recibe, se almacena durante un cierto tiempo y se
transmite hacia el emisor o hacia un nodo intermedio. Las ventajas de la conmutación de
paquetes frente a la de circuitos son:

1. La eficiencia de la línea es mayor: ya que cada enlace se comparte entre varios paquetes
que estarán en cola para ser enviados en cuanto sea posible. En conmutación de circuitos, la
línea se utiliza exclusivamente para una conexión, aunque no haya datos a enviar.
2. Se permiten conexiones entre estaciones de velocidades diferentes: esto es posible ya que
los paquetes se irán guardando en cada nodo conforme lleguen en una cola y se irán
enviando a su destino.
3. No se bloquean llamadas: ya que todas las conexiones se aceptan, aunque si hay muchas,
se producen retardos en la transmisión.
4. Se pueden usar prioridades: un nodo puede seleccionar de su cola de paquetes en espera
de ser transmitidos, aquellos más prioritarios según ciertos criterios de prioridad. Cuando un
emisor necesita enviar un grupo de datos mayor que el tamaño fijado para un paquete, éste
los trocea en paquetes y los envía uno a uno al receptor. Hay dos técnicas básicas para el
envío de estos paquetes:

1. Técnica de datagramas: cada paquete se trata de forma independiente, es decir, el emisor


enumera cada paquete, le añade información de control por ejemplo número de paquete,
nombre, dirección de destino y lo envía hacia su destino. Puede ocurrir que, por haber tomado
caminos diferentes, un paquete con número por ejemplo 6 llegue a su destino antes que el
número 5. También puede ocurrir que se pierda el paquete número 4. Todo esto no lo sabe ni
puede controlar el emisor, por lo que tiene que ser el receptor el encargado de ordenar los
paquetes y saber los que se han perdido.
2. Técnica de circuitos virtuales: antes de enviar los paquetes de datos, el emisor envía un
paquete de control que es de Petición de Llamada, este paquete se encarga de establecer un
camino lógico de nodo en nodo por dónde irán uno a uno todos los paquetes de datos. De
esta forma se establece un camino virtual para todo el grupo de paquetes. Este camino virtual
será numerado o nombrado inicialmente en el emisor y ser á el paquete inicial de Petición de
Llamada el encargado de ir informando a cada uno de los nodos por los que pase de que más
adelante irán llegando los paquetes de datos con ese nombre o número. De esta forma, el
encaminamiento sólo se hace una vez. El sistema es similar a la conmutación de circuitos,
pero se permite a cada nodo mantener multitud de circuitos virtuales a la vez.
Las ventajas de los circuitos virtuales frente a los datagramas son:
* El encaminamiento en cada nodo sólo se hace una vez para todo el grupo de paquetes. Por
lo que los paquetes llegan antes a su destino.
* Todos los paquetes llegan en el mismo orden del de partida ya que siguen el mismo
camino.
* En cada nodo se realiza detección de errores, por lo que, si un paquete llega erróneo a un
nodo, éste lo solicita otra vez al nodo anterior antes de seguir transmitiendo los siguientes.

Desventajas de los circuitos virtuales frente a los datagramas:


* En datagramas no hay que establecer llamada (para pocos paquetes, es más rápida la
técnica de datagramas).
* Los datagramas son más flexibles, es decir que, si hay congestión en la red una vez que ya
ha partido algún paquete, los siguientes pueden tomar caminos diferentes (en circuitos
virtuales, esto no es posible).
* El envío mediante datagramas es más seguro ya que si un nodo falla, sólo un paquete se
perderá (en circuitos virtuales se perderán todos).

Redes Lan Virtuales - vlans


Estos dispositivos, parecidos a los switches habilitados como routers, derivan su unicidad de
las funciones de valor agregado basadas en el software. En este caso, ésta es la habilidad de
crear un ambiente de red LAN virtual dentro de una arquitectura conmutada. Esto explica el
nombre de
Switch de LAN virtual o VLAN Switch.
Las características de una VLAN son las siguientes:
❖ Las VLAN deben ser rápidas y permitir la combinación de todos los tipos de redes LAN,
tales como ETHERNET y Token Ring
❖ Las VLAN deben cruzar a través de los backbones, tales como ATM, FDDI, Fast
ETHERNET, y Gigabit ETHERNET.
❖ Cuando un dispositivo se mueva, éste automáticamente permanecerá en la misma
VLAN. Conforme se empiece a desarrollar mayor cantidad de switches en la red,
específicamente switches LAN privados, hallaremos un escenario paradójico.
Los switches intentan maximizar la cantidad de ancho de banda disponible para
determinado usuario a través del aislamiento del tráfico; ellos sólo pasan paquete a un
destino particular, si estos paquetes son de hecho dirigidos para ese destino. Las
difusiones aleatorias de paquetes son filtradas (por ejemplo, si Juan envía un mensaje
a Pedro, entonces José nunca lo verá, mientras que en la difusión tradicional de las
redes LAN, el mensaje de Juan será divulgado a todos los usuarios). Si todos los
paquetes fueran difundidos a todos los usuarios conectados al switch, entonces el
principal propósito del switch no se logrará.
Sin embargo, muchos de los protocolos de redes LAN que se usan hoy fueron diseñados para
operar en difusión amplia. Por ejemplo, el servicio de avisaje del paquete IPX de Novell se
difunde a través de toda la red para informar a los usuarios de uno de los recursos de la red.
¿Cómo se resuelve este dilema? ¿Cómo podemos controlar la difusión de los paquetes a la
vez que aseguramos el soporte al legado de protocolos basados en broadcasting? La
respuesta es la red LAN virtual (VLAN). La VLAN, en su forma más simple, es la creación de
un dominio virtual de difusión (un segmento de LAN compartido) dentro de un ambiente
conmutado. Esto nos permite crear grupos de difusión (pensemos en ellos como grupos de
trabajo o grupos de interés común) mientras se preserva la integridad de la conmutación
punto a punto entre las localidades de fuente–destino. Por el lado de las redes de área amplia
(WAN), las redes VLAN son similares en su función a los circuitos virtuales permanentes
(Permanent Virtual Circuit – PVC) de una red Frame Relay.
Un aspecto interesante de la VLAN es su habilidad de romper la barrera física/lógica. En una
LAN tradicional, un solo dominio de difusión amplia o Broadcast es considerado en una sola
red. Todos los usuarios que deseen pertenecer a este dominio de difusión amplia deben estar
localizados físicamente sobre ese segmento de LAN. Sin embargo, si podemos crear una
VLAN entre diferentes puertas físicas y, lo que es más importante, entre los
diferentes switches físicos, podremos asignar usuarios a la VLAN sin importar su ubicación en
la red. Se crea la posibilidad de que los usuarios puedan cambiar sus ubicaciones en
cualquier parte dentro de la red VLAN y a la vez mantener el acceso a las mismas redes
VLAN que ya tenían en sus locaciones iniciales. De hecho, este tipo de portabilidad VLAN la
ofrecían algunos fabricantes hace algunos años, pero su despliegue amplio ha sido muy
limitado por los problemas propios de la inmadurez de la tecnología.
Principios de Enrutamiento
Router
Es un dispositivo de hardware para interconexión de red de ordenadores que opera en la capa
tres (nivel de red). Un router es un dispositivo para la interconexión de redes informáticas que
permite asegurar el enrutamiento de paquetes entre redes o determinar la ruta que debe
tomar el paquete de datos.
Un ruteador es un dispositivo de propósito general diseñado para segmentar la red, con la
idea de limitar tráfico de brodcast y proporcionar seguridad, control y redundancia entre
dominios individuales de brodcast, también puede dar servicio de firewall y un acceso
económico a una WAN. Al funcionar en una capa mayor que la del switch, el ruteador
distingue entre los diferentes protocolos de red, tales como IP, IPX, AppleTalk o DECnet. Esto
le permite hacer una decisión más inteligente que al switch, al momento de reenviar los
paquetes.
El ruteador realiza dos funciones básicas:
1. El ruteador es responsable de crear y mantener tablas de ruteo para cada capa de
protocolo de red, estas tablas son creadas ya sea estáticamente o dinámicamente. De esta
manera el ruteador extrae de la capa de red la dirección destino y realiza una decisión de
envío basado sobre el contenido de la especificación del protocolo en la tabla de ruteo.
2. La inteligencia de un ruteador permite seleccionar la mejor ruta, basándose sobre diversos
factores, más que por la dirección MAC destino. Estos factores pueden incluir la cuenta de
saltos, velocidad de la línea, costo de transmisión, retraso y condiciones de tráfico. La
desventaja es que el proceso adicional de procesado de frames por un ruteador puede
incrementar el tiempo de espera o reducir el desempeño del ruteador cuando se compara con
una simple arquitectura de switch.
Enrutamiento
El enrutamiento se entiende como las acciones que toma un router para enviar paquetes
desde un origen hasta un destino final, pasando a través de diferentes tipos de redes, los
enrutadores operan con la dirección IP de los paquetes, por lo tanto, operan en capa 3 del
modelo OSI.
El ruteador por lo tanto debe tomar decisiones que le permitan enviar los paquetes a través
del tráfico en red de manera eficiente, realizan entonces una evaluación de la ruta óptima para
que el tráfico llegue a su destino. Esto es lo que se conoce como protocolos de enrutamiento,
los cuales son utilizados para construir las tablas de enrutamiento. Cuando se determina la
ruta más optima (dependiendo del tipo de enrutamiento), se almacenan esos “caminos”
utilizados para enviar la información de un camino al otro, una vez almacenados, dependiendo
de los criterios en enrutamiento cada vez que se vayan a enviar paquetes se hace según las
normas establecidas por las tablas.
Manejo de Rutas
El enrutamiento se clasifica de acuerdo a como haya sido programado el ruteador para tomar
las decisiones:
Rutas Estáticas: las rutas estáticas son configuradas de forma manual por el administrador,
decir asigna manualmente cuales son los caminos a seguir por el router para enviar los
paquetes a redes remotas. Al ser asignadas las rutas por el administrador cualquier cambio en
la red debe configurarse manualmente, por lo que esto es un inconveniente en el caso de
redes grandes con un ancho de banda y flujo de datos de gran tamaño. Este tipo de sistemas
presenta respuestas rápidas ante cambios de red previstos por el administrador, pero ante
cambios imprevistos debe esperar a que una nueva configuración sea asignada. Algunas
ventajas del ruteo estático son:
• Un circuito poco fiable que deja de funcionar constantemente. Un protocolo de
enrutamiento dinámico podría producir demasiada inestabilidad, mientras que las
rutas estáticas no cambian.
• Se puede acceder a una red a través de una conexión de acceso telefónico. Dicha red
no puede proporcionar las actualizaciones constantes que requiere un protocolo de
enrutamiento dinámico.
• Existe una sola conexión con un solo ISP. En lugar de conocer todas las rutas globales,
se utiliza una única ruta estática.
• Un cliente no desea intercambiar información de enrutamiento dinámico.

Rutas Dinámicas: en el caso del ruteo dinámico, el administrador de la red toma en cuenta
varios parámetros para la programación del equipo (ancho de banda, tamaño de la red,
modelos de routers conectados y los protocolos en uso en la red), luego el conocimiento de la
ruta se actualiza automáticamente cada vez que haya nueva información en la red, el
intercambio de información se realiza entre los routers conectados. Y la ruta final la
determinan los llamados protocolos de enrutamiento basados en los parámetros de
programación.
Rutas predeterminadas: Es una ruta estática que se refiere a una conexión de salida o
Gateway de “último recurso”. El tráfico hacia destinos desconocidos por el router se envía a
dicha conexión de salida. Es la forma más fácil de enrutamiento para un dominio conectado a
un único punto de salida. Esta ruta se indica como la red de destino 0.0.0.0/0.0.0.0.
La regla general es:
a. Usar enrutamiento estático donde se puede
b. Usar enrutamiento dinámico donde se debe
• Usar rutas por defecto estáticas en las estaciones
• Usar protocolos dinámicos entre los ruteadores

Existen dos parámetros que permiten determinar o asignar de mejor manera las rutas de
tráfico de paquetes:
Métrica: es un parámetro que permite determinar la conveniencia de una ruta, cuan existen
varios caminos para llegar a un mismo destino, si la ruta es estática el administrador define la
métrica manualmente, si en cambio la ruta es dinámica esta es determinada por criterios
definidos por el administrador, estos pueden ser:
• Numero de saltos: Número de routers por los que pasará un paquete.
• Pulsos: Retraso en un enlace de datos usando pulsos de reloj de PC.
• Coste: Valor arbitrario, basado generalmente en el ancho de banda, el coste económico
u otra medida.
• Ancho de banda: Capacidad de datos de un enlace.
• Retraso: Cantidad de actividad existente en un recurso de red, como un router o un
enlace.
• Carga: Cantidad de actividad existente en un recurso de red, como un router o un
enlace.
• Fiabilidad: Se refiere al valor de errores de bits de cada enlace de red.
• MTU: Unidad máxima de transmisión. Longitud máxima de trama en octetos que puede
ser aceptada por todos los enlaces de la ruta.
Distancia Administrativa: este parámetro se refiere a la confiabilidad de los distintos protocolos
de enrutamiento, cuando un ruteador puede seleccionar de entre varios protocolos para enviar
un paquete a un destino, seleccionara el que tenga la menos distancia (mayor confiabilidad) y
luego utilizara la métrica para seleccionar la ruta más adecuada.
Protocolos de Enrutamiento
Los protocolos de enrutamiento son el conjunto de reglas utilizadas por un router cuando se
comunica con otros routers en el fin de compartir información de enrutamiento. Dicha
información se utiliza para construir y mantener las tablas de enrutamiento.
Estos protocolos permiten que se intercambie información sobre la topología de la red, las
redes que tiene a su disposición, distancia entre routers, y basado en esto tomar una decisión
sobre la ruta a tomar para el envío de los paquetes.
Como ya se dijo antes, existen ciertos parámetros que son tomados en cuenta por los
administradores (métrica y distancia administrativa) para programar a los ruteadores de
manera que estos puedan tomar las decisiones con respecto a la ruta a tomar. Actualmente
existe una gran variedad de protocolos de enrutamiento dinámico, la
característica heterogénea de las redes plantea distintas necesidades, que han sido
solucionadas mediante una variada gama de protocolos, las características más relevantes en
los protocolos de enrutamiento pueden clasificarse de la siguiente forma: Protocolos de
enrutamiento Interno y Externo, Vector Distancia, Estado de Enlace.
Convergencia: Es el objetivo principal de todos los protocolos de enrutamiento. Cuando un
conjunto de enrutadores converge significa que todos sus elementos se han puesto de
acuerdo y reflejan la situación real del entorno de red donde se encuentran. La velocidad con
la que los protocolos convergen después de un cambio es una
buena medida de la eficacia del protocolo de enrutamiento.
Clases de Protocolos
Interno:
Administran rutas que interconectan redes dentro de un único sistema autónomo.
Ejemplo de este tipo de enrutamiento está en los protocolos RIP, IGRP, EIGRP y OSPF.
Externo:
Administran rutas que conectan diferentes sistemas autónomos. Como ejemplo
podemos ver BGP y EGP.
• Sistemas Autónomos: Un Sistema Autónomo (SA) es un conjunto de redes, o de
routers, que tienen una única política de enrutamiento y que se ejecuta bajo una
administración común, utilizando habitualmente un único IGP. Para el mundo exterior,
el SA es visto como una única entidad. Cada SA tiene un número identificador de 16
bits, que se le asigna mediante un Registro de Internet (como RIPE, ARIN, o APNIC), o
un proveedor de servicios en el caso de los SA privados. Así, conseguimos dividir el
mundo en distintas administraciones, con la capacidad de tener una gran red dividida
en redes más pequeñas y manipulables.
Los algoritmos de enrutamientos se pueden dividir en dos grandes clases:
Vector Distancia
Determina la dirección y la distancia hacia cualquier enlace de la red. Su métrica se basa en lo
que se le llama en redes “Numero de Saltos”, es decir la cantidad de routers por los que tiene
que pasar el paquete para llegar a la red destino, la ruta que tenga el menor número de saltos
es la más optima y la que se publicará.
• Visualiza la red desde la perspectiva de los vecinos
• Actualizaciones periódicas
• Transmite copias completas o parciales de las tablas de enrutamiento
• Convergencia lenta
• Incrementa las métricas a través de las actualizaciones
Estado de enlace
También llamado “Primero la Ruta Libre Mas Corta” (OSPF - OpenShortest Path First), recrea
la topología exacta de toda la red. Su métrica se basa el retardo, ancho de banda, carga y
confiabilidad, de los distintos enlaces posibles para llegar a un destino en base a esos
conceptos el protocolo prefiere una ruta por sobre otra. Estos protocolos utilizan un tipo de
publicaciones llamadas Publicaciones de estado de enlace (LSA), que intercambian entre los
routers, mediante esta publicación cada router crea una base datos de la topología de la red
completa.
• Buscan una unión común de la topología de la red.
• Cada dispositivo calcula la ruta más corta a los otros routers.
• Las actualizaciones se activan por los eventos (cambios en la topología) de la red.
• Transmite actualizaciones.

Tabla de Protocolos

Protocolos Internos o IGPs


Routing Information Protocol (RIP): RIP v1 es un protocolo universal de
enrutamiento por vector de distancia que utiliza el número de saltos como único
sistema métrico. Un salto es el paso de los paquetes de una red a otra. Si existen dos rutas
posibles para alcanzar el mismo destino, RIP elegirá la ruta que presente un menor número
de saltos.
Sus características son:
✓ Protocolo de Vector de Distancias (Bellman-Ford)
✓ Era de uso común (routed, gated), actualmente se considera obsoleto.
✓ Información en las tablas:
– La dirección de destino
– Distancia asociada a ese destino
– La dirección del portal de acceso
– Un indicador de “Actualizado recientemente”
– Varios Temporizadores
✓ Las entradas se mantienen en la tabla hasta ser actualizadas cuando una mejor
distancia es recibida.
✓ Si no se recibe información sobre un router en 180s, la entrada en la tabla es borrada
✓ Una distancia con valor de 16 quiere decir que la ruta está abajo. Esto porque la
métrica se fija por defecto en 15, si la distancia es 16 se descarta el paquete.
✓ No admite VLSM
✓ Broadcast a través de la dirección 255.255.255.255
Problemas:
✓ Diámetro Pequeño: La distancia más larga para una ruta es solo 15. Si la red se
encuentra a una distancia mayor de 15, esta es considerada abajo
✓ Convergencia Lenta: Toma mucho tiempo el que la tabla de rutas refleje el estado
actual de la red. Esto es debido a que las rutas solo se eliminan luego de 180s o a que
los enrutadores deben intercambiar mensajes hasta que lleguen a infinito (16) antes de
declarar una entrada como invalida.
✓ Enrutamiento basado en Clases: RIP interpreta todas las direcciones de acuerdo a las
clases que ya habíamos definido. Esto quiere decir que RIP no entiende los conceptos
de superredes y máscaras de longitud variable.
Soluciones:
✓ Horizontes Divididos (Split Horizon): un enrutador no anuncia rutas por la misma
interfaz en que le llegaron. Con esto se elimina el problema de tener que contar hasta
el infinito.
✓ Envenenamiento en Reverso (Poison Reverse): cuando un enlace se cae, el enrutador
inmediatamente envía un mensaje con la ruta y una distancia de infinito (16).
✓ Actualizaciones Inmediatas (Triggered Updates): cuando uno de los enlaces de un
router se cae, un mensaje de actualización es enviado sin necesidad de esperar los
30s reglamentarios.
✓ Espera (Hold Down): cuando un enrutador detecta que un enlace se ha caído, este no
acepta mensajes de enrutamiento por un período determinado. Esto permite que la
actualización inmediatamente se propague.

RIP v2 (RFC-2453): este protocolo es una versión mejorad de RIP v1 y tiene las siguientes
mejoras.
✓ Compatible con RIP v1.
✓ Agrega la máscara para las direcciones destino en la tabla de rutas, permitiendo el uso
de subredes y superredes (CIDR).
✓ Permite autentificación de los enrutadores vecinos durante los mensajes de
actualización.
✓ Permite la definición de dominios de enrutamiento (Sistemas Autónomos).
✓ Introduce la opción de utilizar multicast para el envío de mensajes de actualización sólo
a los miembros del grupo de enrutadores en un segmento (224.0.0.9).

IGRP (Interior Gateway Routing Protocol, o Protocolo de enrutamiento de gateway


interior)
Es un protocolo patentado y desarrollado por CISCO que se emplea con el protocolo TCP/IP
según el modelo (OSI) Internet. La versión original del IP fue diseñada y desplegada con éxito
en 1986. Se utiliza comúnmente como IGP pero también se ha utilizado extensivamente como
Exterior Gateway Protocol (EGP) para el enrutamiento inter-dominio.
IGRP es un protocolo de enrutamiento basado en la tecnología vector-distancia. Utiliza una
métrica compuesta para determinar la mejor ruta basándose en el ancho de banda, el retardo,
la confiabilidad y la carga del enlace. El concepto es que cada router no necesita saber todas
las relaciones de ruta/enlace para la red entera. Cada router publica destinos con una
distancia correspondiente. Cada router que recibe la información, ajusta la distancia y la
propaga a los routers vecinos. La información de la distancia en IGRP se manifiesta de
acuerdo a la métrica. Esto permite configurar adecuadamente el equipo para alcanzar las
trayectorias más óptimas.
Las características claves de IGRP son las siguientes:
✓ La versatilidad para manejar automáticamente topologías indefinidas y complejas.
✓ La flexibilidad necesaria para segmentarse con distintas características de ancho de
banda y de retardo.
✓ La escalabilidad para operar en redes de gran tamaño.
Funcionamiento:
✓ IGRP manda actualizaciones cada 90 segundos, y utiliza un cierto número de factores
distintos para determinar la métrica. El ancho de banda es uno de estos factores, y
puede ser ajustado según se desee.
✓ IGRP utiliza los siguientes parámetros:
o Retraso de Envío: Representa el retraso medio en la red en unidades de 10
microsegundos.
o Ancho de Banda (Band Width – Bw): Representa la velocidad del enlace, dentro
del rango de los 12000 Mbps y 10 Gbps. En realidad, el valor usado es la
inversa del ancho de banda multiplicado por 107.
o Fiabilidad: va de 0 a 255, donde 255 es 100% confiable.
o Distancia administrativa (Load): toma valores de 0 a 255, para un enlace en
particular, en este caso el valor máximo (255) es el peor de los casos.
EIGRP (Enhanced Interior Gateway Routing Protocol)
Cisco lanzó EIGRP en 1994 como una versión escalable y mejorada de su protocolo
propietario de enrutamiento por vector-distancia, IGRP. Debido a esto existen similitudes entre
ambos protocolos:

✓ EIGRP multiplica la métrica de IGRP por un factor de 256. Esto ocurre porque EIGRP
usa una métrica que tiene 32 bits de largo, e IGRP usa una métrica de 24 bits. La
fórmula para el cálculo de la métrica es la misma (Métrica= [K1 * ancho de banda +
((K2 * ancho de banda) /(256-carga)) + (K3 * retardo)]*[K5/(confiabilidad + K4)]) y los
parámetros por defecto también (K1 y K3 a 1 y el resto a 0).
✓ IGRP tiene un número de saltos máximo de 255. El límite máximo para el número de
saltos en EIGRP es 224. La redistribución, o la capacidad para compartir rutas, es
automática entre IGRP e EIGRP, siempre y cuando ambos procesos usen el mismo
número AS.
✓ EIGRP mantiene las siguientes tres tablas:
o Tabla de vecinos
o Tabla de topología
o Tabla de enrutamiento
La tabla de vecinos es la más importante de EIGRP. Cada router EIGRP mantiene una tabla
de vecinos que enumera a los routers adyacentes. Al conocer nuevos vecinos, se registran la
dirección y la interfaz del vecino. Esta información se guarda en la estructura de datos del
vecino. Cuando un vecino envía un paquete hello, publica un tiempo de espera. El tiempo de
espera es la cantidad de tiempo durante el cual un router considera que un vecino se puede
alcanzar y que funciona. Si un paquete de salutación (hello) no se recibe dentro del tiempo de
espera, entonces vence el tiempo de espera. Cuando vence el tiempo de espera, se informa
al Algoritmo de Actualización Difusa (DUAL), que es el algoritmo de vector-distancia de
EIGRP, acerca del cambio en la topología para que recalcule la nueva topología.
La tabla de topología se compone de todas las tablas de enrutamiento EIGRP en el sistema
autónomo. DUAL toma la información proporcionada en la tabla de vecinos y la tabla de
topología y calcula las rutas de menor costo hacia cada destino. EIGRP rastrea esta
información para que los routers EIGRP puedan identificar y conmutar a rutas alternativas
rápidamente. La información que el router recibe de DUAL se utiliza para determinar la ruta
del sucesor, que es el término utilizado para identificar la ruta principal o la mejor. Esta
información también se introduce a la tabla de topología. Los routers EIGRP mantienen una
tabla de topología por cada protocolo configurado de red. La tabla de enrutamiento mantiene
las rutas que se aprenden de forma dinámica.
La tabla de enrutamiento EIGRP contiene las mejores rutas hacia un destino. Esta información
se recupera de la tabla de topología. Los routers EIGRP mantienen una tabla de enrutamiento
por cada protocolo de red.
EIGRP es un protocolo de enrutamiento por vector-distancia avanzado, pero también actúa
como protocolo del estado de enlace en la manera en que actualiza a los vecinos y mantiene
la información de enrutamiento. A continuación, se presentan algunas de las ventajas de
EIGRP sobre los protocolos de vector-distancia simples:

✓ Convergencia rápida
✓ Uso eficiente del ancho de banda
✓ Compatibilidad con VLSM y CIDR
✓ Compatibilidad con capas de varias redes
✓ Independencia de los protocolos enrutados
EIGRP envía actualizaciones parciales y limitadas, y hace un uso eficiente del ancho de
banda. EIGRP usa un ancho de banda mínimo cuando la red es estable. Los routers EIGRP
no envían las tablas en su totalidad, sino que envían actualizaciones parciales e
incrementales. Esto es parecido a la operación de OSPF, salvo que los routers EIGRP envían
estas actualizaciones parciales sólo a los routers que necesitan la información, no a todos los
routers del área. Por este motivo, se denominan actualizaciones limitadas.
OSPF (Open Shortest Path First)
OSPF es un protocolo de enrutamiento del estado de enlace basado en estándares abiertos.
Se describe en diversos estándares de la Fuerza de Tareas de Ingeniería de Internet (IETF).
OSPF se puede usar y configurar en una sola área en las redes pequeñas. También se puede
utilizar en las redes grandes. Las redes OSPF grandes utilizan un diseño jerárquico. Varias
áreas se conectan a un área de distribución o a un área 0 que también se denomina
backbone. El enfoque del diseño permite el control extenso de las actualizaciones de
enrutamiento. La definición de área reduce el gasto de procesamiento, acelera la
convergencia, limita la inestabilidad de la red a un área y mejora el rendimiento.
OSPF reúne la información de los routers vecinos acerca del estado de enlace de cada router
OSPF. Con esta información se inunda a todos los vecinos. Un router OSPF publica sus
propios estados de enlace y traslada los estados de enlace recibidos. Cada router del área
OSPF tendrá la misma base de datos del estado de enlace. Por lo tanto, cada router tiene la
misma información sobre el estado del enlace y los vecinos de cada uno de los demás
routers. Cada router luego aplica el algoritmo SPF a su propia copia de la base de datos. Este
cálculo determina la mejor ruta hacia un destino. El algoritmo SPF va sumando el costo, un
valor que corresponde generalmente al ancho de banda. La ruta de menor costo se agrega a
la tabla de enrutamiento, que se conoce también como la base de datos de envío. Para
calcular las rutas se utiliza el algoritmo de camino más corto (Short Path First - SPF)
propuesto por Dijkstra.
Para reducir la cantidad de intercambios de la información de enrutamiento entre los distintos
vecinos de una misma red, los routers de OSPF seleccionan un router designado (DR) y un
router designado de respaldo (BDR) que sirven como puntos de enfoque para el intercambio
de información de enrutamiento.
Beneficios de OSPF:
✓ Convergencia rápida y evita la creación de círculos (loops).
✓ Soporte para el uso de varios tipos de medidas.
✓ Se pueden calcular varias rutas para un mismo destino.
✓ Permite definir jerarquías de dominios
Protocolos Externos o EGPs
BGP (Border Gateway Protocol) Es un protocolo de enrutamiento por vectorde
distancia usado comúnmente para enrutar paquetes entre dominios, estándar en
Internet. BGP gestiona el enrutamiento entre dos o más routers que sirven como routers
fronterizos para determinados Sistemas Autónomos.
BGP versión 4 (BGP-4), es el protocolo de enrutamiento entre dominios elegido en Internet,
en parte porque administra eficientemente la agregación y la propagación de rutas entre
dominios.
Sus características son:
✓ BGP utiliza un vector de caminos (path vector).
✓ Divide la Internet en sistemas autónomos.
✓ A cada SA (AS) se le asigna número cuando va a participar en la Internet. También
existen números privados.
✓ Regularmente utilizado cuando se tiene más de una conexión hacia fuera de nuestra
red.
✓ Permite tomar una mejor decisión sobre la ruta que los datagramas deben de
enviarse/recibirse.
✓ Agrupa prefijos internos y los anuncia a los SA vecinos.
✓ Definido en RFC-1771. Última versión es 4.
Tablas Comparativas entre los Protocolos

También podría gustarte