4 Ethernet

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 12

Ethernet

Ethernet es la tecnología dominante para redes locales cableadas, en los edificios de oficinas
habituales es la alternativa del mercado. La especificación de Ethernet original tenía dos
puntos principales, primero, estableció un formato de trama relativamente simple y segundo,
especificó la técnica de acceso al medio CSMA/CD para una topología de bus. Si bien el
formato de las tramas se ha conservado durante la evolución, la técnica de acceso CSMA/CD
se volvió menos importante. La razón de esto tiene que ver con el desarrollo de switches
(conmutadores) y el uso de la transmisión dúplex. Los últimos estándares con velocidades de
bits superiores a 10 Gbit/s tampoco especifican ninguna variante respecto a CSMA/CD y
half-duplex.

1.Tramas Ethernet

Debido a la historia de su desarrollo, existen dos formatos para las tramas de Ethernet: el
formato de trama según Ethernet II, definido por los proveedores Digital Equipment, Intel
y Xerox (también llamado DIX Ethernet), que es el más usado y el formato de trama IEEE
802.3 Ethernet. En la siguiente figura se muestra el formato Ethernet II.

Estructura de una tramao Ethernet II


Los dos primeros campos pertenecen a la Capa 1. El preámbulo de al menos 7 bytes siempre
incluye el patrón de bits 10101010. A esto le sigue el campo delimitador de inicio de trama
con el patrón de bits 10101011. Esta secuencia inicial se usa para sincronización, como el
receptor ya sabe qué bits llegarán, puede ajustar su reloj interno para que pueda reconocer de
manera confiable los siguientes bits desconocidos.
Siguen las direcciones en las tramas, que se denominan direcciones MAC, direcciones
Ethernet, direcciones físicas o direcciones de hardware. Siempre tienen 6 bytes de
longitud. Los primeros 3 bytes representan un código de empresa (OUI, identificador único
de organización), que IEEE asigna al proveedor ("listado de OUI"). Los 3 bytes restantes de
la dirección son asignados por los propios proveedores para cada tarjeta Ethernet. Al hacerlo,
el proveedor debe asegurarse de que cada tarjeta realmente obtenga una dirección única.
El primer bit de la dirección indica si es una dirección de unidifusión (bit en 0) o una dirección
de difusión/multidifusión (bit en 1). La dirección de origen es siempre una dirección de
unidifusión. El segundo bit indica si la dirección se usa globalmente (bit en 0) o localmente
(bit en 1). Las tarjetas Ethernet compradas siempre tienen una dirección única global, pero la
dirección solo se puede sobrescribir si la tarjeta se usa localmente.
La diferencia esencial entre el formato Ethernet II y el formato IEEE 802.3 se puede ver en
la siguiente figura. En el formato de Ethernet II, el destino y la dirección de origen van
seguidos del campo de tipo, que indica el protocolo en la siguiente capa superior, es decir,
la capa de red. Esta información es necesaria para saber cómo deben evaluarse los contenidos
del campo de datos de carga útil. El campo de tipo se especifica en forma hexadecimal y
siempre es mayor que 0x0600, que corresponde a un valor decimal de 1536. Por ejemplo, el
valor 0x0800 significa que se transmite un datagrama IPv4. 0x0806 se utiliza para el
Protocolo de resolución de direcciones (ARP).

Comparación de Ethernet II y 802.3/2


El formato Ethernet II no es compatible con los estándares OSI porque, entre otras cosas,
tiene un encabezado LLC. Por lo tanto, IEEE redefinió la compatibilidad con OSI, con la
diferencia esencial de que el campo de tipo en el formato Ethernet II se procesa como
un campo de longitud.
El encabezado de la LLC que se incluye adicionalmente consta de 3 bytes: DSAP (punto de
acceso al servicio de destino), SSAP (punto de acceso al servicio de origen) y un campo de
control. Hay dos dificultades con este formato: los datos a transmitir ya no están alineados
con los límites exactos de palabras, lo que tiene efectos negativos en la velocidad de
procesamiento, y el campo de tipo ya no está presente. Por estos motivos, se introdujo un
encabezado adicional con una longitud de 5 bytes (encabezado SNAP, protocolo de acceso
a subred). Los primeros 3 bytes fueron destinados para el código OUI; los dos bytes
siguientes indican el tipo, que obtiene el mismo valor que el campo de tipo en el formato
Ethernet II. DSAP y SSAP siempre tienen el valor 'AA': esto significa que un encabezado
SNAP sigue al encabezado LLC. El campo de control tiene el valor '03' y los primeros 3
bytes del encabezado SNAP en general tienen el valor '00'.
Esta estandarización IEEE 802.3 de la trama de Ethernet también resulta en el hecho de que
se pueden transmitir 8 bytes de datos menos, lo que significa un máximo de 1492 bytes en
comparación con 1500 bytes en el formato Ethernet II. El tamaño máximo de los datos del
usuario también se denomina unidad de transmisión máxima (MTU).
Pero ¿Cómo se puede determinar si una trama Ethernet debe procesarse como Ethernet II o
IEEE 802.3? Si en el campo de longitud se encuentra valores mayores o iguales a 1536
(0x0600) será una trama Ethernet II. Para valores menores a 1500, es una trama Ethernet
IEEE 802.3, y el número se considera una longitud de trama. Los valores entre 1501 y 1535
no están definidos.
Para los sistemas finales basados en Ethernet, la regla es que tienen que enviar y entender el
formato de Ethernet II, deben entender IEEE 802.3 Ethernet y no necesitan enviar tramas
Ethernet IEEE 802.3. Esta es la razón por la cual casi no se encuentran hoy en día las tramas
Ethernet IEEE 802.3 en las redes Ethernet. Como consecuencia, el formato Ethernet II debe
ser compatible sin restricciones.
El ultimo campo de la trama es la protección por suma de comprobacion, que se denomina
FCS (secuencia de verificación de trama), el algoritmo que se utiliza es la verificación de
redundancia cíclica con una longitud de 32 bits (CRC-32).
2. CSMA/CD

El punto esencial de la especificación de Ethernet original fue la técnica de acceso al medio


CSMA/CD. Todos los sistemas finales se conectaban entre sí a través de una topología de
bus y cada sistema usaba el algoritmo internamente.
En la abreviatura, MA significa acceso múltiple, lo que significa que todos los sistemas
finales conectados compiten para acceder al medio de transmisión (el bus).
El punto de partida para el algoritmo es un sistema final que desea enviar una unidad de
datos. El sistema final verifica antes de enviar si una transmisión ya está en curso en el bus,
esta comprobación se denomina escuchar antes de hablar (Carrier Sense). Se presentan dos
situaciones aquí. O bien el medio ya está libre, o la transmisión está en curso. Si una
transmisión está en curso, el sistema espera hasta que el medio se libere. Cuando se libera, la
transmisión comienza inmediatamente.
Durante la transmisión, el sistema final aún escucha el medio y compara las señales en el bus
con las señales que envía el propio sistema final. Esto se llama escuchar mientras se
habla. Si hay desviaciones, las señales deben provenir de (al menos) otro sistema final que
haya comenzado a transmitir aproximadamente al mismo tiempo. Esto significa que se ha
producido una colisión y se ha reconocido de esta manera. Es por eso la abreviatura CD
(detección de colisiones). En este caso, se envía una señal de interferencia especial por
motivos de seguridad, de modo que todos los sistemas finales participantes tomen nota de la
colisión. La transmisión se interrumpe y el sistema final intentará transmitir los datos
nuevamente más adelante. Si no se reconoce ninguna colisión durante todo el período de
transmisión, se supone que la trama llegó con éxito al receptor.

Procedimiento CSMA / CD

El sistema final A quiere enviar una unidad de datos al sistema final D. Para hacerlo, primero
verifica si el medio está libre. Sin embargo, la computadora C verifica el medio al mismo
tiempo porque también desea enviar una unidad de datos. Ambos determinan de manera
totalmente correcta que el medio es libre y, por consiguiente, comienzan a transmitir sus
unidades de datos.
Dado que las unidades de datos se proporcionan a todos los sistemas finales que están
conectados al bus, también el sistema de extremo transmisor recibe su unidad de datos a
través de su unidad de recepción. Ahora, como es lógico, las unidades de datos del sistema
final A y el sistema final C chocan. Las unidades de datos se superponen y, en consecuencia,
los sistemas finales conectados reciben los datos dañados. En esta situación, el sistema final
A reconoce que los datos recibidos ya no son idénticos a los datos transmitidos y, por lo tanto,
concluye que se ha producido una colisión. Por lo tanto, detiene inmediatamente la
transmisión de la unidad de datos. Lo mismo se aplica al sistema final C. El sistema final A,
que ha reconocido la colisión al principio, envía una señal de atasco, es decir, un patrón de
bits específico a todos los demás sistemas finales para informarles sobre la colisión. Debido
a que la transmisión se detiene inmediatamente después de detectar la colisión, el medio
vuelve a estar disponible después de un tiempo relativamente corto.
Después de un tiempo de espera determinado por el uso interno del algoritmo de retroceso
(Backoff), el sistema final A repite su intento de transmisión. El sistema final C también
desea enviar, pero su tiempo de espera es más largo, igualmente generado por el algoritmo
de retroceso. Por ello C detecta que el medio está en uso y espera hasta que se libere
nuevamente. Esta vez la transmisión de A es exitosa. Cada sistema extremo conectado recibe
la unidad de datos de A y comprueba si es el destino. El sistema final D, que es el destino,
copia los datos para procesarlos internamente.
Si se ha producido una colisión, surge la pregunta de cómo deben realizarse los intentos de
retransmisión. En este punto, debe usar diferentes tiempos de espera porque al menos dos
sistemas finales estuvieron involucrados en la colisión. La idea en este punto es que los
sistemas finales seleccionan tiempos aleatorios. Con el llamado procedimiento de backoff,
se escojen los tiempos de espera. Esta selección también depende de cuántas colisiones hayan
ocurrido previamente. El número de posibilidades aumenta exponencialmente con el número
de colisiones. Por lo tanto, es muy poco probable que ocurran colisiones continuamente.

3 Conmutadores (Switches)
Las redes Ethernet actuales ya no se basan en topologías de bus. Las topologías de árboles
compuestas de estrellas se han utilizado durante muchos años. En el centro de las estrellas,
hay Switches. En comparación con los componentes de red más antiguos llamados
concentradores, los switches tienen la ventaja de que pueden reenviar unidades de datos de
forma específica. Si, por ejemplo, un conmutador tiene 24 puertos de conexión y se supone
que un sistema de extremo que está conectado al puerto 5 recibe una trama de datos de otro
sistema de extremo, el switch reenviará la trama de datos solo al puerto 5. Sin embargo, esto
requiere que el conmutador sepa que el sistema final está ahí (esto se explica más adelante).
A través de esta forma de operación, el conmutador permite la comunicación paralela entre
diferentes puertos. Por ejemplo, permite recibir una trama en el puerto 1 y reenviarse al puerto
21. Al mismo tiempo, se puede recibir una trama en el puerto 7 y reenviarse al puerto 4.
También es posible que el switch almacene tramas para un período de tiempo intermedio,
esto pasa si, por ejemplo, se reciben dos tramas en dos puertos diferentes, pero se deben
reenviar al mismo puerto de salida. Como observación adicional, se debe tener en cuenta que
existen conmutadores con diferentes capacidades de rendimiento interno, lo que significa que
no todos los tipos de comunicación paralela entre puertos pueden ser posibles.
Un punto importante en el desarrollo de los conmutadores fue el cambio de half-duplex a full
duplex en los puertos. Con half-duplex, los problemas ocurren en un puerto de conexión
cuando una trama se envía simultáneamente al puerto y el conmutador también lo envía a
través del puerto. Entonces se produce una colisión de tramas. Sin embargo, si la conexión
se realiza con el modo de operación full dúplex, este problema ya no ocurre.
El cambio de topologías de redes bus a topologías de árbol con conmutadores full dúplex da
como resultado que las colisiones ya no puedan ocurrir en el medio. Esto elimina la necesidad
de CSMA/CD, aunque este esquema se mantiene en los equipos. En este caso, siempre se
reconocerá un medio libre, la transmisión comenzará de inmediato y nunca dará lugar a una
colisión.

4 Mecanismo de aprendizaje para Bridges/Switch

Si observa una red de área local construida en base a switches, surge la pregunta de qué pasos
son necesarios para configurar la red. Se puede asumir que se tiene que proporcionar
información de configuración a los conmutadores, sobre cuales sistemas finales están
conectados, pero no es el caso porque se introdujo un mecanismo de aprendizaje para los
conmutadores (así como con los ya descontinuados bridges). Los conmutadores aprenden a
qué direcciones MAC pueden acceder a través de qué puertos, en función de las tramas que
reciben. Es importante tener en cuenta que los conmutadores solo aprenden de las direcciones
MAC de origen y no de las direcciones MAC de destino. Cada conmutador mantiene
una tabla de direcciones MAC (también llamada Bridge Table), que consiste en la
asignación de direcciones MAC a puertos. La tabla también registra cuando la entrada se
aprendió por última vez. Las entradas que no se actualizan periódicamente se eliminan de la
tabla de direcciones MAC para eliminar las asignaciones incorrectas (este tiempo es variable,
pero por lo general está en 5 minutos).
Si se envía una trama al interruptor, puede haber tres situaciones diferentes.

• La dirección de destino aún se desconoce o es una trama Broadcast: cuando una


dirección MAC de destino aún no está contenida en la tabla, o se supone que la trama
se envía a todos los dispositivos en la red de área local, se usa la inundación. Esto
significa que el conmutador reenvía la trama a todos los puertos (excepto el puerto de
entrada). La idea detrás de la inundación para direcciones de destino desconocidas es
que definitivamente desea que llegue la trama a su destino, incluso si la trama se
reenvía a muchos lugares a los que no debería ir. Como ya se mencionó, el puerto
correcto para la dirección de destino sigue siendo desconocido después, siempre que
no se envíe ninguna respuesta porque los conmutadores solo aprenden de las
direcciones MAC de origen.
• La dirección de destino es conocida y se puede acceder a ella a través de otro
puerto: la dirección MAC de destino se encuentra en la tabla, lo que significa que se
sabe que se puede acceder a ella a través de un puerto diferente al puerto de entrada. El
conmutador envía la trama solo a este puerto; Esto se llama reenvío.
• La dirección de destino es conocida y se puede acceder a ella a través del puerto
de entrada: la dirección MAC de destino se encuentra en la tabla; aquí el puerto a
través del cual se ha recibido la trama está contenido como puerto de destino. En este
caso el interruptor solo tiene que soltar (botar) la trama. Esto se llama filtrado. Esto
puede parecer sorprendente, pero de alguna una manera la trama ya alcanzó su destino
antes de llegar al switch (en este caso en dicho puerto hay varios equipos conectados
y uno de ellos es el receptor).

5. Protocolo de árbol de expansión (Spaning Tree)


Si crea redes locales sobre la base de conmutadores, también desea prepararse para
situaciones de error en las que, por ejemplo, un cable está dañado o un conmutador ya no
funciona. Se desea lograr tolerancia a fallos para que la red continúe funcionando tan bien
como sea posible en tales escenarios. Por lo tanto, los enlaces redundantes son deseables.
Sin embargo, en este punto hay un problema con la forma en que funcionan los switches. En
un escenario simple, hay 3 conmutadores A, B y C. cada uno de ellos está conectado a los
otros dos. Si asume ahora que un sistema final conectado con A envía una trama de Broadcast,
A la enviara a B y C. Pero B y C, a su vez, reenviarán la transmisión a los otros puertos de
salida respectivos, de manera que se enviarán dicha trama entre ellos. Sin embargo, no hay
forma de reconocer que son duplicados, y se realizara un ciclo infinito donde todos los switch
se envían tramas entre sí. Esto significa que las tramas circularán en la red todo el tiempo, y
la red quedará completamente paralizada para otras comunicaciones.
El protocolo de árbol de expansión (Spaning Tree IEEE 802.1d) se introdujo para evitar
esto. Como el nombre "árbol" sugiere, se establece una estructura de árbol lógica. Se puede
llegar a todas las áreas de la red a través de la estructura de árbol, pero solo a través de rutas
únicas y especialmente sin bucles. Los puertos que no se han seleccionado para la estructura
de árbol se desactivan lógicamente, pero pueden volver a activarse en caso de error.
6. VLAN
Son agrupamientos lógicos de los puertos de un switch que se comportan como si
fuesen un switch independiente. Etas pueden ser:
• Estáticas: creadas por el administrador de la red, quien asigna los puertos de la
VLAN. Son las más comunes.
• Dinámicas: se establecen forma automática utilizando un servidor al que se
llama VMPS (VLAN Management Policy Server), este de acuerdo con la dirección
MAC u otras reglas, asocia un puerto, de uno o varios switch, a una VLAN
especifica
Las VLANs también pueden agruparse por MAC origen o por el valor del campo tipo del
frame Ethernet. (RFC2643, IEEE 802.1q y 802.10).

Al crear VLANs se están creando dominios de broadcast. Es decir, el broadcast creado


en una VLAN no se propagará a las otras. Esto evita las tormentas de broadcast causadas
por equipos defectuosos y por aplicaciones que generan broadcast para toda la red. Las
VLANs se pueden organizar por comunidades de usuarios con intereses comunes.
Para que las VLANs se puedan comunicar entre ellas se necesitan equipos de capa 3 (es
decir, routers), hay Routers que manejan directamente VLANs.
Para saber a qué VLAN pertenece una trama se utiliza una “etiqueta” (frame taggin).
Esta identifica la VLAN (se conoce como VLAN ID), se envía en la trama y es para su
creación se tomó parte del campo “Data” de la trama.
Formatos de trama Ethernet 802.3 (heredada) y 802.1Q.

Hay dos tipos de enlaces en una red con switches:


• Enlaces de acceso (Access links): Enlaces que pertenecen a una sola VLAN.
• Enlaces troncales (Trunk links): Enlaces transportan información de varias VLANs
(se soportan sólo sobre enlaces Fast Ethernet o Gigabit Ethernet).

7. Evolución de Ethernet
Desde principios de la década de 1970 hasta hoy, se han desarrollado varias variantes de
Ethernet. Al aumentar las tasas de bits, que inicialmente tuvieron lugar en saltos por un factor
de 10, siempre se respetó la compatibilidad con versiones anteriores. Esto significa que no
es necesario reemplazar completamente los equipos de una red existente si se va a producir
un aumento en la velocidad de bits. Inicialmente, solo puede aumentar las tasas de bits
implementando nuevas variantes cuando sea necesario (por ejemplo, instalar nuevos switches
solo en estas áreas), pero otras partes de la red pueden permanecer sin cambios.
La notación para las variantes primero indica la tasa de bits de transmisión. Le sigue la base
de para la banda base (una variante con una transmisión de banda ancha donde "amplio" se
colocó en esta posición no tuvo éxito en el mercado). Al final está
la longitud del segmento o el tipo de cable. A continuación se proporciona una breve
descripción general de la evolución de Ethernet (para más detalles, consulte Wikipedia).

• Ethernet de 10 Mbit/s

El Ethernet original tiene la abreviatura 10Base5. 10 representa la velocidad de datos de 10


Mbit/s y 5 representa la posible longitud del segmento del bus, que fue de 500 metros.
Utilizando hasta cuatro repetidores, fue posible un tamaño máximo de 2500 metros en este
sistema. Se utilizó un cable coaxial de 1 cm de espesor, que era difícil de instalar. Una
variante que utiliza un cable coaxial más delgado se introdujo con 10Base2, que se llamó
Cheapernet. Sin embargo, la longitud del segmento se redujo a unos 200 m.
En 1990 se hicieron dos cambios significativos con la introducción de 10BaseT. La T
significa par trenzado, es decir, el cableado se cambió de cables coaxiales a conductores de
cobre trenzados, que todavía representan el cable de red habitual (pero hay diferentes
categorías de cables que deben distinguirse). Además, la topología se cambió de una
topología de bus a una topología en estrella.
Las primeras variantes de fibra óptica se introdujeron con 10BaseF. Este permitía mayores
distancias que el cable de cobre, en el cobre la atenuación de la señal es muy marcada.

• Ethernet de 100 Mbit/s

Básicamente, existen dos variantes de 100 Mbit/s Ethernet, que también se llama Fast
Ethernet. Una variante basada en los cables de par trenzado y una variante de fibra óptica.
Con FastEthernet se introdujeron dos innovaciones. Primero, se estableció la negociación
automática (auto-negotiation): cuando dos dispositivos están conectados entre sí a través
de Ethernet, esto significa que negocian automáticamente la mayor velocidad de bits común,
así como el modo semidúplex o full dúplex. Por lo tanto, en la configuración no se tiene que
considerar qué especificaciones deben tener los dispositivos. La otra innovación es el control
de flujo (802.3x): esto permite a los dispositivos enviar “tramas de pausa” indicando que
están sobrecargados internamente y que el otro dispositivo no debería enviar más unidades
de datos por el momento. En este punto, también puede ver que el control de flujo no significa
que debe lograrse un flujo constante de datos (esto existe, pero se denomina conformación
del tráfico, “Traffic shapping”).

• Ethernet de 1 Gbit/s

Gigabit Ethernet especifica dos variantes de cable de par trenzado y dos variantes de fibra
óptica que son relevantes en la práctica.
Hubo problemas importantes para continuar admitiendo el modo semidúplex a una tasa de 1
Gigabit/s, porque aún se tenían que detectar posibles colisiones en el medio. Para garantizar
esto, la transmisión de tramas debe continuar hasta que se pueda detectar una colisión, en
cualquier caso. Con velocidades de bits más altas y longitudes de trama mínimas constantes
(64 bytes), surge la dificultad de que la transmisión se complete mucho más rápido. Para
evitar esto, la longitud mínima de trama debía aumentarse a 512 bytes. A pesar de ciertas
contramedidas, esto es extremadamente ineficiente porque en casos extremos 7/8 de la trama
consiste solo en bytes ficticios sin sentido para alcanzar la longitud mínima de trama.
• Ethernet de 10 Gbit/s
Por lo tanto, en la especificación de 10 Gigabit/s Ethernet, se tuvo que hacer un corte tal que
con esta velocidad de bits y con todas las velocidades de bits más altas, el modo halfdúplex
y el CSMA/CD ya no son soportados. Por lo tanto, la red se debe construir utilizando
topologías en estrella o en árbol o conexiones punto a punto de tal manera que las colisiones
ya no sean posibles en el medio.
Como se acaba de presentar, la tasa de bits de Ethernet hasta este punto siempre se ha
incrementado por el factor 10. En contraste, siempre se usó un factor de aumento de 4 en las
redes troncales, de manera que las tasas eran de 155 Mbit/s, 622 Mbit/s y 2,5 Gbit/s. Con el
siguiente aumento en las redes troncales, las velocidades de bits fueron aproximadamente las
mismas (no exactamente lo mismo porque la velocidad de datos de la red troncal de la
tecnología SDH fue de 9.953 Gbit/s). Dicha compatibilidad se volvió interesante mientras
tanto, cuando quería vincular dos ubicaciones (como dos centros de datos) entre sí a través
de la red troncal.
La relevancia de Ethernet para las redes de área amplia se refleja en el hecho de que para 10
Gbit/s hay dos variantes de par trenzado especificadas, mientras que para la fibra óptica hay
ocho.

• Ethernet 40 Gbit/s y 100 Gbit/s

Con el establecimiento de la siguiente tasa de bits más alta, no estaba claro qué factor de
incremento debería usarse para continuar (x4 o x10). Por lo tanto, como un compromiso se
especificaron variantes para 40 Gbit/s y 100 Gbit/s. Pero con los cables de cobre, existen
grandes dificultades con la atenuación a estas altas velocidades de bits, por lo que estas
variantes solo tienen un alcance de hasta 10 m. De lo contrario, la implementación debe
realizarse con cables de fibra óptica, que requieren el uso de múltiples longitudes de onda
dentro del cable para distancias más grandes.
Ya hay especificadas variantes con 200 Gbit/s y 400 Gbit/s desde 2017, y se espera una norma
de 1 Tbit/s para 2020 o posterior.

8. Resumen - Ethernet
Podemos resumir de nuevo las propiedades más importantes de Ethernet desde la perspectiva
de hoy.
• Ethernet es la tecnología dominante para redes locales cableadas. También juega un
papel importante en las áreas MAN y WAN con variantes más recientes.
• En redes locales cableadas, Ethernet se construye como una topología de árbol con
interruptores en el centro de las estrellas. La transmisión es full duplex. Esto significa
que las colisiones ya no pueden ocurrir en la red y el método CSMA/CD ya no es
relevante.
• El formato Ethernet II se utiliza casi exclusivamente.
• Las direcciones utilizadas son direcciones MAC, que tienen 6 bytes de longitud.
• Se pueden transmitir hasta 1500 bytes de datos de carga útil.
• Con el encabezado y el tráiler de Ethernet, los datos se amplían en 18 bytes. Una
trama Ethernet puede tener una longitud máxima de 1518 bytes.
• La suma de comprobación, que se calcula de acuerdo con el método CRC 32,
proporciona una buena detección de errores. En caso de errores, las tramas deben ser
retransmitidas. Debido a las bajas tasas de error de bits en las redes cableadas de hoy
en día, esto ocurre muy raramente.

También podría gustarte