4 Arreglo de Discos Raid y Servicios para Servidores

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 15

Colegio Técnico Profesional Umberto Melloni C.

Mantenimiento Preventivo de Computadoras

Arreglos de discos(RAID)
RAID - Redundant Array of Independent Disks - Conjunto Redundante de Discos Independientes, hace
referencia a un sistema de almancenamiento que usa múltiples Discos Duros entre los que distribuye o
replica los datos. Un Arreglo de Disco es organizar varios Discos Duros (Volúmenes) buscando mejorar
el funcionamiento, rendimiento, almacenamiento de los Datos que se escriben y se leen en el Disco

Un arreglo de discos en RAID es un conjunto de discos que funcionan en conjunto formando una sola
unidad lógica. Por ejemplo, se pueden tener 5 discos de 100 Gb; de estos, 4 se usan para almacenar la
información y el 5o como paridad para verificar la información. Dichos discos en conjunto, se verán
como una unidad lógica de 400Gb solamente.
Esto aplica principalmente a las SAN o Storage Area Network (Área de red de almacenamiento), las
cuales, se encargan de distribuir las cargas sobre arreglos de discos. Otra versión son las NAS o
Network Attached Storage (Almacenamiento Ligado a la Red).

Entre las características principales que puede tener un RAID, las cuales pueden ser configuradas de
acuerdo a lo que uno requiera, son:
• Mirroring. Es cuando diversos discos tienen repetida información a través de ellos. Así, se logra
tener una facilidad para poder soportar fallas de discos. Este se puede combinar con el hot
swapping donde un disco se puede retirar sin problemas cuando falla y se inserta uno nuevo sin
dar de baja el arreglo de discos.
• Striping. En esta forma de configuración, se tienen secuencias de bloques guardados a través de
los distintos discos que componen el RAID. Dicha configuración es muy rápida por el
paralelismo que se tiene para acceder a la información.
• Error correction. Esta forma es muy segura para prevenir pérdida de información, al incorporar
un disco de paridad para poder validar cada bloque está siendo leido o escrito. Sin embargo, el
lograr este tipo de tareas, hace que sea la configuración más lenta.
• Mejorar la Capacidad de Almacenamiento de los Datos
• Mejorar el Rendimiento de Lectura y Escritura de Datos
• Mejorar la Recuperación de Datos

¿Qué NO es RAID?

RAID NO es respaldo de información. El hecho de tener un RAID no significa que se está


respaldando la información. Sí previene pérdidas o fallas de discos simples o cierta cantidad de
información; sin embargo, siempre puede haber toda clase de situaciones que pueden dañar un RAID
completo: incendio, terremoto, obra humana intencional o no intencional, falla del hardware, falla del
software que distribuye la información, etcétera.

1
Colegio Técnico Profesional Umberto Melloni C.
Mantenimiento Preventivo de Computadoras

Entonces, para complementar nuestro RAID, deberemos tener una estructura especial para realizar
nuestros respaldos. Estos pueden hacerse hacia cinta o disco. Incluso puede ser hacia otro RAID.
Clases de Discos Duros:

Discos Básicos:
• Tienen tabla de Particiones: FAT, NTFS, EXT2, EXT3, etc.
• Tipos de Particiones: Primaria, Extendida y Unidades Lógicas
Discos Dinámicos:
• Tienen la Capacidad de Formar Arreglos de Discos
• Tipos de Volúmenes Dinámicos: Simple, Extendido, Distribuido y RAID'S
Volumen Simple:
• Utiliza Solo un Volumen Dinámico (Disco Duro).
• Toma espacio sin Asignar y lo transforma en un Volumen Dinámico.
Volumen Extendido:
• Extiende el Tamaño del Volumen Dinámico a partir de Espacio no asignado de uno o Varios
Disco de nuestro Equipo.
Volumen Distribuido:
• Utiliza Dos o mas Volúmenes Dinámicos.
• Toma espacio sin asignar de otros Discos, para Extender el Volumen.
• Guarda los Datos de forma Ordenada (Primero un Disco y después el otro).
• Cuando se acaba la capacidad de un Volumen toma el Volumen siguiente.

Niveles de RAID
Hay distintos niveles de RAID, van desde el 0 hasta el 6 más sus híbridos 0+1 y 1+0. Los más comunes
son el 0, 1, 5 y los híbridos.
RAID 0
Conocido como stripe set o striped volume o simplemente stripe. No tiene paridad ni redundancia,
simplemente la distribución equitativa de los bloques de datos entre los distintos discos que lo
componen.
Si uno de los discos que lo componen es menor en capacidad, ésta determinará el tamaño para el resto
de discos aunque tengan una capacidad mayor.
Así, si tenemos 2 discos de 100Gb y uno de 80Gb, entonces la capacidad total del disco será:

2
Colegio Técnico Profesional Umberto Melloni C.
Mantenimiento Preventivo de Computadoras

capacidad = 3 discos x 80Gb = 240Gb

RAID 1
En este nivel de RAID, se hace una copia de cada bloque guardado en los distintos discos que
conforman la unidad lógica. De manera ideal, se hace sobre pares de discos y nuevamente, el disco más
pequeño determina el factor para calcular el tamaño completo del RAID.
Este nivel es útil cuando no se tiene tanto problema por espacio y se requiere un buen rendimiento de
lectura y confiabilidad de los datos. Así, mientras más discos sean miembros del RAID, se
incrementarán dichas ventajas.

RAID 5
En este nivel de RAID, se hace un stripe a nivel de bloque más un bloque paridad para mantener la
seguridad en los bloques de los discos restantes. De esta forma, bajo este esquema se tiene mucha
seguridad en los datos sin sacrificar espacio en los discos.
Si tuviéramos un esquema RAID 1 y tenemos 4 discos de 100gb, el espacio para guardar la
información, sería de 200gb, porque hay que recordar que se replican los bloques en cada disco. Pero
en RAID 5, se puede tener hasta 300Gb.
Esta es una forma popular por la cuestión del tamaño de almacenamiento básicamente. Sin embargo, al
incluir el bloque de paridad, disminuye el rendimiento en cuanto a lectura y escritura de datos.

3
Colegio Técnico Profesional Umberto Melloni C.
Mantenimiento Preventivo de Computadoras

RAID 0+1 (híbrido)


También conocido como RAID 01, este es un híbrido resultado de mezclar el RAID 0 y el RAID 1. Es
un espejo de stripes. Es decir, al mismo tiempo que es un stripe, se maneja otro conjunto de discos que
hace un espejo de dicho stripe.
Tiene un mínimo de 4 discos y al estar mezclando los dos tipos de RAID mencionados, asegura la
información un poco más sin desperdiciar la eficiencia al consultar la información guardada en ellos.

RAID 1+0 (híbrido)


También conocido como RAID 1&0 o RAID 10, este también es un híbrido del RAID 0 y del RAID 1.
Sin embargo, están invertidos con respecto del otro híbrido. En este caso, es un stripe de discos
espejos. Esta opción de arreglo de discos, es muy rápida, nada más superada por el RAID 0 que ya
vimos en este post. Dicha eficiencia la tiene manteniendo un estándar de seguridad de los datos similar
al RAID 1 y el RAID 0+1.

4
Colegio Técnico Profesional Umberto Melloni C.
Mantenimiento Preventivo de Computadoras

SERVICIOS Y PROTOCOLOS USADOS EN


SERVIDORES
SERVIDOR DNS

Un servidor DNS (Domain Name System) se utiliza para proveer a las computadoras de los usuarios
(clientes) un nombre equivalente a las direcciones IP. El uso de este servidor es transparente para los
usuarios cuando éste está bien configurado.
Cada LAN (Red de área local) debería contar con un servidor DNS. Estos servidores trabajan de forma
jerárquica para intercambiar información y obtener las direcciones IP de otras LANs.
Instalar DNS
1. Abra el Asistente para componentes de Windows. Para ello, siga estos pasos:
a. Haga clic sucesivamente en Inicio, Panel de control y Agregar o quitar programas.
b. Haga clic en Agregar o quitar componentes de Windows.
2. En la lista Componentes, active la casilla de verificación Servicios de red y haga clic en Detalles.
3. En Subcomponentes de Servicios de red, active la casilla de verificación Sistema de nombre de
dominio (DNS), haga clic en Aceptar y, a continuación, haga clic en Siguiente.
4. Si se le solicita, en Copiar archivos de, escriba la ruta de acceso completa de los archivos de
distribución y haga clic en Aceptar.
Este proceso de instalación pedirá el CD de Windows debido a que necesita instalar varios
componentes.

PROTOCOLO DHCP

DHCP significa Protocolo de configuración de host dinámico . Es un protocolo que permite que un
equipo conectado a una red pueda obtener su configuración (principalmente, su configuración de red)
en forma dinámica (es decir, sin intervención particular). Sólo tiene que especificarle al equipo,
mediante DHCP, que encuentre una dirección IP de manera independiente. El objetivo principal es
simplificar la administración de la red.
El protocolo DHCP sirve principalmente para distribuir direcciones IP en una red, pero desde sus
inicios se diseñó como un complemento del protocolo BOOTP (Protocolo Bootstrap), que se utiliza,
por ejemplo, cuando se instala un equipo a través de una red (BOOTP se usa junto con un servidor
TFTP donde el cliente encontrará los archivos que se cargarán y copiarán en el disco duro). Un servidor
DHCP puede devolver parámetros BOOTP o la configuración específica a un determinado host.

Funcionamiento del protocolo DHCP


Primero, se necesita un servidor DHCP que distribuya las direcciones IP. Este equipo será la base para
todas las solicitudes DHCP por lo cual debe tener una dirección IP fija. Por lo tanto, en una red puede

5
Colegio Técnico Profesional Umberto Melloni C.
Mantenimiento Preventivo de Computadoras

tener sólo un equipo con una dirección IP fija: el servidor DHCP.


El sistema básico de comunicación es BOOTP (con la trama UDP). Cuando un equipo se inicia no tiene
información sobre su configuración de red y no hay nada especial que el usuario deba hacer para
obtener una dirección IP. Para esto, la técnica que se usa es la transmisión: para encontrar y
comunicarse con un servidor DHCP, el equipo simplemente enviará un paquete especial de transmisión
(transmisión en 255.255.255.255 con información adicional como el tipo de solicitud, los puertos de
conexión, etc.) a través de la red local. Cuando el DHCP recibe el paquete de transmisión, contestará
con otro paquete de transmisión (no olvide que el cliente no tiene una dirección IP y, por lo tanto, no es
posible conectar directamente con él) que contiene toda la información solicitada por el cliente.
Se podría suponer que un único paquete es suficiente para que el protocolo funcione. En realidad, hay
varios tipos de paquetes DHCP que pueden emitirse tanto desde el cliente hacia el servidor o
servidores, como desde los servidores hacia un cliente:
• DHCPDISCOVER (para ubicar servidores DHCP disponibles)
• DHCPOFFER (respuesta del servidor a un paquete DHCPDISCOVER, que contiene los
parámetros iniciales)
• DHCPREQUEST (solicitudes varias del cliente, por ejemplo, para extender su concesión)
• DHCPACK (respuesta del servidor que contiene los parámetros y la dirección IP del cliente)
• DHCPNAK (respuesta del servidor para indicarle al cliente que su concesión ha vencido o si el
cliente anuncia una configuración de red errónea)
• DHCPDECLINE (el cliente le anuncia al servidor que la dirección ya está en uso)
• DHCPRELEASE (el cliente libera su dirección IP)
• DHCPINFORM (el cliente solicita parámetros locales, ya tiene su dirección IP)
El primer paquete emitido por el cliente es un paquete del tipo DHCPDISCOVER. El servidor
responde con un paquete DHCPOFFER, fundamentalmente para enviarle una dirección IP al cliente. El
cliente establece su configuración y luego realiza un DHCPREQUEST para validar su dirección IP (una
solicitud de transmisión ya que DHCPOFFER no contiene la dirección IP) El servidor simplemente
responde con un DHCPACK con la dirección IP para confirmar la asignación. Normalmente, esto es
suficiente para que el cliente obtenga una configuración de red efectiva, pero puede tardar más o menos
en función de que el cliente acepte o no la dirección IP...

PROTOCOLO HTTP
Desde 1990, el protocolo HTTP (Protocolo de transferencia de hipertexto) es el protocolo más utilizado
en Internet. La versión 0.9 sólo tenía la finalidad de transferir los datos a través de Internet (en
particular páginas Web escritas en HTML). La versión 1.0 del protocolo (la más utilizada) permite la
transferencia de mensajes con encabezados que describen el contenido de los mensajes mediante la
codificación MIME.
El propósito del protocolo HTTP es permitir la transferencia de archivos (principalmente, en formato
HTML). entre un navegador (el cliente) y un servidor web (denominado, entre otros, httpd en equipos
UNIX) localizado mediante una cadena de caracteres denominada dirección URL.

6
Colegio Técnico Profesional Umberto Melloni C.
Mantenimiento Preventivo de Computadoras

Comunicación entre el navegador y el servidor


La comunicación entre el navegador y el servidor se lleva a cabo en dos etapas:

• El navegador realiza una solicitud HTTP


• El servidor procesa la solicitud y después envía una respuesta HTTP
En realidad, la comunicación se realiza en más etapas si se considera el procesamiento de la solicitud
en el servidor. Dado que sólo nos ocupamos del protocolo HTTP, no se explicará la parte del
procesamiento en el servidor en esta sección del artículo. Si este tema les interesa, puede consultar el
articulo sobre el tratamiento de CGI.

Un servidor web o servidor HTTP es un programa informático que procesa una aplicación del lado del
servidor realizando conexiones bidireccionales y/o unidireccionales y síncronas o asíncronas con el
cliente generando o cediendo una respuesta en cualquier lenguaje o Aplicación del lado del cliente. El
código recibido por el cliente suele ser compilado y ejecutado por un navegador web. Para la
transmisión de todos estos datos suele utilizarse algún protocolo. Generalmente se utiliza el protocolo
HTTP para estas comunicaciones, perteneciente a la capa de aplicación del modelo OSI. El término
también se emplea para referirse al ordenador que ejecuta el programa.

CORREO ELECTRÓNICO
El correo electrónico (también conocido como email o e-mail) es uno de los servicios más comúnmente
usados en Internet y permite que la gente envíe mensajes a uno o más destinatarios. El correo
electrónico fue inventado por Ray Tomlinson en 1972.
¿Por qué utilizar el correo electrónico?
El principio operativo detrás del correo electrónico es relativamente simple, y esto lo ha convertido
rápidamente en el servicio más popular utilizado en Internet.
Como sucede con el servicio postal tradicional, para que su mensaje llegue al destinatario, todo lo que

7
Colegio Técnico Profesional Umberto Melloni C.
Mantenimiento Preventivo de Computadoras

necesita saber es la dirección. Las dos ventajas principales sobre el "correo de papel" son la rapidez con
la que se envía el correo electrónico (es prácticamente instantáneo) y el bajo costo (incluido en el costo
de una conexión a Internet).
Aún más, el correo electrónico se puede usar para enviar en forma instantánea un mensaje a varias
personas y al mismo tiempo.
Direcciones de correo electrónico
Las direcciones de correo electrónico (tanto para remitentes como para destinatarios) son dos cadenas
separadas por el carácter "@" ("arroba"):
usuario@dominio

A la derecha se describe el nombre del dominio involucrado y a la izquierda se hace referencia al


usuario que pertenece a ese dominio. Para cada dominio corresponden uno o más servidores de correo
electrónico (los registros MX en el Sistema de Nombre de Dominio).
Una dirección de correo electrónico puede tener hasta 255 caracteres y puede incluir los siguientes
caracteres:
• Letras minúsculas de la A a la Z;
• Dígitos
• Los caracteres ".","_" y "-" (punto final, subrayado y guión)
En la práctica, una dirección de correo electrónico es algo similar a esto:
[email protected]

PROTOCOLO FTP
El protocolo FTP (Protocolo de transferencia de archivos) es, como su nombre lo indica, un protocolo
para transferir archivos.
La implementación del FTP se remonta a 1971 cuando se desarrolló un sistema de transferencia de
archivos (descrito en RFC141) entre equipos del Instituto Tecnológico de Massachusetts (MIT,
Massachusetts Institute of Technology). Desde entonces, diversos documentos de RFC (petición de
comentarios) han mejorado el protocolo básico, pero las innovaciones más importantes se llevaron a
cabo en julio de 1973.
Actualmente, el protocolo FTP está definido por RFC 959 (Protocolo de transferencia de archivos
(FTP) - Especificaciones).
La función del protocolo FTP
El protocolo FTP define la manera en que los datos deben ser transferidos a través de una red TCP/IP.
El objetivo del protocolo FTP es:
• permitir que equipos remotos puedan compartir archivos
• permitir la independencia entre los sistemas de archivo del equipo del cliente y del equipo del

8
Colegio Técnico Profesional Umberto Melloni C.
Mantenimiento Preventivo de Computadoras

servidor
• permitir una transferencia de datos eficaz
El modelo FTP
El protocolo FTP está incluido dentro del modelo cliente-servidor, es decir, un equipo envía órdenes (el
cliente) y el otro espera solicitudes para llevar a cabo acciones (el servidor).
Durante una conexión FTP, se encuentran abiertos dos canales de transmisión:
• Un canal de comandos (canal de control)
• Un canal de datos

Por lo tanto, el cliente y el servidor cuentan con dos procesos que permiten la administración de estos
dos tipos de información:

• DTP (Proceso de transferencia de datos) es el proceso encargado de establecer la conexión y de


administrar el canal de datos. El DTP del lado del servidor se denomina SERVIDOR DE DTP y
el DTP del lado del cliente se denomina USUARIO DE DTP.
• PI (Intérprete de protocolo) interpreta el protocolo y permite que el DTP pueda ser controlado
mediante los comandos recibidos a través del canal de control. Esto es diferente en el cliente y
el servidor:
• El SERVIDOR PI es responsable de escuchar los comandos que provienen de un
USUARIO PI a través del canal de control en un puerto de datos, de establecer la
conexión para el canal de control, de recibir los comandos FTP del USUARIO PI a
través de éste, de responderles y de ejecutar el SERVIDOR DE DTP.
• El USUARIO PI es responsable de establecer la conexión con el servidor FTP, de enviar
los comandos FTP, de recibir respuestas del SERVIDOR PI y de controlar al USUARIO
DE DTP, si fuera necesario.
Cuando un cliente FTP se conecta con un servidor FTP, el USUARIO PI inicia la conexión con el
servidor de acuerdo con el protocolo Telnet. El cliente envía comandos FTP al servidor, el servidor los
interpreta, ejecuta su DTP y después envía una respuesta estándar. Una vez que se establece la
conexión, el servidor PI proporciona el puerto por el cual se enviarán los datos al Cliente DTP. El
cliente DTP escucha el puerto especificado para los datos provenientes del servidor.

9
Colegio Técnico Profesional Umberto Melloni C.
Mantenimiento Preventivo de Computadoras

Es importante tener en cuenta que, debido a que los puertos de control y de datos son canales
separados, es posible enviar comandos desde un equipo y recibir datos en otro. Entonces, por ejemplo,
es posible transferir datos entre dos servidores FTP mediante el paso indirecto por un cliente para
enviar instrucciones de control y la transferencia de información entre dos procesos del servidor
conectados en el puerto correcto.

En esta configuración, el protocolo indica que los canales de control deben permanecer abiertos durante
la transferencia de datos. De este modo, un servidor puede detener una transmisión si el canal de
control es interrumpido durante la transmisión.

PROTOCOLO SSH
El protocolo SSH (Secure Shell) se desarrolló en 1995 por el finlandés Tatu Ylönen.
Es un protocolo que hace posible que un cliente (un usuario o incluso un equipo) abra una sesión
interactiva en una máquina remota (servidor) para enviar comandos o archivos a través de un canal
seguro.
• Los datos que circulan entre el cliente y el servidor están cifrados y esto garantiza su
confidencialidad (nadie más que el servidor y el cliente pueden leer la información que se envía
a través de la red). Como resultado, no es posible controlar la red con un rastreador.
• El cliente y el servidor se autentifican uno a otro para asegurarse que las dos máquinas que se
comunican son, de hecho, aquellas que las partes creen que son. El hacker ya no puede adoptar
la identidad del cliente o de su servidor (falsificación).
El objetivo de la versión 1 del protocolo (SSH1), propuesta en 1995, ofrecía una alternativa a las
sesiones interactivas (shells) tales como Telnet, rsh, rlogin y rexec. Sin embargo, este protocolo tenía
un punto débil que permitía a los hackers introducir datos en los flujos cifrados. Por este motivo, en
1997 se propuso la versión 2 del protocolo (SSH2) como un anteproyecto del IETF. Se puede acceder a
los documentos que definen este protocolo en http://www.ietf.org/html.charters/secsh-charter.html.
Secure Shell Versión 2 también incluye un protocolo SFTP (Secure File Transfer Protocol; en

10
Colegio Técnico Profesional Umberto Melloni C.
Mantenimiento Preventivo de Computadoras

castellano, Protocolo Seguro de Transferencia de Archivos).


SSH es un protocolo, es decir, un método estándar que permite a los equipos establecer una conexión
segura. Como tal, existe una variedad de implementaciones de clientes y servidores SSH. Algunas
requieren el pago de una cuota, en tanto que otras son gratuitas o de código abierto: puede encontrar
algunos clientes SSH en la sección de descargas de commentcamarche.

Cómo funciona SSH


Una conexión SSH se establece en varias fases:
• En primera instancia, se determina la identidad entre el servidor y el cliente para establecer un
canal seguro (capa segura de transporte).
• En segunda instancia, el cliente inicia sesión en el servidor.

Autentificación

Una vez que se ha establecido la conexión segura entre el cliente y le servidor, el cliente debe
conectarse al servidor para obtener un derecho de acceso. Existen diversos métodos:
• el método más conocido es la contraseña tradicional. El cliente envía un nombre de acceso y
una contraseña al servidor a través de la conexión segura y el servidor verifica que el usuario en
cuestión tiene acceso al equipo y que la contraseña suministrada es válida.
• un método menos conocido, pero más flexible, es el uso de claves públicas. Si el cliente elige la
clave de autentificación, el servidor creará un challenge y le dará acceso al cliente si éste es
capaz de descifrar el challenge con su clave privada.

SERVIDOR PROXY
Un servidor proxy es un equipo que actúa de intermediario entre un explorador web (como Internet
Explorer) e Internet. Los servidores proxy ayudan a mejorar el rendimiento en Internet ya que
almacenan una copia de las páginas web más utilizadas. Cuando un explorador solicita una página web
almacenada en la colección (su caché) del servidor proxy, el servidor proxy la proporciona, lo que
resulta más rápido que consultar la Web. Los servidores proxy también ayudan a mejorar la seguridad,
ya que filtran algunos contenidos web y software malintencionado.
Los servidores proxy se utilizan a menudo en redes de organizaciones y compañías. Normalmente, las
personas que se conectan a Internet desde casa no usan un servidor proxy.

Servidores proxy:
• Funcionan como cortafuegos y como filtro de contenidos.

11
Colegio Técnico Profesional Umberto Melloni C.
Mantenimiento Preventivo de Computadoras

Son un mecanismo de seguridad implementado por el ISP o los administradores de la red en un


entorno de Intranet para desactivar el acceso o filtrar las solicitudes de contenido para ciertas
sedes web consideradas ofensivas o dañinas para la red y los usuarios.
• Mejoran el rendimiento.
Guardan en la antememoria las páginas web a las que acceden los sistemas de la red durante un
cierto tiempo. Cuando un sistema solicita la misma página web, el servidor proxy utiliza la
información guardada en la memoria caché en lugar de recuperarla del proveedor de contenidos.
De esta forma, se accede con más rapidez a las páginas Web.

Ventajas

En general (no sólo en informática), los proxies hacen posible:


• Control: sólo el intermediario hace el trabajo real, por tanto se pueden limitar y restringir los
derechos de los usuarios, y dar permisos sólo al proxy.
• Ahorro. Sólo uno de los usuarios (el proxy) ha de estar preparado para hacer el trabajo real.
Con estar preparado queremos decir que es el único que necesita los recursos necesarios para
hacer esa funcionalidad. Ejemplos de recursos necesarios para hacer la función pueden ser la
capacidad y lógica de cómputo o la dirección de red externa (IP).
• Velocidad. Si varios clientes van a pedir el mismo recurso, el proxy puede hacer caché: guardar
la respuesta de una petición para darla directamente cuando otro usuario la pida. Así no tiene
que volver a contactar con el destino, y acaba más rápido.
• Filtrado. El proxy puede negarse a responder algunas peticiones si detecta que están
prohibidas.
• Modificación. Como intermediario que es, un proxy puede falsificar información, o modificarla
siguiendo un algoritmo.
Desventajas

En general (no sólo en informática), el uso de un intermediario puede provocar:


• Anonimato. Si todos los usuarios se identifican como uno sólo, es difícil que el recurso
accedido pueda diferenciarlos. Pero esto puede ser malo, por ejemplo cuando hay que hacer
necesariamente la identificación.
• Abuso. Al estar dispuesto a recibir peticiones de muchos usuarios y responderlas, es posible que
haga algún trabajo que no toque. Por tanto, ha de controlar quién tiene acceso y quién no a sus
servicios, cosa que normalmente es muy difícil.
• Carga. Un proxy ha de hacer el trabajo de muchos usuarios.
• Intromisión. Es un paso más entre origen y destino, y algunos usuarios pueden no querer pasar
por el proxy. Y menos si hace de caché y guarda copias de los datos.
• Incoherencia. Si hace de caché, es posible que se equivoque y dé una respuesta antigua cuando
hay una más reciente en el recurso de destino. En realidad este problema no existe con los
servidores proxy actuales, ya que se conectan con el servidor remoto para comprobar que la

12
Colegio Técnico Profesional Umberto Melloni C.
Mantenimiento Preventivo de Computadoras

versión que tiene en caché sigue siendo la misma que la existente en el servidor remoto.
• Irregularidad. El hecho de que el proxy represente a más de un usuario da problemas en
muchos escenarios, en concreto los que presuponen una comunicación directa entre 1 emisor y
1 receptor (como TCP/IP).

Aplicaciones

El concepto de proxy es aplicado de muy distintas formas para proporcionar funcionalidades


específicas.
Proxy Caché

Su método de funcionamiento es similar al de un proxy HTTP o HTTPs. Su función es precargar el


contenido web solicitado por el usuario para acelerar la respuesta Web en futuras peticiones de la
misma información de la misma máquina u otras.

Proxy de web

Se trata de un proxy para una aplicación específica el acceso a la web (principalmente los protocolos
HTTP y HTTPS). Aparte de la utilidad general de un proxy a veces proporciona una caché para las
páginas web y los contenidos descargados. Cuando esto sucede se dice que el proxy web está haciendo
un servicio de proxy-cache. Esta caché es compartida por todos los usuario del proxy, con la
consiguiente mejora en los tiempos de acceso para consultas coincidentes. Al mismo tiempo libera la
carga de los enlaces hacia Internet.
• Funcionamiento:
• El cliente realiza una petición (p. ej. mediante un navegador web) de un recurso de
Internet (una página web o cualquier otro archivo) especificado por una URL.
• Cuando el proxy caché recibe la petición, busca la URL resultante en su caché local. Si
la encuentra, contrasta la fecha y hora de la versión de la página demanda con el servidor
remoto. Si la página no ha cambiado desde que se cargo en caché la devuelve
inmediatamente, ahorrándose de esta manera mucho tráfico pues sólo intercambia un
paquete para comprobar la versión. Si la versión es antigua o simplemente no se
encuentra en la caché, lo captura del servidor remoto, lo devuelve al que lo pidió y
guarda o actualiza una copia en su caché para futuras peticiones.
Posibles usos

Los proxys web pueden aportar una serie de funcionalidades interesantes en distintos ámbitos:
• Reducción del tráfico mediante la implementación de caché en el proxy. Las peticiones de
páginas Web se hacen al servidor Proxy y no a Internet directamente. Por lo tanto se aligera el
tráfico en la red y descarga los servidores destino, a los que llegan menos peticiones.

13
Colegio Técnico Profesional Umberto Melloni C.
Mantenimiento Preventivo de Computadoras

El caché utiliza normalmente un algoritmo configurable para determinar cuándo un documento está
obsoleto y debe ser eliminado de la caché. Como parámetros de configuración utiliza la antigüedad,
tamaño e histórico de acceso. Dos de esos algoritmos básicos son el LRU (el usado menos
recientemente, en inglés "Least Recently Used") y el LFU (el usado menos frecuentemente, "Least
Frequently Used").

• Mejora de la velocidad en tiempo de respuesta mediante la implementación de caché en el


proxy. El servidor Proxy crea un caché que evita transferencias idénticas de la información entre
servidores durante un tiempo (configurado por el administrador) así que el usuario recibe una
respuesta más rápida. Por ejemplo supongamos que tenemos un ISP que tiene un servidor Proxy
con caché. Si un cliente de ese ISP manda una petición por ejemplo a Google esta llegará al
servidor Proxy que tiene este ISP y no irá directamente a la dirección IP del dominio de Google.
Esta página concreta suele ser muy solicitada por un alto porcentaje de usuarios, por lo tanto el
ISP la retiene en su Proxy por un cierto tiempo y crea una respuesta en mucho menor tiempo.
Cuando el usuario crea una búsqueda en Google el servidor Proxy ya no es utilizado; el ISP
envía su petición y el cliente recibe su respuesta ahora sí desde Google.
Los programas P2P se pueden aprovechar de la cache proporcionada por algunos proxys. Es el llamado
Webcaché. Por ejemplo es usado en Lphant y algunos Mods del Emule.

• El proxy puede servir para implementar funciones de filtrado de contenidos. Para ello es
necesaria la configuración de una serie restricciones que indiquen lo que no se permite.
Observar que esta funcionalidad puede ser aprovechada no sólo para que ciertos usuarios no
accedan a ciertos contenidos sino también para filtrar ciertos ficheros que se pueden considerar
como peligrosos como pueden ser virus y otros contenidos hostiles servidos por servidores web
remotos.
• Un proxy puede permitir esconder al servidor web la identidad del que solicita cierto
contenido. El servidor web lo único que detecta es que la ip del proxy solicita cierto contenido.
Sin embargo no puede determinar la ip origen de la petición. Además, si se usa una caché,
puede darse el caso de que el contenido sea accedido muchas más veces que las detectadas por
el servidor web que aloja ese contenido.
• Los proxys pueden ser aprovechados para dar un servicio web a una demanda de usuarios
superior a la que sería posible sin ellos.
• El servidor proxy puede modificar los contenidos que sirven los servidores web originales.
Puede haber diferentes motivaciones para hacer esto. Veamos algunos ejemplos:
• Algunos proxys pueden cambiar el formato de las páginas web para un propósito o una
audiencia específicos (Ej. mostrar una página en un teléfono móvil o una PDA)
traduciendo los contenidos.
• Hay proxys que modifican el tráfico web para mejorar la privacidad del tráfico web con
el servidor. Para ello se establecen unas reglas que el proxy tiene que cumplir. Por
ejemplo el proxy puede ser configurado para bloquear direcciones y Cookies, para
modificar cabeceras de las peticiones o quitar javascript que se considere peligroso.
Es frecuente el uso de este tipo de proxys en las propias máquinas de los usuarios (proxys locales) para

14
Colegio Técnico Profesional Umberto Melloni C.
Mantenimiento Preventivo de Computadoras

implementar un paso intermedio y que las peticiones no sean liberadas/recibidas a/de la red sin haber
sido previamente limpiadas de información o contenido peligroso o privado. Este tipo de proxys es
típico en entornos donde hay mucha preocupación sobre la privacidad y se suele usar como paso previo
a la petición del contenido a través de una red que persiga el anonimato como puede ser Tor. Los
programas más frecuentes para hacer este tipo de funcionalidad son:
• Privoxy: Se centra en el contenido web. No presta servicio de cache. Analiza el tráfico
basándose en reglas predefinidas que se asocian a direcciones especificadas con
expresiones regulares y que aplica a cabeceras, contenido, etc. Es altamente configurable.
Tiene extensa documentación.
• Polipo: Tiene características que lo hacen más rápido que privoxy (cacheo, pipeline, uso
inteligente de rango de peticiones). Su desventaja es que no viene configurado por defecto
para proveer anonimicidad a nivel de la capa de aplicación.

El servidor proxy proporciona un punto desde el que se puede gestionar de forma centralizada el
tráfico web de muchos usuarios. Eso puede aprovecharse para muchas funciones adicionales a las
típicas vistas anteriormente. Por ejemplo puede usarse para el establecimiento de controlar el
tráfico de web de individuos concretos, establecer cómo se va a llegar a los servidores web de
los cuales se quiere obtener los contenidos (por ejemplo, el proxy puede configurarse para que en
lugar de obtener los contenidos directamente, lo haga a través de la red Tor).

15

También podría gustarte