Problemas con la calidad del servicio - Número 1 Descripción general de la calidad del servicio

62 0 0 0

Fondo de QoS

A medida que las tecnologías de red se desarrollan rápidamente, la red IP cambia de una sola red de datos a una red de múltiples servicios que integra servicios de datos, voz, video y juegos. Los datos transportados en las redes crecen exponencialmente. Además, algunos servicios imponen altos requisitos en el ancho de banda y el retraso de la red, y el ancho de banda se convierte gradualmente en el cuello de botella del desarrollo de Internet debido a la enorme dificultad, el largo período y el alto costo en el desarrollo de chips de hardware. Como resultado, se produce una congestión en la red, los paquetes se descartan, la calidad del servicio se deteriora e incluso los servicios dejan de estar disponibles.

 

Debe eliminar la congestión de la red para llevar a cabo los servicios en la red IP. La mejor solución es aumentar el ancho de banda de la red. Sin embargo, aumentar ciegamente el ancho de banda de la red no es práctico en términos de costos de O&M.

 

La tecnología QoS se desarrolla en el contexto. La tecnología QoS no aumenta el ancho de banda de la red. En cambio, apunta a equilibrar la asignación de ancho de banda a diversos servicios y a proporcionar una garantía de calidad de servicio E2E basada en diferentes requisitos de servicio dentro de los recursos de ancho de banda limitados.

 

2 Indicadores QoS

Los factores que afectan la calidad del servicio de red deben aprenderse para mejorar la calidad de la red. Tradicionalmente, los factores que afectan la calidad de la red incluyen el ancho de banda del enlace, el retardo de transmisión de paquetes, la fluctuación de fase y la tasa de pérdida de paquetes. Para mejorar la calidad del servicio de red, asegure el ancho de banda de los enlaces de transmisión y reduzca el retardo de transmisión de paquetes, la fluctuación de fase y la tasa de pérdida de paquetes. Estos factores que afectan la calidad del servicio de red se convierten en indicadores de QoS.

 

2.1 Ancho de banda

El ancho de banda, también llamado rendimiento, se refiere al número máximo de bits de datos transmitidos entre dos extremos dentro de un período específico (1 segundo) o la velocidad promedio a la que se transmiten flujos de datos específicos entre dos nodos de red. El ancho de banda se expresa en bit / s.

 

La tasa de enlace ascendente y la tasa de enlace descendente son relevantes para el ancho de banda en una red. La tasa de enlace ascendente se refiere a la tasa a la que los usuarios envían información a una red, y la tasa de enlace descendente se refiere a la tasa a la que una red envía datos a los usuarios. Por ejemplo, la velocidad a la que los usuarios cargan archivos en una red está determinada por la velocidad del enlace ascendente, y la velocidad a la que los usuarios descargan archivos está determinada por la velocidad del enlace descendente.

 

En general, la capacidad de transmisión de datos y la calidad del servicio de red están acompañadas por el ancho de banda. En otras palabras, un carril es positivo para la capacidad de flujo de tráfico con poco atasco en una carretera. Todos los usuarios de la red esperan un mayor ancho de banda; sin embargo, los costos de O&M son más altos. Por lo tanto, el ancho de banda se convierte en un grave cuello de botella a medida que Internet se desarrolla rápidamente y los servicios se diversifican cada vez más.

 

2.2 Retraso

El retraso se refiere al tiempo requerido para transmitir un paquete o un grupo de paquetes desde el extremo de transmisión al extremo recibido. Consiste en el retardo de transmisión y el retardo de procesamiento.

 

La transmisión de voz se utiliza como ejemplo. Un retraso se refiere al período durante el cual las palabras se hablan y luego se escuchan. En general, las personas son insensibles a un retraso de menos de 100 ms. Si se produce un retraso de 100 ms a 300 ms, un hablante puede sentir leves pausas en la respuesta del respondedor, lo que puede parecer molesto para ambos. Si se produce un retraso de más de 300 ms, tanto el hablante como el respondedor obviamente perciben el retraso y tienen que esperar las respuestas. Si el orador no puede esperar pero repite lo que se ha dicho, las voces se superponen y la calidad de la conversación se deteriora gravemente.

 

Figura 2-1 Impacto del retraso en la calidad de la red.

031634rdi6d66h617i7hn6.png?image.png

2.3 Jitter

Si se produce una congestión en la red, los retrasos de los paquetes en la misma conexión son diferentes. El jitter se utiliza para describir el grado de cambio de retardo, es decir, la diferencia de tiempo entre el retardo máximo y el retardo mínimo. En la Figura 2-2, el empleado A envía un mensaje de voz al empleado B, diciendo "Me quedaré, pero no lo hará". Se supone que cada palabra es un paquete. El extremo de transmisión divide la voz en seis paquetes y transmite paquetes en el mismo intervalo de forma secuencial. Cada retraso del paquete puede ser diferente debido a la complejidad de la red IP. Como resultado, el intervalo de recepción difiere del intervalo de envío. Además, el empleado B puede convertir la voz recibida en "¿Quiero conservarlo? ¡No!" Por el tono del hablante. Como resultado, causa malentendidos semánticos.

 

Figura 2-2 Impacto del jitter en la calidad de la red.

031646o0nlkemmnxwexqb2.png?image.png

Por lo tanto, la fluctuación de fase es un parámetro importante para la transmisión en tiempo real, especialmente para los servicios en tiempo real, como voz y video, que no toleran vibraciones debido a la fluctuación de la voz o el video.

 

Las inquietudes también afectan la transmisión de paquetes de protocolo. Los paquetes de protocolo específicos se transmiten en un intervalo fijo. Las altas inquietudes pueden causar el aleteo de los protocolos.

 

Los nervios existen en las redes, pero la calidad del servicio no se verá afectada si los nervios no superan una tolerancia específica. El búfer puede aliviar el nerviosismo excesivo, pero prolonga los retrasos.


 

2.4 Proporción de pérdida de paquetes

La relación de pérdida de paquetes se refiere a la relación de paquetes perdidos a paquetes totales. La pérdida leve de paquetes no afecta a los servicios. Por ejemplo, los usuarios no son conscientes de la pérdida de un bit o de un paquete en la transmisión de voz. La pérdida de un bit o un paquete en la transmisión de video puede hacer que la imagen en la pantalla se distorsione al instante, pero la imagen se puede restaurar rápidamente.

 

TCP se utiliza para transmitir datos para manejar la pérdida leve de paquetes porque TCP retransmite instantáneamente los paquetes que se han perdido. Si ocurre una pérdida severa de paquetes, la eficiencia de transmisión de paquetes se ve afectada. QoS se centra en la tasa de pérdida de paquetes. La ración de pérdida de paquetes de red debe controlarse dentro de un cierto rango durante la transmisión.

 

3 modelos de servicio de QoS

¿Cómo se definen los indicadores de QoS dentro de los rangos adecuados para mejorar la calidad del servicio de red? El modelo QoS está involucrado. El modelo de QoS no es una función específica, sino un esquema de QoS de E2E. Por ejemplo, los dispositivos intermedios pueden implementarse entre dos hosts conectados. La garantía de calidad del servicio E2E se puede implementar solo cuando todos los dispositivos en una red utilizan el mismo modelo de servicio QoS. Las organizaciones internacionales como el IETF y el UIT-T diseñaron el modelo de QoS para sus servicios en cuestión. A continuación se describen tres modelos principales de servicio de QoS.

 

3.1 Mejor esfuerzo

Best-Effort es el modelo de servicio más simple y más antiguo. En el modo de Mejor Esfuerzo, los dispositivos de red solo necesitan garantizar rutas accesibles entre redes sin implementar funciones adicionales, y una aplicación puede enviar cualquier cantidad de paquetes en cualquier momento sin notificar a la red. La red hace el mejor esfuerzo para transmitir los paquetes, pero no ofrece ninguna garantía de rendimiento en términos de demora y confiabilidad.

 

En un escenario ideal donde el ancho de banda es suficiente, el modelo Best-Effort es el modelo de servicio más simple. En realidad, hay limitaciones. El modelo Best-Effort es adecuado para servicios que no requieren un retraso corto y una alta confiabilidad, como el Protocolo de transferencia de archivos (FTP) y el correo electrónico.

 

3.2 Modelo IntServ

El modelo Best-Effort no puede proporcionar una garantía de alta calidad de servicio para algunos servicios en tiempo real, por lo que el IETF presentó el modelo de Servicios Integrados (IntServ) en RFC 1633 en 1994.

 

El modelo IntServ utiliza el Protocolo de reserva de recursos (RSVP) como un protocolo de señalización para notificar a la red los parámetros de tráfico antes de que una aplicación envíe paquetes a la red. La red reserva recursos como el ancho de banda y la prioridad para la aplicación en función de los parámetros de tráfico. Después de que la aplicación recibe un mensaje de confirmación y confirma que se han reservado suficientes recursos, comienza a enviar paquetes dentro del rango especificado por los parámetros de tráfico. Los paquetes enviados por la aplicación deben controlarse dentro del rango especificado por los parámetros de tráfico. Un nodo de red mantiene un estado para cada flujo de datos y realiza acciones basadas en este estado para garantizar el rendimiento garantizado de la aplicación.

 

Figura 3-1 modelo IntServ

031704pztiyli5h9433l9f.png?image.png

En el modelo IntServ, una red debe reservar una ruta dedicada para un servicio específico. El estado de reserva de recursos se llama estado suave. RSVP envía periódicamente un gran número de paquetes de protocolo para su detección para garantizar que la ruta no esté ocupada. Cada elemento de la red verifica si se pueden reservar suficientes recursos en función de estos mensajes RSVP. La ruta está disponible solo cuando todos los elementos de red involucrados pueden proporcionar recursos suficientes.

 

l  El modelo IntServ proporciona garantía de servicio E2E para servicios, y tiene ventajas y limitaciones:

 

l  Dificultad de implementación: el modelo IntServ requiere que todos los nodos de la red E2E sean compatibles con RSVP.

 

l  Bajo uso de recursos: se reserva una ruta para cada flujo de datos, lo que significa que una ruta solo puede servir a un flujo de datos pero no para multiplexar otros flujos de datos. Como resultado, los recursos de red limitados no se pueden utilizar completamente.

 

l  Uso de ancho de banda adicional: RSVP envía una gran cantidad de paquetes de protocolos para actualizaciones y detecciones periódicas para garantizar que la ruta no esté ocupada, lo que aumenta la carga de la red.


3.3 Modelo DiffServ

El IETF presentó el modelo de Servicios diferenciados (DiffServ) en 1998 para superar la escalabilidad del modelo IntServ.

 

Los servicios bancarios se utilizan como ejemplo. Se proporcionan tres niveles de usuario: centurión, dorado y usuarios de tarjetas comunes. El banco proporciona diferentes servicios basados en niveles de usuario. Los usuarios de la tarjeta Centurion pueden disfrutar de un servicio personalizado en una zona privada; los usuarios de la tarjeta dorada no pueden disfrutar de estos, pero tienen la prioridad de manejar el servicio; los usuarios de tarjetas comunes solo manejan servicios en colas. Se trata de los servicios diferenciados que presta un banco.

 

El modelo DiffServ clasifica el tráfico en una red en varias clases según las condiciones, o marca el tráfico con diferentes prioridades. Este método es similar al método de clasificar a los usuarios en usuarios de centurión, oro y tarjetas comunes. Cuando se produce la congestión de la red, se procesan diferentes clases según las prioridades para implementar servicios diferenciados. Los servicios de la misma clase se agregan y envían para garantizar los mismos indicadores de QoS, incluidos el retraso, la fluctuación de fase y el índice de pérdida de paquetes.

 

A diferencia del modelo IntServ, el modelo DiffServ no requiere un protocolo de señalización. En este modelo, una aplicación no necesita solicitar recursos de red antes de enviar paquetes. La clasificación y agregación de tráfico se completan en los nodos de borde. Los dispositivos posteriores identifican los servicios según la clasificación y proporcionan los servicios correspondientes.

 

La red actual lleva varios servicios. El modelo DiffServ es flexible y se adapta a la red actual. Por lo tanto, el modelo DiffServ se convierte en la solución principal en diseño y aplicaciones de QoS.

 

4 Componentes en el Modelo DiffServ

El modelo DiffServ involucra los siguientes mecanismos de QoS:

 

l  Clasificación y marcaje de tráfico.

 

La clasificación y el marcado del tráfico son requisitos previos para los servicios diferenciados. Los Switches pueden proporcionar servicios específicos basados en la clasificación.

 

l  Control de tráfico, configuración del tráfico y limitación de velocidad basada en la interfaz

 

La vigilancia de tráfico controla la tasa de tráfico dentro de un límite de ancho de banda. La vigilancia de tráfico descarta el exceso de tráfico cuando la tasa de tráfico supera el límite. Puede evitar que algunos servicios o usuarios ocupen un exceso de ancho de banda.

 

La configuración del tráfico ajusta la velocidad del tráfico saliente para reducir las ráfagas, de modo que el tráfico saliente pueda transmitirse a los dispositivos descendentes a una velocidad estable para evitar la pérdida innecesaria de paquetes y la congestión. El modelado del tráfico se usa a menudo en una interfaz en la dirección de salida.

 

La limitación de velocidad basada en la interfaz controla la velocidad total de todos los paquetes enviados o recibidos en una interfaz. Cuando el tipo de paquete no necesita ser clasificado aún más mientras que la velocidad total de los paquetes que pasan a través de una interfaz necesita ser controlada, la limitación de la velocidad basada en la interfaz puede simplificar la configuración.

 

l  Gestión de la congestión

La gestión de la congestión determina el orden de reenvío mediante un algoritmo de programación específico en caso de congestión de la red para garantizar que la red pueda recuperarse rápidamente. La gestión de la congestión se utiliza a menudo en una interfaz en la dirección de salida.

 

l  Evitar la congestión

 

La evitación de la congestión supervisa el uso de los recursos de red, como las colas y los buffers de memoria. Cuando se produce una congestión o se agrava, el sistema comienza a descartar paquetes. La evitación de la congestión se utiliza en una interfaz en la dirección de salida.

 

En conclusión, la clasificación de paquetes es el requisito previo para implementar servicios diferenciados. La vigilancia del tráfico, la configuración del tráfico y la limitación de la velocidad basada en la interfaz se utilizan para prevenir la congestión del tráfico, mientras que la gestión de la congestión y la evitación de la congestión se utilizan para eliminar la congestión del tráfico.

 

La siguiente figura muestra el orden en que los distintos mecanismos de QoS procesan el paquete.


 

Figura 4-1 Orden de procesamiento de QoS

031730hmumgs72dpir3mzs.png?image.png

5 Aplicación de QoS en una red empresarial

En una red empresarial, las tecnologías de QoS no necesitan aplicarse al mismo dispositivo, mientras que deben aplicarse a diferentes posiciones según los requisitos del servicio.

 

Figura 5-1 Implementación de QoS en una red empresarial

031741sp3npd1xp2ocr892.png?image.png

Las funciones de los dispositivos en diferentes capas son las siguientes:

 

l  Identificando servicios en la capa de acceso

 

El Switch de acceso LSW1 funciona como un Switch de borde. LSW1 necesita identificar, clasificar y marcar los flujos de datos en el lado de acceso, y realiza la gestión de congestión, evita la congestión y la configuración del tráfico en el lado de la red.


 

l  Proporcionar servicios diferenciados en la capa de agregación o núcleo

 

Las interfaces en la agregación o el Switch central están configuradas para confiar en los parámetros de QoS que se identifican en la capa de acceso. La agregación o el Switch central realizan políticas de QoS a través de la programación de colas, la configuración del tráfico y la prevención de congestión basadas en los parámetros de QoS en la capa de acceso, para garantizar que los servicios de alta prioridad se programen primero.

 

En la práctica, el despliegue de funciones específicas depende de los requisitos del servicio. En la Figura 5-1, la clasificación y el marcado pueden configurarse en el SwitchA para distinguir paquetes de diferentes departamentos, y la vigilancia de tráfico se usa en GE1 / 0/2 en la dirección de salida para limitar el tráfico que ingresa a la WAN. Si no necesita diferenciar paquetes de diferentes departamentos, puede implementar directamente la limitación de velocidad basada en la interfaz en GE1 / 0/2 en la dirección de salida para limitar el tráfico que ingresa a la WAN.

 

La misma tecnología QoS puede tener diferentes ámbitos de aplicación dependiendo de las ubicaciones. En la Figura 5-1, si se utiliza la limitación de velocidad basada en la interfaz en GE0 / 0/1 y GE0 / 0/2 de LSW1 en la dirección de salida, se garantiza el ancho de banda máximo para cada departamento 1 y departamento 2. Si la interfaz la limitación de velocidad basada se utiliza en GE0 / 0/1 del SwitchA en la dirección de entrada, el ancho de banda máximo está garantizado para el departamento 1 y el departamento 2 juntos.

 

6 Resumen

Los componentes de QoS no se corresponden con los indicadores de QoS uno por uno. Es decir, un componente de QoS no puede garantizar un indicador de QoS. En realidad, los componentes de QoS a menudo se combinan para garantizar la calidad del servicio. Por ejemplo, la clasificación y el marcado de paquetes proporcionan una base para implementar servicios diferenciados. La vigilancia del tráfico, la configuración del tráfico, la limitación de la velocidad basada en la interfaz y la gestión de la congestión y la evitación de la congestión controlan el tráfico de red y la asignación de recursos desde diferentes aspectos basados en la clasificación y el marcado de paquetes. El problema 2 describirá la Interfaz de línea de comandos de QoS modular (MQC).


  • x
  • convención:

Responder

Responder
Debe iniciar sesión para responder la publicación Inicio de sesi | Registrarse

Aviso: Para garantizar sus legítimos derechos e intereses, la comunidad y los terceros no publicarán contenido que pueda generar riesgos legales a las partes, por ejemplo, pornografía, contenido político, contenido sobre juego, consumo y tráfico de drogas, así como contenido que viole los derechos de propiedad intelectual de terceros, por ejemplo, secretos comerciales, marcas, derechos de autor, patentes y privacidad personal. No comparta su cuenta ni su contraseña con terceros. Todas las operaciones realizadas usando su cuenta se considerarán como sus acciones y todas las consecuencias que estas acciones generen serán responsabilidad suya. Para obtener información detallada, consulte la “ Política de privacidad.”
Si el botón para adjuntar no está disponible, actualice Adobe Flash Player con la versión más reciente

¡Ingresa y disfruta de todos los beneficios para los miembros!

Aterrizaje
Respuesta rápida Desplácese hasta arriba