Exponential Gewichtet Gleitender Durchschnitt Tcp


Cisco IOS Quality-of-Service-Lösungen Konfigurationsleitfaden, Version 12.2 Congestion-Vermeidungs-Übersicht Congestion-Vermeidungstechniken überwachen Netzwerkverkehrslasten, um Staus bei herkömmlichen Netzwerkengpässen zu antizipieren und zu vermeiden. Die Stauvermeidung wird durch Packet Drop erreicht. Zu den häufigeren Vermeidungsmechanismen für die Überlastung gehört die Random Early Detection (RED), die für Hochgeschwindigkeits-Transitnetze optimal ist. Cisco IOS QoS enthält eine Implementierung von RED, die, wenn konfiguriert, steuert, wenn der Router Pakete ablegt. Wenn Sie keine Weighted Random Early Detection (WRED) konfigurieren, verwendet der Router den groben Default-Paket-Drop-Mechanismus namens tail drop. Eine Erläuterung zur Netzwerküberlastung finden Sie im Kapitel "Quality of Service Overview. quot" Dieses Kapitel enthält eine kurze Beschreibung der Arten von Mechanismen zur Überlastvermeidung, die von den Cisco IOS QoS-Funktionen bereitgestellt werden. Es diskutiert die folgenden Merkmale: Schwanz fallen. Dies ist das Standardverstopfungsvermeidungsverhalten, wenn WRED nicht konfiguriert ist. WRED. WRED und verteilten WRED (DWRED), die beide die Cisco-Implementierungen von REDcombine die Fähigkeiten des RED-Algorithmus mit der IP Precedence-Funktion sind. In dem Abschnitt über WRED werden die folgenden verwandten Merkmale diskutiert: Durchflussbasierte WRED. Durchflussbasierte WRED erweitert WRED, um eine größere Fairness für alle Flüsse auf einer Schnittstelle in Bezug darauf zu bieten, wie Pakete fallengelassen werden. DiffServ konform WRED. DiffServ kompatibel WRED erweitert WRED um differenzierte Dienste (DiffServ) und Assured Forwarding (AF) pro Hopverhalten (PHB) zu unterstützen. Dieses Merkmal ermöglicht es den Kunden, AF-PHB durch Färben von Paketen gemäß differenzierten Dienstcode-Punkt-Werten (DSCP-Werten) zu implementieren, und dann Zuordnen von bevorzugten Tropfenwahrscheinlichkeiten zu diesen Paketen. Informationen zum Konfigurieren von WRED-, DWRED-, flowbasierten WRED - und DiffServ-kompatiblen WRED finden Sie im Kapitel "Konfigurieren von gewichteten Random Early Detectionquot "in diesem Buch. Tail Drop behandelt alle Verkehr gleichermaßen und unterscheidet nicht zwischen den Klassen des Dienstes. Warteschlangen füllen während Perioden der Überlastung. Wenn die Ausgangswarteschlange voll ist und der Schwanzabfall wirksam ist, werden die Pakete fallengelassen, bis die Überlastung beseitigt ist und die Warteschlange nicht mehr voll ist. Weighted Random Early Detection Dieser Abschnitt enthält eine kurze Einführung in RED-Konzepte und Adressen WRED, die Cisco-Implementierung von RED für Standard-Cisco-IOS-Plattformen. WRED vermeidet die Globalisierungsprobleme, die auftreten, wenn Schwanzabfall als Überlastungsmechanismus auf dem Router verwendet wird. Globale Synchronisation tritt als Wellen des Staukammes auf, denen nur Täler folgen, während denen die Übertragungsstrecke nicht vollständig genutzt wird. Globale Synchronisierung von TCP-Hosts kann beispielsweise auftreten, weil Pakete auf einmal gelöscht werden. Globale Synchronisation manifestiert sich, wenn mehrere TCP-Hosts ihre Übertragungsraten in Reaktion auf das Fallenlassen von Paketen reduzieren und dann ihre Übertragungsraten nochmals erhöhen, wenn die Überlastung reduziert wird. Über random Früherkennung Der RED-Mechanismus wurde von Sally Floyd und Van Jacobson in den frühen 1990er Jahren vorgeschlagen, um Netzwerk Staus in einer reaktionsfreudigen statt reaktive Weise zu adressieren. Der Grundgedanke des RED-Mechanismus ist die Prämisse, dass der meiste Verkehr auf Datentransportimplementierungen läuft, die empfindlich auf Verlust sind und vorübergehend verlangsamen, wenn etwas von ihrem Verkehr fallen gelassen wird. TCP, das durch Verlangsamung seiner Verkehrsübertragung in geeigneter Weise robust auf den Verkehrsabfall anspricht, ermöglicht effektiv das Verkehrstüchtigkeitsverhalten von RED als Mechanismus zur Überlastungsvermeidung. TCP ist der am stärksten verwendete Netzwerktransport. Angesichts der allgegenwärtigen Präsenz von TCP bietet RED einen weitverbreiteten, effektiven Mechanismus zur Vermeidung von Staus. Bei der Berücksichtigung der Nützlichkeit von RED, wenn robuste Transporte wie TCP sind allgegenwärtig, ist es wichtig, auch die ernst negativen Auswirkungen der Verwendung von RED, wenn ein erheblicher Prozentsatz des Verkehrs ist nicht robust in Reaktion auf Paketverlust zu berücksichtigen. Weder Novell NetWare noch AppleTalk sind als Antwort auf den Paketverlust angemessen robust, daher sollten Sie RED nicht für sie verwenden. Wie es funktioniert RED zielt darauf ab, die durchschnittliche Warteschlangengröße zu kontrollieren, indem es den End-Hosts angibt, wann sie die Übertragung von Paketen vorübergehend verlangsamen sollten. RED nutzt den Überlastungsmechanismus von TCP. Durch zufälliges Löschen von Paketen vor Perioden mit hoher Überlastung weist RED der Paketquelle an, ihre Übertragungsrate zu verringern. Unter der Annahme, dass die Paketquelle TCP verwendet, verringert sie ihre Übertragungsrate, bis alle Pakete ihr Ziel erreichen, was anzeigt, dass die Überlastung gelöscht wird. Sie können ROT als eine Möglichkeit verwenden, um zu bewirken, dass TCP die Übertragung von Paketen verlangsamt. TCP pausiert nicht nur, sondern es wird auch schnell neu gestartet und passt seine Übertragungsrate an die Geschwindigkeit an, die das Netzwerk unterstützen kann. RED verteilt Verluste in der Zeit und behält normalerweise niedrige Warteschlangen-Tiefe bei und absorbiert Spikes. Wenn auf einer Schnittstelle aktiviert, beginnt ROT, Pakete zu löschen, wenn Staus mit einer Rate auftritt, die Sie während der Konfiguration auswählen. Eine Erläuterung darüber, wie die Cisco WRED-Implementierung Parameter bestimmt, die in den WRED-Warteschlangengrößenberechnungen verwendet werden sollen und wie Sie optimale Werte für den Gewichtungsfaktor festlegen, finden Sie im Abschnitt " Packet Drop-Wahrscheinlichkeit Die Paketwahrscheinlichkeit basiert auf dem minimalen Schwellwert, dem maximalen Schwellenwert und dem Markierungswahrscheinlichkeits-Nenner. Wenn die durchschnittliche Warteschlangen-Tiefe oberhalb der minimalen Schwelle liegt, beginnt RED, Pakete zu löschen. Die Rate des Paketabfalls nimmt linear zu, wenn die durchschnittliche Warteschlangengröße zunimmt, bis die durchschnittliche Warteschlangengrße den maximalen Schwellenwert erreicht. Der Markierungswahrscheinlichkeits-Nenner ist der Bruchteil der Pakete, die fallengelassen werden, wenn die mittlere Warteschlangentiefe den maximalen Schwellenwert aufweist. Wenn beispielsweise der Nenner 512 ist, wird eines von 512 Paketen gelöscht, wenn die mittlere Warteschlange die maximale Schwelle hat. Wenn die durchschnittliche Warteschlangengröße oberhalb der maximalen Schwelle liegt, werden alle Pakete gelöscht. Fig. 9 faßt die Wahrscheinlichkeit des Paketabfalls zusammen. Abbildung 9 RED-Paket-Drop-Wahrscheinlichkeit Der minimale Schwellenwert sollte hoch genug eingestellt sein, um die Link-Auslastung zu maximieren. Wenn die minimale Schwelle zu niedrig ist, können Pakete unnötig fallengelassen werden und die Übertragungsstrecke wird nicht vollständig verwendet. Die Differenz zwischen dem maximalen Schwellenwert und dem minimalen Schwellenwert sollte groß genug sein, um eine globale Synchronisierung von TCP-Hosts zu vermeiden (globale Synchronisation von TCP-Hosts kann auftreten, wenn mehrere TCP-Hosts ihre Übertragungsraten reduzieren). Wenn die Differenz zwischen den maximalen und minimalen Schwellenwerten zu klein ist, können viele Pakete gleichzeitig gelöscht werden, was zu einer globalen Synchronisation führt. Wie TCP Handles Traffic Loss Hinweis Die Abschnitte "Wie TCP Handles Traffic Lossquot und quotHow der Router Interagiert mit TCPquot enthalten detaillierte Informationen, die Sie nicht lesen müssen, um WRED verwenden oder haben einen allgemeinen Sinn für die Fähigkeiten von RED. Wenn Sie verstehen möchten, warum Probleme der globalen Synchronisation in Reaktion auf Überlastung auftreten, wenn Schwanzabfall standardmäßig verwendet wird und wie RED diese adressiert, lesen Sie diese Abschnitte. Wenn der Empfänger des TCP-Verkehrs, der den Empfänger empfängt, ein Datensegment empfängt, überprüft es die vier Oktett - (32-Bit-) Sequenznummer dieses Segments gegen die erwartete Anzahl des Empfängers, was anzeigt, daß das Datensegment nacheinander empfangen wurde. Wenn die Zahlen übereinstimmen, liefert der Empfänger alle Daten, die er für die Zielanwendung hält, dann aktualisiert er die Sequenznummer, um die nächste Zahl in der Reihenfolge wiederzugeben, und schließlich sendet er entweder sofort ein Bestätigungs-Paket (ACK) an den Absender oder Plant er ein ACK, das nach einer kurzen Verzögerung an den Absender gesendet werden soll. Das ACK benachrichtigt den Absender, dass der Empfänger alle Datensegmente bis zu, aber nicht einschließlich der mit der neuen Sequenznummer markierten empfangen hat. Receiver versuchen in der Regel, ein ACK als Antwort auf alternierende Datensegmente zu senden, die sie erhalten, senden sie das ACK, weil für viele Anwendungen, wenn der Empfänger eine kleine Verzögerung wartet, kann es effizient enthalten, seine Antwortquittung auf eine normale Antwort auf den Absender. Wenn jedoch der Empfänger ein Datensegment außerhalb der Ordnung empfängt, reagiert es sofort mit einem ACK, um den Sender zu leiten, um das verlorene Datensegment erneut zu senden. Wenn der Absender ein ACK empfängt, macht er diese Bestimmung: Er bestimmt, ob irgendwelche Daten ausstehend sind. Wenn keine Daten vorhanden sind, bestimmt der Absender, dass das ACK ein Keepalive ist, um die Zeile aktiv zu halten, und es tut nichts. Wenn Daten ausstehen, bestimmt der Sender, ob der ACK anzeigt, dass der Empfänger einige oder keine Daten empfangen hat. Wenn der ACK den Empfang einiger gesendeter Daten anzeigt, bestimmt der Absender, ob neue Gutschriften erteilt wurden, damit er mehr Daten senden kann. Wenn der ACK den Empfang von keiner der gesendeten Daten anzeigt, und es sich um ausstehende Daten handelt, interpretiert der Sender das ACK als ein wiederholt gesendetes ACK. Diese Bedingung zeigt an, daß einige Daten außer Betrieb waren, was den Empfänger zwang, das erste ACK zu übergeben, und daß ein zweites Datensegment außer Betrieb gesetzt wurde, was den Empfänger zwang, das zweite ACK zu übergeben. In den meisten Fällen empfängt der Empfänger zwei Segmente außer Betrieb, weil eines der Datensegmente fallen gelassen worden ist. Wenn ein TCP-Sender ein gelöschtes Datensegment erkennt, sendet er das Segment erneut. Dann passt es seine Übertragungsrate auf die Hälfte von dem, was war, bevor der Tropfen erkannt wurde. Dies ist das TCP-Backoff - oder Abbremsverhalten. Obwohl dieses Verhalten angemessen auf Überlastung reagiert, können Probleme auftreten, wenn mehrere TCP-Sitzungen gleichzeitig mit demselben Router durchgeführt werden und alle TCP-Absender die Übertragung von Paketen zur gleichen Zeit verlangsamen. Wie der Router mit TCP interagiert Hinweis In den Abschnitten "How TCP Handles Traffic Lossquot und quotHow der Router Interagiert mit TCPquot enthalten detaillierte Informationen, die Sie nicht lesen müssen, um WRED verwenden oder einen allgemeinen Sinn für die Fähigkeiten von RED haben. Wenn Sie verstehen möchten, warum Probleme der globalen Synchronisation in Reaktion auf Überlastung auftreten, wenn Schwanzabfall standardmäßig verwendet wird und wie RED diese adressiert, lesen Sie diese Abschnitte. Um zu sehen, wie der Router mit TCP interagiert, betrachten wir ein Beispiel. In diesem Beispiel empfängt der Router durchschnittlich den Verkehr von einem bestimmten TCP-Strom zu jeder anderen, jede 10. und jede 100. oder 200. Nachricht in der Schnittstelle in MAE-EAST oder FIX-WEST. Ein Router kann mehrere gleichzeitige TCP-Sitzungen verarbeiten. Da Netzwerkströme additiv sind, besteht eine hohe Wahrscheinlichkeit, dass, wenn der Traffic die Sende-Warteschlangengrenze (TQL) überschreitet, die Grenze erheblich überschritten wird. Es besteht jedoch auch eine hohe Wahrscheinlichkeit, dass die übermäßige Verkehrstiefe vorübergehend ist und dass der Verkehr nicht übermäßig tief bleibt, außer an den Punkten, an denen der Verkehr fließt oder an den Kantenroutern. Wenn der Router den gesamten Traffic, der die TQL übersteigt, abfällt, wie dies bei der Verwendung von Default-Drop geschieht, werden viele TCP-Sitzungen gleichzeitig in einen langsamen Start gehen. Folglich verlangsamt sich der Datenverkehr zeitweilig bis zum Extremum, und dann fließt alles langsam wieder. Diese Aktivität erzeugt einen Zustand der globalen Synchronisation. Wenn jedoch der Router keinen Verkehr absenkt, wie es der Fall ist, wenn Warteschlangenmerkmale wie faire Warteschlangen oder benutzerdefinierte Warteschlangen (CQ) verwendet werden, werden die Daten wahrscheinlich im Hauptspeicher gespeichert, wodurch die Routerleistung drastisch verschlechtert wird. Durch das Richten einer TCP-Sitzung zu einer Zeit, um langsamer zu werden, löst RED die beschriebenen Probleme, was die volle Ausnutzung der Bandbreite ermöglicht, anstatt die Nutzung als Kämme und Täler des Verkehrs zu manifestieren. Über WRED WRED kombiniert die Fähigkeiten des RED-Algorithmus mit der IP Precedence-Funktion, um eine bevorzugte Datenverkehrsbehandlung mit Paketen höherer Priorität zu ermöglichen. WRED kann selektiv Verkehr mit niedrigerer Priorität verwerfen, wenn die Schnittstelle anfängt, verstopft zu werden und differenzierte Leistungsmerkmale für verschiedene Dienstklassen bereitzustellen. Sie können WRED so konfigurieren, dass die IP-Priorität ignoriert wird, wenn Drop-Entscheidungen getroffen werden, damit das nicht gewichtete RED-Verhalten erreicht wird. Für Schnittstellen, die für die Verwendung der Resource Reservation Protocol (RSVP) - Funktion konfiguriert sind, wählt WRED Pakete von anderen Flüssen, um statt der RSVP-Flows zu fallen. Außerdem regelt IP Precedence, welche Pakete fallengelassen werden. Traffic, der eine niedrigere Priorität hat, hat eine höhere Drop-Rate und wird daher eher zurückgedreht. WRED unterscheidet sich von anderen Verfahren zur Vermeidung von Überlastungen, wie z. B. Warteschlangen-Strategien, weil es versucht, Staus zu antizipieren und zu vermeiden, anstatt die Stauung zu kontrollieren, sobald es auftritt. Warum WRED WRED macht eine frühe Erkennung von Staus möglich und bietet mehrere Klassen von Verkehr. Es schützt auch vor globaler Synchronisation. Aus diesen Gründen ist WRED auf jeder Ausgabeschnittstelle nützlich, von der erwartet wird, dass eine Überlastung eintritt. WRED wird jedoch gewöhnlich in den Kernroutern eines Netzwerks und nicht am Rand des Netzwerks verwendet. Edge Router weisen den Pakete beim Eingeben des Netzwerks IP-Prioritäten zu. WRED verwendet diese Vorgaben, um zu bestimmen, wie verschiedene Arten von Verkehr zu behandeln. WRED bietet separate Schwellenwerte und Gewichte für verschiedene IP-Prioritäten, so dass Sie verschiedene Qualitäten des Dienstes in Bezug auf Paket fallen für verschiedene Traffic-Typen bieten. Standard-Verkehr kann häufiger fallen als Premium-Verkehr in Zeiten der Staus. WRED ist auch RSVP-bewusst, und es kann die kontrollierte Last QoS Service von integrierten Service. Wie es funktioniert Durch das zufällige Löschen von Paketen vor Perioden hoher Überlastung, sagt WRED der Paketquelle, ihre Übertragungsrate zu verringern. Wenn die Paketquelle TCP verwendet, verringert sie ihre Übertragungsrate, bis alle Pakete ihr Ziel erreichen, was anzeigt, dass die Überlastung gelöscht wird. WRED fällt in der Regel Pakete selektiv auf IP-Priorität. Pakete mit einer höheren IP-Priorität werden weniger wahrscheinlich fallengelassen als Pakete mit einer niedrigeren Priorität. Je höher die Priorität eines Pakets ist, desto höher ist die Wahrscheinlichkeit, dass das Paket geliefert wird. WRED verringert die Chancen des Schwanzabfalls durch selektives Löschen von Paketen, wenn die Ausgabeschnittstelle beginnt, Anzeichen einer Überlastung zu zeigen. Durch das Löschen einiger Pakete früh, anstatt zu warten, bis die Warteschlange voll ist, vermeidet WRED das Fallen einer großen Anzahl von Paketen auf einmal und minimiert die Chancen der globalen Synchronisation. Somit ermöglicht WRED, dass die Übertragungsleitung zu jeder Zeit vollständig verwendet werden kann. Darüber hinaus fällt WRED statistisch mehr Pakete von großen Benutzern als kleine. Daher werden Verkehrsquellen, die den meisten Verkehr generieren, eher verlangsamt als Verkehrsquellen, die wenig Verkehr erzeugen. WRED vermeidet die Globalisierungsprobleme, die auftreten, wenn Schwanzabfall als Stauvermeidungsmechanismus verwendet wird. Globale Synchronisation manifestiert sich, wenn mehrere TCP-Hosts ihre Übertragungsraten reduzieren, wenn das Paket fallengelassen wird, und erhöhen Sie dann ihre Übertragungsraten noch einmal, wenn die Überlastung reduziert wird. WRED ist nur nützlich, wenn der Großteil des Verkehrs TCPIP-Verkehr ist. Mit TCP, fallengelassene Pakete anzeigen Überlastung, so dass die Paketquelle wird ihre Übertragungsrate zu reduzieren. Bei anderen Protokollen reagieren Paketquellen möglicherweise nicht oder können die übertragenen Pakete mit derselben Rate erneut senden. Somit verringert das Löschen von Paketen nicht die Überlastung. WRED behandelt Nicht-IP-Verkehr als Priorität 0, die niedrigste Priorität. Daher ist der Non-IP-Verkehr im Allgemeinen eher zu fallen gelassen als IP-Verkehr. Abbildung 10 zeigt, wie WRED arbeitet. Abbildung 10 Gewichtete Random Early Detection Average Queue Größe Der Router ermittelt automatisch Parameter, die in den WRED-Berechnungen verwendet werden sollen. Die durchschnittliche Warteschlangengröße basiert auf dem vorherigen Durchschnitt und der aktuellen Größe der Warteschlange. Die Formel lautet: wobei n der exponentielle Gewichtsfaktor ist, ein benutzerkonfigurierbarer Wert. Für hohe Werte von n. Wird der vorherige Durchschnitt wichtiger. Ein großer Faktor glättet die Spitzen und Tiefs in der Warteschlange Länge. Die durchschnittliche Warteschlange Größe ist unwahrscheinlich, dass sich sehr schnell ändern, wodurch drastische Schwankungen in der Größe. Der WRED-Prozess wird langsam sein, um das Löschen von Paketen zu starten, aber es kann weiterhin das Fallenlassen von Paketen für eine Zeit unterbrechen, nachdem die tatsächliche Warteschlangengröße unter die minimale Schwelle gefallen ist. Der langsame Durchschnitt wird vorübergehende Ausbrüche im Verkehr unterbringen. Hinweis Wenn der Wert von n zu hoch wird, reagiert WRED nicht auf Überlastung. Pakete werden gesendet oder fallen gelassen, als ob WRED nicht in Kraft waren. Für niedrige Werte von n. Die durchschnittliche Warteschlangengröße genau die aktuelle Warteschlangengröße verfolgt. Der daraus resultierende Durchschnitt kann mit Änderungen im Verkehrsniveau schwanken. In diesem Fall reagiert der WRED-Prozess schnell auf lange Warteschlangen. Sobald die Warteschlange unter die minimale Schwelle fällt, stoppt der Prozess das Löschen von Paketen. Wenn der Wert von n zu niedrig wird, wird WRED auf zeitweilige Verkehrsstöße überreagieren und Verkehr unnötig fallenlassen. Einschränkungen Sie können WRED nicht auf derselben Schnittstelle wie RSP (Rout Switching Processor), CQ, Priority Queuing (PQ) oder gewichtete Fair Queuing (WFQ) konfigurieren. Verteiltes Weighted Random Early Detection Distributed WRED (DWRED) ist eine Implementierung von WRED für den vielseitigen Schnittstellenprozessor (VIP). DWRED bietet den vollständigen Satz von Funktionen für das VIP, das WRED auf Standard-Cisco-IOS-Plattformen bereitstellt. Die DWRED-Funktion wird nur auf Routern der Cisco 7000-Serie mit RSP-basiertem RSP7000-Schnittstellenprozessor und Cisco-Routern der Serie 7500 mit VIP-basiertem VIP2-40 oder höherem Schnittstellenprozessor unterstützt. Ein VIP2-50 Schnittstellenprozessor wird dringend empfohlen, wenn die Gesamtlinienrate der Portadapter auf dem VIP größer als DS3 ist. Für OC-3-Raten ist ein VIP2-50-Schnittstellenprozessor erforderlich. DWRED ist genauso konfiguriert wie WRED. Wenn Sie WRED auf einer geeigneten VIP-Schnittstelle wie einem VIP2-40 oder höher mit mindestens 2 MB SRAM aktivieren, wird DWRED stattdessen aktiviert. Für die Verwendung von DWRED muss auf der Schnittstelle eine dezentrale Cisco Express Forwarding (dCEF) - Schaltung aktiviert sein. Informationen über dCEF finden Sie im Cisco IOS Switching Services-Konfigurationshandbuch und in der Cisco IOS Switching Services-Befehlsreferenz. Sie können sowohl DWRED als auch verteilte, gewichtete Fair Queueing (DWFQ) auf derselben Schnittstelle konfigurieren, aber Sie können nicht verteilte WRED auf einer Schnittstelle konfigurieren, für die RSP-basierte CQ, PQ oder WFQ konfiguriert ist. Sie können DWRED mit der modularen QoS-Befehlszeilenschnittstelle (Modular QoS CLI) aktivieren. Ausführliche Konfigurations - und Konfigurationsinformationen zur Funktionalität von Modular QoS CLI finden Sie im Kapitel "Servicequalität der Befehlszeilenschnittstelle". Wie es funktioniert Wenn ein Paket ankommt und DWRED aktiviert ist, treten die folgenden Ereignisse auf: Die durchschnittliche Warteschlangengröße wird berechnet. Weitere Informationen hierzu finden Sie im Abschnitt "Quantitative Queue Sizequot". Wenn der Durchschnitt kleiner als der minimale Warteschlangenschwellenwert ist, wird das ankommende Paket in die Warteschlange gestellt. Wenn der Durchschnitt zwischen dem minimalen Warteschlangen-Schwellenwert und dem maximalen Warteschlangen-Schwellenwert liegt, wird das Paket entweder fallen gelassen oder in die Warteschlange eingereiht, abhängig von der Wahrscheinlichkeit des Paketausfalls. Details finden Sie im AbschnittPacket-Drop Probabilityquot. Wenn die durchschnittliche Warteschlangengröße größer als die maximale Warteschlangenschwelle ist, wird das Paket automatisch gelöscht. Durchschnittliche Warteschlangengröße Die durchschnittliche Warteschlangengröße basiert auf dem vorherigen Durchschnitt und der aktuellen Größe der Warteschlange. Die Formel lautet: wobei n der exponentielle Gewichtsfaktor ist, ein benutzerkonfigurierbarer Wert. Für hohe Werte von n. Wird die vorhergehende durchschnittliche Warteschlangengröße wichtiger. Ein großer Faktor glättet die Spitzen und Tiefs in der Warteschlange Länge. Die durchschnittliche Warteschlange Größe ist unwahrscheinlich, dass sich sehr schnell ändern, wodurch drastische Schwankungen in der Größe. Der WRED-Prozess wird langsam sein, um das Löschen von Paketen zu starten, aber es kann weiterhin das Fallenlassen von Paketen für eine Zeit unterbrechen, nachdem die tatsächliche Warteschlangengröße unter die minimale Schwelle gefallen ist. Der langsame Durchschnitt wird vorübergehende Ausbrüche im Verkehr unterbringen. Hinweis Wenn der Wert von n zu hoch wird, reagiert WRED nicht auf Überlastung. Pakete werden gesendet oder fallen gelassen, als ob WRED nicht in Kraft waren. Für niedrige Werte von n. Die durchschnittliche Warteschlangengröße genau die aktuelle Warteschlangengröße verfolgt. Der daraus resultierende Durchschnitt kann mit Änderungen im Verkehrsniveau schwanken. In diesem Fall reagiert der WRED-Prozess schnell auf lange Warteschlangen. Sobald die Warteschlange unter die minimale Schwelle fällt, stoppt das Verfahren das Fallenlassen von Paketen. Wenn der Wert von n zu niedrig wird, wird WRED auf zeitweilige Verkehrsstöße überreagieren und Verkehr unnötig fallenlassen. Packet-Drop-Wahrscheinlichkeit Die Wahrscheinlichkeit, dass ein Paket fallengelassen wird, basiert auf dem minimalen Schwellwert, dem maximalen Schwellenwert und dem Markierungswahrscheinlichkeits-Nenner. Wenn die durchschnittliche Warteschlangengröße über dem minimalen Schwellenwert liegt, beginnt ROT, Pakete zu löschen. Die Rate des Paketabfalls nimmt linear zu, wenn die durchschnittliche Warteschlangengröße zunimmt, bis die durchschnittliche Warteschlangengrße den maximalen Schwellenwert erreicht. Der Markierungswahrscheinlichkeits-Nenner ist der Bruchteil der Pakete, die fallengelassen werden, wenn die durchschnittliche Warteschlangengröße an der maximalen Schwelle ist. Wenn beispielsweise der Nenner 512 ist, wird eines von 512 Paketen gelöscht, wenn die mittlere Warteschlange die maximale Schwelle hat. Wenn die durchschnittliche Warteschlangengröße oberhalb der maximalen Schwelle liegt, werden alle Pakete gelöscht. Abbildung 11 fasst die Paketwahrscheinlichkeit zusammen. Abbildung 11 Packet Drop-Wahrscheinlichkeit Der minimale Schwellwert sollte hoch genug eingestellt sein, um die Linkauslastung zu maximieren. Wenn die minimale Schwelle zu niedrig ist, können Pakete unnötig fallengelassen werden und die Übertragungsstrecke wird nicht vollständig verwendet. Die Differenz zwischen dem maximalen Schwellenwert und dem minimalen Schwellenwert sollte groß genug sein, um eine globale Synchronisierung von TCP-Hosts zu vermeiden (globale Synchronisation von TCP-Hosts kann auftreten, wenn mehrere TCP-Hosts ihre Übertragungsraten reduzieren). Wenn die Differenz zwischen den maximalen und minimalen Schwellenwerten zu klein ist, können viele Pakete gleichzeitig gelöscht werden, was zu einer globalen Synchronisation führt. Warum DWRED DWRED bietet eine schnellere Leistung als RSP-basierte WRED. Sie sollten DWRED auf dem VIP ausführen, wenn Sie z. B. auf der Cisco 7500 Series-Plattform eine sehr hohe Geschwindigkeit erreichen wollen, können Sie Geschwindigkeit bei den OC-3-Raten erzielen, indem Sie WRED auf einem VIP2-50-Schnittstellenprozessor ausführen. Darüber hinaus gelten die gleichen Gründe, die Sie WRED auf Standard-Cisco-IOS-Plattformen verwenden würden, für die Verwendung von DWRED. (Wenn Sie WRED oder DWRED nicht konfiguriert haben, wird der Schwanzabfall in Perioden der Überlastung durchgeführt. Die Aktivierung von DWRED beseitigt die globalen Synchronisierungsprobleme, die auftreten, wenn ein Heckabfall verwendet wird, um eine Überlastung zu vermeiden. Die DWRED-Funktion bietet den Vorteil gleichmäßiger Verkehrsströme. Wenn RED nicht konfiguriert ist, füllen die Ausgabepuffer während Perioden der Überlastung. Wenn die Puffer voll sind, werden Schwanzabfall alle zusätzlichen Pakete fallen gelassen. Da die Pakete alle gleichzeitig gelöscht werden, kann eine globale Synchronisierung von TCP-Hosts auftreten, da mehrere TCP-Hosts ihre Übertragungsraten reduzieren. Die Überlastung wird gelöscht, und die TCP-Hosts erhöhen ihre Übertragungsraten, was zu Wellen von Staus führt, gefolgt von Perioden, wenn die Übertragungsstrecke nicht vollständig verwendet wird. RED reduziert die Chancen des Schwanzabfalls durch selektives Löschen von Paketen, wenn die Ausgangsschnittstelle beginnt, Anzeichen einer Überlastung zu zeigen. Durch das Fallenlassen einiger Pakete früh, anstatt zu warten, bis der Puffer voll ist, vermeidet RED das Fallen einer großen Anzahl von Paketen auf einmal und minimiert die Chancen der globalen Synchronisation. Somit ermöglicht RED, dass die Übertragungsleitung zu jeder Zeit vollständig verwendet werden kann. Zusätzlich verringert RED statistisch mehr Pakete von den großen Benutzern als klein. Daher werden Verkehrsquellen, die den meisten Verkehr generieren, eher abgebremst als Verkehrsquellen, die wenig Verkehr erzeugen. DWRED bietet separate Schwellenwerte und Gewichte für verschiedene IP-Prioritäten, so dass Sie verschiedene Qualitäten der Dienstleistung für verschiedene Traffic bieten. Standard-Verkehr kann häufiger fallen als Premium-Verkehr in Zeiten der Staus. Einschränkungen Für die DWRED-Funktion gelten folgende Einschränkungen: Schnittstellenbasiertes DWRED kann nicht auf einer Subschnittstelle konfiguriert werden. (Eine Unterschnittstelle ist eine von mehreren virtuellen Schnittstellen auf einer einzigen physikalischen Schnittstelle.) DWRED wird auf Fast EtherChannel - und Tunnelschnittstellen nicht unterstützt. RSVP wird auf DWRED nicht unterstützt. DWRED ist nur nützlich, wenn der Großteil des Verkehrs TCPIP-Verkehr ist. Mit TCP, fallen gelassene Pakete Staus, so dass die Paketquelle reduziert ihre Übertragungsrate. Bei anderen Protokollen reagieren Paketquellen möglicherweise nicht oder können die übertragenen Pakete mit derselben Rate erneut senden. Somit verringert das Löschen von Paketen nicht notwendigerweise die Überlastung. DWRED behandelt Nicht-IP-Verkehr als Priorität 0, die niedrigste Priorität. Daher wird der Non-IP-Verkehr in der Regel eher als IP-Verkehr fallengelassen. DWRED kann nicht auf der gleichen Schnittstelle wie RSP-basierte CQ, PQ oder WFQ konfiguriert werden. DWRED und DWFQ können jedoch auf der gleichen Schnittstelle konfiguriert werden. Hinweis Verwenden Sie nicht den Befehl match protocol, um eine Traffic-Klasse mit einem Non-IP-Protokoll als Übereinstimmungskriterium zu erstellen. Das VIP unterstützt keine Abstimmung von Nicht-IP-Protokollen. Voraussetzungen Dieser Abschnitt enthält die Voraussetzungen, die erfüllt sein müssen, bevor Sie die DWRED-Funktion konfigurieren. Weighted Fair Queuing Das Anhängen einer Servicerichtlinie an eine Schnittstelle deaktiviert WFQ auf dieser Schnittstelle, wenn WFQ für die Schnittstelle konfiguriert ist. Aus diesem Grund sollten Sie sicherstellen, dass WFQ auf einer solchen Schnittstelle nicht aktiviert ist, bevor Sie DWRED konfigurieren. Das Anhängen einer Servicerichtlinie, die für die Verwendung von WRED an einer Schnittstelle konfiguriert ist, deaktiviert WRED auf dieser Schnittstelle. Wenn eine der Verkehrsklassen, die Sie in einer Richtlinienzuordnung konfigurieren, WRED für Paketdrop anstelle von tail drop verwenden, müssen Sie sicherstellen, dass WRED nicht auf der Schnittstelle konfiguriert ist, an die Sie diese Dienstrichtlinie anfügen möchten. Zugriffssteuerungslisten Sie können eine nummerierte Zugriffsliste als Übereinstimmungskriterium für jede von Ihnen erstellte Verkehrsklasse angeben. Aus diesem Grund sollten Sie vor dem Konfigurieren von DWRED wissen, wie Sie Zugriffslisten konfigurieren. Cisco Express Forwarding Um DWRED verwenden zu können, muss an der Schnittstelle das dCEF-Switching aktiviert sein. Informationen zu dCEF finden Sie im Cisco IOS Switching Services-Konfigurationshandbuch. Durchflussbasierte WRED Durchflussbasierte WRED ist eine Funktion, die WRED zwingt, eine größere Fairness für alle Flüsse auf einer Schnittstelle in Bezug darauf zu gewährleisten, wie Pakete fallengelassen werden. Warum verwenden flowbasierte WRED Bevor Sie die Vorteile der Verwendung von flowbasierten WRED-Angeboten berücksichtigen, ist es hilfreich, darüber nachzudenken, wie WRED (ohne flowbasiertes WRED konfiguriert) verschiedene Arten von Paketströmen beeinflusst. Noch bevor flussbasierte WRED-Paketströme klassifiziert werden, können Strömungen als zu einer der folgenden Kategorien gehören betrachtet werden: Nicht-adaptive Ströme, die Ströme sind, die nicht auf Staus reagieren. Robuste Ströme, die im Durchschnitt eine einheitliche Datenrate aufweisen und sich infolge von Überlastung verlangsamen. Zerbrechliche Ströme, die, obwohl stauungsbewusst, weniger Pakete an einem Gateway gepuffert haben als robuste Ströme. WRED tendiert zur Vorspannung gegenüber fragilen Strömen, da alle Ströme, sogar solche mit relativ wenigen Paketen in der Ausgangswarteschlange, während der Perioden der Stauung anfällig für einen Paketabfall sind. Obwohl zerbrechliche Ströme weniger gepufferte Pakete aufweisen, werden sie mit der gleichen Rate fallengelassen wie Pakete anderer Ströme. Um eine flächenbasierte WRED zu gewährleisten, hat sie folgende Eigenschaften: Sie stellt sicher, dass Ströme, die auf WRED-Paket-Tropfen reagieren (durch Sichern der Paketübertragung), vor Flüssen geschützt sind, die nicht auf WRED-Pakettropfen antworten. Es verbietet einen einzigen Fluß, die Pufferressourcen an einer Schnittstelle zu monopolisieren. Wie es funktioniert Durchflussbasierte WRED basiert auf den folgenden zwei Hauptansätzen, um das Problem des unfairen Pakettransports zu beheben: Er klassifiziert eingehenden Datenverkehr in Flüsse basierend auf Parametern wie Ziel - und Quelladressen und Ports. Es behält Zustand über aktive Flüsse, die Flüsse sind, die Pakete in den Ausgangswarteschlangen haben. Durchflussbasierte WRED verwendet diese Klassifizierungs - und Zustandsinformationen, um sicherzustellen, dass jeder Fluss nicht mehr als den zugelassenen Anteil der Ausgabepufferressourcen verbraucht. Flow-basierte WRED bestimmt, welche Flüsse monopolisieren Ressourcen und es stärker bestraft diese Flüsse. Um die Fairness zwischen den Strömen zu gewährleisten, behält die strömungsbasierte WRED die Anzahl der aktiven Ströme, die über eine Ausgangsschnittstelle existieren, bei. Angesichts der Anzahl der aktiven Ströme und der Ausgabewarteschlangengröße bestimmt die strömungsbasierte WRED die Anzahl der verfügbaren Puffer pro Durchfluss. Um eine gewisse Bündelung zu ermöglichen, skaliert das strömungsbasierte WRED die Anzahl der verfügbaren Puffer pro Durchfluss durch einen konfigurierten Faktor und ermöglicht es jedem aktiven Fluss, eine bestimmte Anzahl von Paketen in der Ausgangswarteschlange zu haben. Dieser Skalierungsfaktor ist allen Flüssen gemeinsam. Das Ergebnis der skalierten Anzahl von Puffern wird die Durchflussgrenze. Wenn ein Durchfluss die Durchflussgrenze überschreitet, erhöht sich die Wahrscheinlichkeit, dass ein Paket von diesem Durchfluss fallen gelassen wird. DiffServ-kompatibel WRED DiffServ-kompatibel WRED erweitert die Funktionalität von WRED, um Unterstützung für DiffServ - und AF-Per-Hop-Verhalten PHB zu ermöglichen. Dieses Merkmal ermöglicht es dem Kunden, AF-PHB durch Färben von Paketen gemäß DSCP-Werten zu implementieren, und dann Zuordnen von bevorzugten Tropfenwahrscheinlichkeiten zu diesen Paketen. Hinweis Diese Funktion kann nur für IP-Pakete verwendet werden. Es ist nicht für den Einsatz mit Multiprotocol Label Switching (MPLS) - verkapselten Paketen gedacht. Die Class-Based Quality of Service MIB unterstützt diese Funktion. Diese MIB ist eigentlich die folgenden zwei MIBs: Die DiffServ-kompatible WRED-Funktion unterstützt die folgenden RFCs: RFC 2474, Definition des differenzierten Services Field (DS-Feld) in den IPv4 und IPv6 Headers RFC 2475, eine Architektur für differenzierte Services Framework RFC 2597, Gesicherte Weiterleitung PHB RFC 2598, eine beschleunigte Weiterleitung PHB Wie es funktioniert Die DiffServ konforme WRED-Funktion ermöglicht es WRED, den DSCP-Wert zu verwenden, wenn er die Abfallwahrscheinlichkeit für ein Paket berechnet. Der DSCP-Wert ist die ersten sechs Bits des IP-Typs des Dienstes (ToS) - Bytes. Diese Funktion fügt zwei neue Befehle, random-detect dscp und dscp. Es fügt auch zwei neue Argumente, dscp-basierte und prä-basiert. Zu zwei bestehenden WRED-bezogenen Befehlen aus dem Befehl random-detect (interface) und dem Befehl random-detect-group. Das dscp-basierte Argument ermöglicht WRED, den DSCP-Wert eines Pakets zu verwenden, wenn es die Fallwahrscheinlichkeit für das Paket berechnet. Das prä-basierte Argument ermöglicht es WRED, den IP Precedence-Wert eines Pakets zu verwenden, wenn er die Fallwahrscheinlichkeit für das Paket berechnet. Diese Argumente sind optional (Sie brauchen keine von ihnen verwenden, um die Befehle zu verwenden), aber sie schließen sich auch gegenseitig aus. Das heißt, wenn Sie das dscp-basierte Argument verwenden, können Sie das pre-based Argument mit demselben Befehl nicht verwenden. Nachdem Sie WRED aktiviert haben, den DSCP-Wert zu verwenden, können Sie den neuen Befehl random-detect dscp verwenden, um die minimalen und maximalen Paketschwellen für diesen DSCP-Wert zu ändern. Drei Szenarien für die Verwendung dieser Argumente werden zur Verfügung gestellt. Usage Scenarios The new dscp-based and prec-based arguments can be used whether you are using WRED at the interface level, at the per-virtual circuit (VC) level, or at the class level (as part of class-based WFQ (CBWFQ) with policy maps). WRED at the Interface Level At the interface level, if you want to have WRED use the DSCP value when it calculates the drop probability, you can use the dscp-based argument with the random-detect (interface) command to specify the DSCP value. Then use the random-detect dscp command to specify the minimum and maximum thresholds for the DSCP value. WRED at the per-VC Level At the per-VC level, if you want to have WRED use the DSCP value when it calculates the drop probability, you can use the dscp-based argument with the random-detect-group command. Then use the dscp command to specify the minimum and maximum thresholds for the DSCP value or the mark-probability denominator. This configuration can then be applied to each VC in the network. WRED at the Class Level If you are using WRED at the class level (with CBWFQ), the dscp-based and prec-based arguments can be used within the policy map. First, specify the policy map, the class, and the bandwidth. Then, if you want WRED to use the DSCP value when it calculates the drop probability, use the dscp-based argument with the random-detect (interface) command to specify the DSCP value. Then use the random-detect dscp command to modify the default minimum and maximum thresholds for the DSCP value. This configuration can then be applied wherever policy maps are attached (for example, at the interface level, the per-VC level, or the shaper level). Usage Points to Note Remember the following points when using the new commands and the new arguments included with this feature: If you use the dscp-based argument, WRED will use the DSCP value to calculate the drop probability. If you use the prec-based argument, WRED will use the IP Precedence value to calculate the drop probability. The dscp-based and prec-based arguments are mutually exclusive. If you do not specify either argument, WRED will use the IP Precedence value to calculate the drop probability (the default method). The random-detect dscp command must be used in conjunction with the random-detect (interface) command. The random-detect dscp command can only be used if you use the dscp-based argument with the random-detect (interface) command. The dscp command must be used in conjunction with the random-detect-group command. The dscp command can only be used if you use the dscp-based argument with the random-detect-group command. For more information about using these commands, refer to the Cisco IOS Quality of Service Command Reference. Cisco IOS Quality of Service Solutions Command Reference, Release 12.2 Quality of Service Commands Use the commands in this chapter to configure quality of service (QoS), a measure of performance for a transmission system that reflects its transmission quality and service availability. The commands are arranged alphabetically. For QoS configuration information and examples, refer to the Cisco IOS Quality of Service Solutions Configuration Guide . access-list rate-limit To configure an access list for use with committed access rate (CAR) policies, use the access-list rate-limit global configuration command. To remove the access list from the configuration, use the no form of this command. access-list rate-limit acl-index precedence mac-address exp mask mask no access-list rate-limit acl-index precedence mac-address exp mask mask Syntax Description Usage Guidelines Use this command to classify packets by the specified IP precedence, MAC address, or MPLS experimental field values for a particular CAR access list. You can then apply CAR policies, using the rate-limit command, to individual rate-limit access list causing packets with different IP precedences, MAC addresses, or MPLS experimental field values to be treated differently by the CAR process. You can specify only one command for each rate-limit access list. If you enter this command multiple times with the same access list number, the new command overwrites the previous command. Use the mask keyword to assign multiple IP precedences or MPLS experimental field values to the same rate-limit access list. To determine the mask value, perform the following steps: Step 1 Decide which precedences you want to assign to this rate-limit access list. Step 2 Convert the precedences or MPLS experimental field values into an 8-bit numbers with each bit corresponding to one value. For example, an MPLS experimental field value of 0 corresponds to 00000001, 1 corresponds to 00000010, 6 corresponds to 01000000, and 7 corresponds to 10000000. Step 3 Add the 8-bit numbers for the selected MPLS experimental field values. For example, the mask for MPLS experimental field values 1 and 6 is 01000010. Step 4 The command expects hexadecimal format. Convert the binary mask into the corresponding hexadecimal number. For example, 01000010 becomes 42. This value is used in the access-list rate-limit command. Any packets that have an MPLS experimental field value of 1 or 6 will match this access list. A mask of FF matches any precedence, and 00 does not match any precedence. The following example assigns any packets with a MAC address of 00e0.34b0.7777 to rate-limit access list 100: The following example assigns packets with an IP Precedence of 0, 1, or 2 to the rate-limit access list 25: In the following example, MPLS experimental fields with the value of 7 are assigned to the rate-limit access list 200: You can then use the rate-limit access list in a rate-limit command so that the rate limit is applied only to packets matching the rate-limit access list: Related Commands Usage Guidelines You use the bandwidth command when you configure a policy map for a class defined by the class-map command. The bandwidth command specifies the bandwidth for traffic in that class. Class-based weighted fair queueing (CBWFQ) derives the weight for packets belonging to the class from the bandwidth allocated to the class. CBWFQ then uses the weight to ensure that the queue for the class is serviced fairly. Specifying Bandwidth as a Percentage Besides specifying the amount of bandwidth in kbps, you can assign bandwidth as a percentage of the available bandwidth. During periods of congestion, the classes are serviced in proportion to their configured bandwidth percentages. Available bandwidth is equal to the interface bandwidth minus the sum of all bandwidths reserved by Resource Reservation Protocol (RSVP), IP RTP Priority, and low latency queueing (LLQ). Note It is important to remember that hard bandwidth guarantees may not be provided and only relative bandwidths are assured. That is, class bandwidths are always proportional to the specified percentages of the interface bandwidth. When the link bandwidth is fixed, class bandwidth guarantees are in proportion to the configured percentages. If the link bandwidth is unknown or variable, class bandwidth guarantees in kbps cannot be computed. Configuring bandwidth in percentages is most useful when the underlying link bandwidth is unknown or the relative class bandwidth distributions are known. For interfaces that have adaptive shaping rates (such as available bit rate ABR virtual circuits), CBWFQ can be configured by configuring class bandwidths in percentages. Bandwidth Command Restrictions The following restrictions apply to the bandwidth command: If the percent keyword is used, the sum of the class bandwidth percentages cannot exceed 100 percent. The amount of bandwidth configured should be large enough to also accommodate Layer 2 overhead. A policy map can have all the class bandwidths specified in kbps or all the class bandwidths specified in percentages, but not a mix of both. However, the unit for the priority command in the priority class can be different from the bandwidth unit of the low priority class. The IP RTP Priority and RSVP features can be configured in kbps only. For more information on bandwidth allocation, refer to the chapter quotCongestion Management Overviewquot in the Cisco IOS Quality of Service Solutions Configuration Guide . Note that when the policy map containing class policy configurations is attached to the interface to stipulate the service policy for that interface, available bandwidth is assessed. If a policy map cannot be attached to a particular interface because of insufficient interface bandwidth, then the policy is removed from all interfaces to which it was successfully attached. The bandwidth command can be used with the Modular Command-Line Interface (MQC) to specify the bandwidth for a particular class. When used with the MQC, the bandwidth command uses a default queue limit for the class. This queue limit can be modified using the queue-limit command, thereby overriding the default set by the bandwidth command. Note Using the queue-limit command to modify the default queue-limit is especially important for higher-speed interfaces, in order to meet the minimum bandwidth guarantees required by the interface. The following example modifies the bandwidth for a class called acl22. The default class belongs to a service policy map called polmap6. CBWFQ Bandwidth Guarantee The following example illustrates how bandwidth is guaranteed when only CBWFQ is configured: The following output from the show policy-map interface command shows that 50 percent of the interface bandwidth is guaranteed for class1 and 25 percent is guaranteed for class2: In this example, the entire interface bandwidth is available for CBWFQ because RSVP, IP RTP Priority, and LLQ are not enabled. If this policy map is attached to a physical interface, the available bandwidth is equal to the link bandwidth. During periods of congestion, 50 percent of the link bandwidth is guaranteed to class1 and 25 percent of the link bandwidth is guaranteed to class2. For example, if this policy map was attached to a 1 Mbps link, class1 would be guaranteed 500 kbps and class2 would be guaranteed 250 kbps during periods of congestion. CBWFQ and LLQ Bandwidth Allocation The following example illustrates how bandwidth is guaranteed if LLQ is configured with CBWFQ. Remember, the available bandwidth for CBWFQ is the link bandwidth minus the sum of the bandwidths reserved by RSVP, LLQ, and IP RTP Priority. In this example, LLQ is enabled in a third class called voice1: The following output from the show policy-map command shows that 50 percent of the interface bandwidth is guaranteed for the class called class1, 25 percent is guaranteed for the class called class2, and 500 kbps is guaranteed for the class called voice1: Because LLQ reserved 500 kbps of the interface bandwidth, if you attach this policy map to an interface with 2 Mbps, only 1.5 Mbps is available for CBWFQ classes. In this example, 50 percent of 1.5 Mbps (750 kbps) is guaranteed for class1 and 25 percent (375 kbps) is guaranteed for class2. The remaining 25 percent of the available bandwidth (375 kbps) is shared by class1, class2, and any best-effort traffic. Related Commands Usage Guidelines Use the bump command in bundle-vc configuration mode to configure bumping rules for a discrete VC bundle member or in vc-class configuration mode to configure a VC class that can be assigned to a bundle member. The effects of different bumping configuration approaches are as follows: Implicit bumping: If you configure implicit bumping, bumped traffic is sent to the VC configured to handle the next lower precedence level. When the original VC that bumped the traffic comes back up, traffic it is configured to carry is restored to it. When no other positive forms of the bump command are configured, the bump implicit command takes effect. Explicit bumping: If you configure a VC with the bump explici t command, you can specify the precedence level to which traffic on a VC will be bumped when that VC goes down, and the traffic will be directed to a VC mapped with that precedence level. If the VC that picks up and carries the traffic goes down, the traffic is subject to the bumping rules for that VC. You can specify only one precedence level for bumping. Bumped traffic: The VC accepts bumped traffic. You can configure bumped traffic explicitly using either the bump traffic or the no bump traffic command, or let the default take effect by specifying neither. No bumped traffic: To configure a discrete VC to reject bumped traffic when the traffic is directed to the VC, use the no bump traffic command. Note When no alternative VC can be found to handle bumped traffic, the bundle is declared down. To avoid this occurrence, configure explicitly the bundle member VC that has the lowest precedence level. To use this command in vc-class configuration mode, you must enter the vc-class atm global configuration command before you enter this command. To use this command to configure an individual bundle member in bundle-vc configuration mode, first enter the bundle command to enact bundle configuration mode for the bundle to which you want to add or modify the VC member to be configured. Then, use the pvc-bundle command to specify the VC to be created or modified and enter bundle-vc configuration mode. This command has no effect if the VC class that contains the command is attached to a standalone VC, that is, if the VC is not a bundle member. In this case, the attributes are ignored by the VC. VCs in a VC bundle are subject to the following configuration inheritance guidelines (listed in order of next highest precedence): VC configuration in bundle-vc mode Bundle configuration in bundle mode (with effect of assigned vc-class configuration) Subinterface configuration in subinterface mode The following example configures the class called premium-class to define parameters applicable to a VC in a bundle. Unless overridden with a bundle-vc bump configuration, the VC that uses this class will not allow other traffic to be bumped onto it. Related Commands Usage Guidelines From within bundle configuration mode you can configure the characteristics and attributes of the bundle and its members, such as the encapsulation type for all virtual circuits (VCs) in the bundle, the bundle management parameters, the service type, and so on. Attributes and parameters you configure in bundle configuration mode are applied to all virtual circuit (VC) members of the bundle. VCs in a VC bundle are subject to the following configuration inheritance guidelines (listed in order of next highest precedence): VC configuration in bundle-vc mode Bundle configuration in bundle mode Subinterface configuration in subinterface mode To display status on bundles, use the show atm bundle and show atm bundle statistics commands. The following example configures a bundle called new-york. The example specifies the IP address of the subinterface and the router protocolthe router uses Intermediate System-to-Intermediate System (IS-IS) as an IP routing protocolthen configures the bundle. Related Commands Usage Guidelines Policy Map Configuration Mode Within a policy map, the class (policy-map) command can be used to specify the name of the class whose policy you want to create or change. First, the policy map must be identified. To identify the policy map (and enter the required QoS policy-map configuration mode), use the policy-map command before you use the class (policy-map) command. After you specify a policy map, you can configure policy for new classes or modify the policy for any existing classes in that policy map. The class name that you specify in the policy map ties the characteristics for that classthat is, its policyto the class map and its match criteria, as configured using the class-map command. When you configure policy for a class and specify its bandwidth and attach the policy map to an interface, class-based weighted fair queueing (CBWFQ) determines if the bandwidth requirement of the class can be satisfied. If so, CBWFQ allocates a queue for the bandwidth requirement. When a class is removed, available bandwidth for the interface is incremented by the amount previously allocated to the class. The maximum number of classes you can configure for a routerand, therefore, within a policy mapis 64. Predefined Default Class The predefined default class called class-default is available for you to use. The class class-default is the class to which traffic is directed if that traffic does not match any of the match criteria in the configured class maps. Tail Drop or WRED You can define a class policy to use either tail drop by using the queue-limit command or Weighted Random Early Detection (WRED) by using the random-detect command. When using either tail drop or WRED, note the following points: The queue-limit and random-detect commands cannot be used in the same class policy, but they can be used in two class policies in the same policy map. You can configure the bandwidth command when either the queue-limit or the random-detect command is configured in a class policy. The bandwidth command specifies the amount of bandwidth allocated for the class. For the predefined default class, you can configure the fair-queue (class-default) command. The fair-queue command specifies the number of dynamic queues for the default class. The fair-queue command can be used in the same class policy as either the queue-limit or random-detect command. It cannot be used with the bandwidth command. The following example configures three class policies included in the policy map called policy1. Class1 specifies policy for traffic that matches access control list 136. Class2 specifies policy for traffic on interface ethernet101. The third class is the default class to which packets that do not satisfy configured match criteria are directed. Class1 has these characteristics: A minimum of 2000 kbps of bandwidth are expected to be delivered to this class in the event of congestion, and the queue reserved for this class can enqueue 40 packets before tail drop is enacted to handle additional packets. Class2 has these characteristics: A minimum of 3000 kbps of bandwidth are expected to be delivered to this class in the event of congestion, and a weight factor of 10 is used to calculate the average queue size. For congestion avoidance, WRED packet drop is used, not tail drop. The default class has these characteristics: 16 dynamic queues are reserved for traffic that does not meet the match criteria of other classes whose policy is defined by the policy map called policy1, and a maximum of 20 packets per queue are enqueued before tail drop is enacted to handle additional packets. Note Note that when the policy map containing these classes is attached to the interface to stipulate the service policy for that interface, available bandwidth is assessed, taking into account all class policies and Resource Reservation Protocol (RSVP), if configured. The following example configures policy for the default class included in the policy map called policy2. The default class has these characteristics: 20 dynamic queues are available for traffic that does not meet the match criteria of other classes whose policy is defined by the policy map called policy2, and a weight factor of 14 is used to calculate the average queue size. For congestion avoidance, WRED packet drop is used, not tail drop. The following example configures policy for a class called acl136 included in the policy map called policy1. Class acl136 has these characteristics: a minimum of 2000 kbps of bandwidth are expected to be delivered to this class in the event of congestion, and the queue reserved for this class can enqueue 40 packets before tail drop is enacted to handle additional packets. Note that when the policy map containing this class is attached to the interface to stipulate the service policy for that interface, available bandwidth is assessed, taking into account all class policies and RSVP, if configured. The following example configures policy for a class called int101 included in the policy map called policy8. Class int101 has these characteristics: a minimum of 3000 kbps of bandwidth are expected to be delivered to this class in the event of congestion, and a weight factor of 10 is used to calculate the average queue size. For congestion avoidance, WRED packet drop is used, not tail drop. Note that when the policy map containing this class is attached to the interface to stipulate the service policy for that interface, available bandwidth is assessed. The following example configures policy for the class-default default class included in the policy map called policy1. The class-default default class has these characteristics: 10 hashed queues for traffic that does not meet the match criteria of other classes whose policy is defined by the policy map called policy1, and a maximum of 20 packets per queue before tail drop is enacted to handle additional enqueued packets. The following example configures policy for the class-default default class included in the policy map called policy8. The class-default default class has these characteristics: 20 hashed queues for traffic that does not meet the match criteria of other classes whose policy is defined by the policy map called policy8, and a weight factor of 14 is used to calculate the average queue size. For congestion avoidance, WRED packet drop is used, not tail drop. Related Commands Usage Guidelines To use this command, you must first enter the bundle command to create the bundle and enter bundle configuration mode. Use this command to assign a previously defined set of parameters (defined in a VC class) to an ATM VC bundle. Parameters set through bundle-level commands contained in a VC class are applied to the bundle and its VC members. You can add the following commands to a VC class to be used to configure a VC bundle: oam-bundle . broadcast . encapsulation . protocol . oam retry, and inarp . Bundle-level parameters applied through commands configured directly on a bundle supersede bundle-level parameters applied through a VC class by the class-bundle command. Some bundle-level parameters applied through a VC class or directly to the bundle can be superseded by commands that you directly apply to individual VCs in bundle-vc configuration mode. In the following example, a class called class1 is first created and then applied to the bundle called bundle1: Taking into account hierarchy precedence rules, VCs belonging to the bundle1 bundle will be characterized by these parameters: aal5snap, encapsulation, broadcast on, use of Inverse Address Resolution Protocol (Inverse ARP) to resolve IP addresses, and Operation, Administration, and Maintenance (OAM) enabled. Related Commands Usage Guidelines Use this command to specify the name of the class for which you want to create or modify class map match criteria. Use of the class-map command enables class-map configuration mode in which you can enter one of the match commands to configure the match criteria for this class. Packets arriving at either the input or output interface (determined by how the service-policy command is configured) are checked against the match criteria configured for a class map to determine if the packet belongs to that class. When configuring a class map, you can use one or more match commands to specify match criteria. For example, you can use the match access-group command, the match protocol command, or the match input-interface command. The match commands vary according to the Cisco IOS release. For more information about match criteria and match commands, refer to the quotModular Quality of Service Command-Line Interface (CLI)quot chapter of the Cisco IOS Quality of Service Solutions Configuration Guide . The following example specifies class101 as the name of a class, and it defines a class map for this class. The class called class101 specifies policy for traffic that matches access control list 101. Related Commands The destination port. Note Port numbers are specified in all cases, because the use of 16-bit ports following the IP header is not limited to UDP or TCP. If destination is zero, source must be zero, and the implication is that ports are not checked. If destination is nonzero, source must be nonzero (except for wildcard filter (wf) reservations, for which the source port is always ignored and can therefore be zero). The source port. Note Port numbers are specified in all cases, because the use of 16-bit ports following the IP header is not limited to UDP or TCP. If destination is zero, source must be zero, and the implication is that ports are not checked. If destination is nonzero, source must be nonzero (except for wildcard filter (wf) reservations, for which the source port is always ignored and can therefore be zero). Usage Guidelines Use the clear ip rsvp reservation command to remove the RESV-related sender information currently in the database so that when reservation requests arrive, based on the RSVP admission policy, the relevant ones can be reestablished. Whenever you change the clockrate or bandwidth of an interface, RSVP does not update its database to reflect the change. This is because such a change requires that RSVP reestablish reservations based on the new clockrate or bandwidth value and arbitrarily dropping some reservations while retaining others is not desired. The solution is to clear the RESV state by issuing the clear ip rsvp reservation command. The clear ip rsvp reservation command clears the RESV state from the router on which you issued the command and causes the router to send a PATH TEAR message to the upstream routers thereby clearing the RESV state for that reservation on all the upstream routers. The following example clears all the RESV-related receiver information currently in the database: Router clear ip rsvp reservation The following example clears all the RESV-related receiver information for a specified reservation currently in the database: Router clear ip rsvp reservation 10.2.1.1 10.1.1.2 udp 10 20 Related Commands The destination port. Note Port numbers are specified in all cases, because the use of 16-bit ports following the IP header is not limited to UDP or TCP. If destination is zero, source must be zero, and the implication is that ports are not checked. If destination is nonzero, source must be nonzero (except for wildcard filter (wf) reservations, for which the source port is always ignored and can therefore be zero). The source port. Note Port numbers are specified in all cases, because the use of 16-bit ports following the IP header is not limited to UDP or TCP. If destination is zero, source must be zero, and the implication is that ports are not checked. If destination is nonzero, source must be nonzero (except for wildcard filter (wf) reservations, for which the source port is always ignored and can therefore be zero). Usage Guidelines Use the clear ip rsvp sender command to remove the PATH-related sender information currently in the database so that when reservation requests arrive, based on the RSVP admission policy, the relevant ones can be reestablished. Whenever you change the clockrate or bandwidth of an interface, RSVP does not update its database to reflect the change. This is because such a change requires that RSVP reestablish reservations based on the new clockrate or bandwidth value and arbitrarily dropping some reservations while retaining others is not desired. The solution is to clear the PATH state by issuing the clear ip rsvp sender command. The clear ip rsvp sender command clears the PATH state from the router on which you issued the command and causes the router to send a PATH TEAR message to the downstream routers thereby clearing the PATH state for that reservation on all the downstream routers. The following example clears all the PATH-related sender information currently in the database: Router clear ip rsvp sender The following example clears all the PATH-related sender information for a specified reservation currently in the database: Router clear ip rsvp sender 10.2.1.1 10.1.1.2 udp 10 20 Related Commands Usage Guidelines Only one queue list can be assigned per interface. Use this command in place of the priority-list interface command (not in addition to it). Custom queueing allows a fairness not provided with priority queueing. With custom queueing, you can control the bandwidth available on the interface when the interface is unable to accommodate the aggregate traffic enqueued. Associated with each output queue is a configurable byte count, which specifies how many bytes of data should be delivered from the current queue by the system before the system moves on to the next queue. When a particular queue is being processed, packets are sent until the number of bytes sent exceeds the queue byte count or until the queue is empty. Use the show queueing custom and show interfaces commands to display the current status of the custom output queues. In the following example, custom queue list number 3 is assigned to serial interface 0: Related Commands Establishes queueing priorities on packets entering from a given interface. Assigns a priority queue for those packets that do not match any other rule in the queue list. Establishes queueing priorities on packets entering on an interface. queue-list queue byte-count Specifies how many bytes the system allows to be delivered from a given queue during a particular cycle. Usage Guidelines Use the disconnect qdm command to disconnect all QDM clients that are connected to the router. Use the disconnect qdm client client-id command to disconnect a specific QDM client connected to a router. For instance, using the disconnect qdm client 42 command will disconnect the QDM client with the ID 42. The following example shows how to disconnect all connected QDM clients: The following example shows how to disconnect a specific QDM client with client ID 9: Related Commands show qdm status Displays the status of connected QDM clients. To change the minimum and maximum packet thresholds for the differentiated services code point (DSCP) value, use the dscp command in cfg-red-grp configuration mode. To return the minimum and maximum packet thresholds to the default for the DSCP value, use the no form of this command. dscp dscpvalue min-threshold max-threshold mark-probability-denominator no dscp dscpvalue min-threshold max-threshold mark-probability-denominator Syntax Description Specifies the DSCP value. The DSCP value can be a number from 0 to 63, or it can be one of the following keywords: ef . af11 . af12 . af13 . af21 . af22 . af23 . af31 . af32 . af33 . af41 . af42 . af43 . cs1 . cs2 . cs3 . cs4 . cs5 . or cs7 . Minimum threshold in number of packets. The value range of this argument is from 1 to 4096. When the average queue length reaches the minimum threshold, Weighted Random Early Detection (WRED) randomly drops some packets with the specified DSCP value. Maximum threshold in number of packets. The value range of this argument is the value of the min-threshold argument to 4096. When the average queue length exceeds the maximum threshold, WRED drops all packets with the specified DSCP value. (Optional) Denominator for the fraction of packets dropped when the average queue depth is at the maximum threshold. For example, if the denominator is 512, one out of every 512 packets is dropped when the average queue is at the maximum threshold. The value range is from 1 to 65536. The default is 10 one out of every ten packets is dropped at the maximum threshold. If WRED is using the DSCP value to calculate the drop probability of a packet, all entries of the DSCP table are initialized with the default settings shown in Table 3 in the quotUsage Guidelinesquot section of this command. Command Modes Command History Usage Guidelines When used, this command is issued after the random-detect-group command is entered. Use this command to change the exponent used in the average queue size calculation for a WRED parameter group. The average queue size is based on the previous average and the current size of the queue. The formula is: where x is the exponential weight factor specified in this command. Thus, the higher the factor, the more dependent the average is on the previous average. Note The default WRED parameter values are based on the best available data. We recommend that you do not change the parameters from their default values unless you have determined that your applications would benefit from the changed values. For high values of x . the previous average becomes more important. A large factor smooths out the peaks and lows in queue length. The average queue size is unlikely to change very quickly. The WRED process will be slow to start dropping packets, but it may continue dropping packets for a time after the actual queue size has fallen below the minimum threshold. The resulting slow-moving average will accommodate temporary bursts in traffic. If the value of x gets too high, WRED will not react to congestion. Packets will be sent or dropped as if WRED were not in effect. For low values of x . the average queue size closely tracks the current queue size. The resulting average may fluctuate with changes in the traffic levels. In this case, the WRED process will respond quickly to long queues. Once the queue falls below the minimum threshold, the process will stop dropping packets. If the value of x gets too low, WRED will overreact to temporary traffic bursts and drop traffic unnecessarily. The following example configures the WRED group called sanjose with a weight factor of 10: Related Commands Usage Guidelines On a VIP, the fair-queue command can be used for any traffic class (as opposed to non-VIP platforms, which can only use the fair-queue command in the default traffic class). The fair-queue command can be used in conjunction with either the queue-limi t command or the random-detect exponential-weighting-constant command. The following example configures the default traffic class for the policy map called policy9 to reserve ten queues for packets that do not satisfy match criteria specified for other traffic classes whose policy is configured in the same service policy. Because the queue-limit command is configured, tail drop is used for each queue when the maximum number of packets is enqueued and additional packets arrive. The following example configures a service policy called policy8 that is associated with a user-defined traffic class called class1. The fair-queue command reserves 20 queues to be used for the service policy. For congestion avoidance, Weighted Random Early Detection (WRED) or distributed WRED (DWRED) packet drop is used, not tail drop. Related Commands It is important to note that IP Precedence, congestion in Frame Relay switching, and discard eligible (DE) flags affect the weights used for queueing. IP Precedence, which is set by the host or by policy maps, is a number in the range from 0 to 7. Data streams of precedence number are weighted so that they are given an effective bit rate of number 1 times as fast as a data stream of precedence 0, which is normal. In Frame Relay switching, message flags for forward explicit congestion notification (FECN), backward explicit congestion notification (BECN), and DE message flags cause the algorithm to select weights that effectively impose reduced queue priority. The reduced queue priority provides the application with quotslow downquot feedback and sorts traffic, giving the best service to applications within their committed information rate (CIR). Fair queueing is supported for all LAN and line (WAN) protocols except X.25, including LAPB and SDLC see the notes in the section quotDefaults. quot Because tunnels are software interfaces that are themselves routed over physical interfaces, fair queueing is not supported for tunnels. Fair queueing is on by default for interfaces with bandwidth less than or equal to 2 Mbps. Note For Release 10.3 and earlier releases for the Cisco 7000 and 7500 routers with a Route Switch Processor (RSP) card, if you used the tx-queue-limit command to set the transmit limit available to an interface on a Multiport Communications Interface (MCI) or serial port communications interface (SCI) card and you configured custom queueing or priority queueing for that interface, the configured transmit limit was automatically overridden and set to 1. With Cisco IOS Release 12.0 and later releases, for WFQ, custom queueing, and priority queueing, the configured transmit limit is derived from the bandwidth value set for the interface using the bandwidth (interface) command. Bandwidth value divided by 512 rounded up yields the effective transmit limit. However, the derived value only applies in the absence of a tx-queue-limit command that is, a configured transmit limit overrides this derivation. When Resource Reservation Protocol (RSVP) is configured on an interface that supports fair queueing or on an interface that is configured for fair queueing with the reservable queues set to 0 (the default), the reservable queue size is automatically configured using the following method: interface bandwidth divided by 32 kbps. You can override this default by specifying a reservable queue other than 0. For more information on RSVP, refer to the chapter quotConfiguring RSVPquot in the Cisco IOS Quality of Service Solutions Configuration Guide . The following example enables use of WFQ on serial interface 0, with a congestive threshold of 300. This threshold means that messages will be discarded from the queueing system only when 300 or more messages have been queued and the message is in a data stream that has more than one message in the queue. The transmit queue limit is set to 2, based on the 384-kilobit (Kb) line set by the bandwidth command: Unspecified parameters take the default values. The following example requests a fair queue with a congestive discard threshold of 64 messages, 512 dynamic queues, and 18 RSVP queues: Related Commands

Comments

Popular Posts