Atlassian Data Center: Mit diesen Selbstschutzmechanismen punktet On-Prem

Intelligentes Ressourcenmanagement dank Rate Limiting

22. November 2022
Es zahlt sich aus, Sicherheitsvorkehrungen zu treffen – gerade in der IT. Wenn dir deine Systeme den Rücken freihalten, kannst du viel Zeit sparen, die du sonst damit verbracht hättest, geschehene Fehler wieder auszubügeln. Genau dafür gibt es integrierte Selbstschutzmechanismen im Atlassian Data Center, die dafür sorgen, dass deine technische Infrastruktur glatt läuft. Wir zeigen dir, was hinter diesen Mechanismen steckt und wie du von ihnen profitieren kannst.

Sicher kennst du das – an einem Arbeitstag gehen dir unzählige Aufgaben, Erinnerungen und Prozesse durch den Kopf. Es gibt so vieles, das du im Blick behalten willst, in das du Energie investierst, damit es richtig gut wird. Und das ist oft alles andere als einfach! Doch wir haben eine gute Nachricht für dich: Du kannst dir das (Arbeits-)Leben leichter machen! Dazu kann eine Software oder ein System eine ganze Menge beitragen. Daher stellen wir dir heute die Selbstschutzmechanismen im Atlassian Data Center vor, die dir im Arbeitsalltag den Rücken freihalten.

 

Stabilität und Performance im Data Center

Oft kann es nämlich ganz schnell gehen: Trotz aller Bemühungen, die Stabilität und Performance deiner Software-Systeme zu optimieren, kann eine einzige Person, manchmal gar ein einziger Klick, alles zum Stillstand bringen, deine Instanz crashen und damit die produktive Arbeit deiner Teams lahmlegen.

Wir wollen nicht direkt den Teufel an die Wand malen, aber tatsächlich lauert diese Gefahr in nahezu allen modernen Enterprise-Organisationen. Wenn dein Unternehmen skaliert, dann steigt in Folge dessen auch die Anzahl der REST-API-Requests und anderer CPU-intensiver Aktionen. Und damit werden Vorfälle wie oben beschrieben leider immer wahrscheinlicher.

Mit den Atlassian-Lösungen der Data-Center-Produktlinie kannst du dieses Risiko auf ein Minimum reduzieren. Mit der Cluster-basierten Infrastruktur und den nativen Failover-Vorkehrungen sichert das Data Center Stabilität und Performance. Hinzu kommen weitere, mächtige Selbstschutzmechanismen, wie etwa Rate Limiting für Confluence, Jira Software, Jira Service Desk und Bitbucket oder der externe Prozess-Pool für Confluence. All diese Mechanismen helfen dir dabei, die Sicherheit deiner unternehmenskritischen Systeme zu erhöhen und Gefahren – egal ob in Form unbeabsichtigter Fehler oder böswilliger Manipulation – abzuwehren.

 

Die Gefahr überlasteter Systeme

Die hohen CPU-Spitzen durch zahlreiche REST-API-Abfragen sind eine der häufigsten Problemquellen von On-Premises-Instanzen. Diese Spitzen lassen sich häufig nicht verhindern, doch Data Center bringt Technologien mit sich, die das System selbst in die Lage versetzen, Vorkehrungen gegen HTTP-REST-API-Requests und -Flooding zu treffen. Dazu zählt u. a. Rate Limiting, was einen automatischen Schutz gegen diese Bedrohung bietet. Darüber hinaus adressiert der externe Prozess-Pool für Confluence ein spezifisches Set an speicher- oder CPU-intensiven Aktionen.

Der Selbstschutz für Atlassian Data Center entschärft diverse Ursachen für Performance-Einbrüche und Ausfälle:

  • zu häufig auftretende REST-API-Abrufe
  • zu häufig auftretende REST-API-Requests, die große Datenmengen auf einzelne Abfragen ausgeben (was an sich schon kritisch ist)
  • schlecht geschriebene Skripte oder externe Automatisierungen, die APIs zu häufig abfragen oder Daten nicht cachen
  • Thumbnail-Generierung, Datei-Vorschauen und PDF-Exporte für Confluence (externer Prozess-Pool)

Für große und skalierende Enterprise-Systeme wird es immer Gefahren und Bedrohungen geben, doch Atlassian Data Center stellt sicher, dass Vorfälle im Zusammenhang mit REST-APIs nicht dazugehören. Allerdings stellt sich die Frage: Wie genau funktionieren die Selbstschutzmechanismen des Data Centers?

 

Ein Blick hinter die Kulissen Teil 1: Alles im „Eimer“

Wenn du diese Überschrift liest, denkst du sicherlich, dass etwas gescheitert ist (oder du erinnerst dich vielleicht an den gleichnamigen Film aus den 80ern). Doch es geht hierbei um den Token-Bucket-Algorithmus, der es ermöglicht, die Rate des ein- und ausgehenden HTTP-Traffics zu kontrollieren und dich so vor API-Flooding zu schützen.

Und so funktioniert der Algorithmus: Alle User erhalten einen gefüllten (einzigartigen) Token Bucket, den du dir wirklich wie einen vollen Eimer vorstellen kannst. Jedes Mal, wenn eine HTTP-Abfrage gestellt wird, wird ein Token aus dem Eimer entfernt. Der Eimer wird also leerer. Mit der Zeit häufen sich allerdings auch wieder neue Token mit einer konstanten Rate – der Wiederauffüllrate des Token Buckets – bis der Eimer wieder voll ist.
So weit, so gut. Nun können Admins global und auf User-Basis spezifische Grenzwerte für die erlaubte Zahl an Requests für einen spezifischen Zeitraum konfigurieren. Das System erlaubt Requests nur dann, wenn ein User ausreichend Token in seinem Eimer hat. Der Token-Bucket-Algorithmus funktioniert also ähnlich wie ein Währungssystem.

 

Atlassian Data Center Selbstschutzmechanismen

 

Ein Blick hinter die Kulissen Teil 2: Zeit für eine Pool-Party

Analog zum Bild des Eimers geht es natürlich nicht um einen Swimmingpool, sondern um den externen Prozess-Pool für Confluence. Dieser minimiert den Einfluss bestimmter Aktionen, die als CPU-intensiv bekannt sind – etwa das Generieren von Thumbnails, die Vorschau von Dateien oder das Exportieren von PDFs. Das System handhabt diese Aktionen in einem separaten Prozess-Pool, der von Confluence verwaltet wird.

Das bedeutet: Sobald Prozesse einfrieren oder abbrechen, startet Confluence sie automatisch neu, ohne dass es zu Beeinträchtigungen für die User oder die Anwendungen selbst kommt. Dabei lässt sich der Prozess-Pool konfigurieren und erlaubt es dir, sowohl die Größe des Pools als auch die Speichermenge, die ein Prozess beanspruchen kann, festzulegen.

 

Die Vorteile dieser Vorkehrungen

Das Zauberwort lautet also: Begrenzung! Bei Rate Limiting handelt es sich um ein mächtiges und robustes Feature, das einige Vorteile bietet, die über die reine Kontrolle von Rate und Traffic hinausgehen:

Sichtbarkeit und Informationen: Je mehr du als Admin über dein System weißt, desto eher kannst du die Rolle der “Feuerwehr” ablegen und in die eines strategischen Partners schlüpfen. Du kannst sehen, wer von Rate Limiting betroffen ist, wie oft Requests limitiert werden und wann User zuletzt von dieser Funktion gestoppt werden mussten. Admins haben dadurch die Chance, Trends zu identifizieren, “Wiederholungstäter*innen” ausfindig zu machen (und entsprechend zu schulen) und auf ein insgesamt besseres User-Erlebnis hinzuarbeiten.

Sicherheit und Kontrolle: Rate Limiting erweitert die Unternehmensinstanz um eine neue, zusätzliche Sicherheits- und Kontrollebene. Dank der hinzugekommenen Konfigurationsoptionen können Admins individuellen Anforderungen Rechnung tragen oder User einfach auf eine Erlaubnisliste setzen. Dabei bieten Jira und Confluence eine Block-Listing-Option.

 

Atlassian Data Center Selbstschutzmechanismen 2

 

Stabilität und Performance: Sowohl der Token-Bucket-Algorithmus als auch der externe Prozess-Pool tragen durch die Regulierung des CPU-Volumens dazu bei, dass dein Enterprise-System stabiler, zuverlässiger und performanter läuft. Beide Features wurden außerdem so ausgelegt, dass ihre eigenen Einflüsse auf die System-Performance zu vernachlässigen sind.

 

Fazit

Mit der Skalierung deines Unternehmens wächst auch die Notwendigkeit, deine Anwendungen vor Bedrohungen zu schützen. Die Selbstschutzmechanismen des Atlassian Data Centers unterstützen dich dabei, indem sie einige der häufigsten Worst-Case-Vorfälle nativ ausschließen. Damit kannst du IT-Ausfälle vermeiden und ein gutes digitales Arbeitsumfeld für deine Teams und User sicherstellen.

 

Wir sind dein Partner für Atlassian Data Center

Hast du Fragen rund um Atlassian Data Center? Wir helfen dir gerne dabei, zu beurteilen, ob ein Wechsel von Server zu Data Center für dein Unternehmen sinnvoll ist: Als Atlassian Platinum Solution Partner mit Erfahrungen aus tausenden Atlassian-Projekten beraten wir dich bei der Evaluation eines Lizenzmodells, das optimal auf dein Unternehmen passt, kümmern uns um sämtliche Details deines Lizenz-Set-ups und unterstützen dich bei der Skalierung deiner Atlassian-Produkte. Nimm einfach Kontakt zu uns auf!