Sie sind hier:
News, Cloud, Allgemein
Es gibt meist drei Dinge, die sich IT-Leiter beim Auslagern von Datenbanken von einem externen Hoster wünschen:
Schauen wir uns im Detail an, wie diese drei Ziele beim Datenbank-Hosting durch den richtigen Aufbau der Infrastruktur und die optimale Auswahl von hochwertigen Komponenten erreicht werden können:
Der Aufbau der Infrastruktur hängt stark mit der gewünschten Verfügbarkeit und Performance des Datenbank Services zusammen, ebenso mit deren Skalierbarkeit. Beliebt sind deshalb dedizierte Single-Container-Datenbanken. Diese haben eine hohe Performance, lassen sich leicht skalieren und sind damit sehr flexibel.
Im Single-Container-Setup bekommt der Container dynamisch mehr Compute Ressourcen (mehr CPU, RAM und DiskIIO) und kann damit dynamisch skaliert werden. Wenn ein Host ausfällt, auf dem der Container gerade läuft, wird dieser innerhalb von Sekunden automatisch auf einem anderen Host neu erstellt und die Datenbank ist wieder verfügbar.
Die Verfügbarkeit liegt bei diesem Modell bei 99,9% und ist damit gleich hoch wie bei den meisten großen Public Cloud Anbietern. Für viele Unternehmen ist das eine kostengünstige Methode Datenbanken fully managed aus der Cloud zu betreiben.
Für den gehobenen Mittelstand und das Enterprise-Segment bieten wir meist 3 oder 4-Nodes-Cluster über mehrere Rechenzentrums-Standorte an. Neben der Flexibilität und der hohen Performance garantiert dieser Aufbau größte Ausfallsicherheit im Bereich 99,99%.
In vielen Unternehmen müssen die Datenbanken 24x7 verfügbar sein. Deshalb ist der Betrieb auch sehr personalintensiv. Es bietet sich also an, den Betrieb von Hardware und Applikationen inklusive des Monitorings und Backups von einem Cloud Service Provider leisten zu lassen. Auf Dauer ist das auch beim 9x5 Betrieb kostengünstiger und die Sicherheit größer. Bei uns sind diese Services beim Datenbank-Hosting inkludiert.
Zusätzlich gibt es auch die Möglichkeit, das Monitoring an kundespezifische Parameter anzupassen und damit die größte mögliche Entlastung zu bieten, die darüber hinaus auf individuelle Bedürfnisse abgestimmt ist.
Incidents- und Kapazitäts-Management sind wichtige Säulen des Betriebs-Angebots, das auch teilweise automatisiert ist (z.B. automatisches Provisionieren von Containern bei steigender Last).
Das Backup läuft mit Rubrik Agents und sichert Daten konsistent. Prinzipiell sichern wir alle Backups in ein zweites Rechenzentrum. Dadurch können beim Ausfall eines Standortes die Daten auf einem anderen reproduziert werden. Damit haben wir auch standardmäßig ein Disaster Recovery inkludiert. Unser Ziel ist bei all diesen Maßnahmen den Convenience-Faktor und die Sicherheit für unsere Kunden so groß wie möglich zu halten.
Gerade wenn sehr viele Daten verarbeitet werden, ist das Thema Performance brandaktuell. Hohe Performance ist uns ein Anliegen, deshalb verwenden wir NVMe Storage. Performance muss aber an mehreren Stellen im IT-System festgemacht werden. Bevor man nur an einer Schraube dreht, empfehlen wir einen Performance-Stress-Test zu machen, den wir in der Basisversion kostenfrei über unsere Website anbieten. Darüber bekommen Sie eine detaillierte Analyse über die Belastbarkeit Ihrer Webplattform. Für kundenspezifische Anforderungen gibt es verschiedene Varianten des Stress-Tests. Hier geht´s zum Stress-Test https://timewarp.at/stress-test/.
Für sehr hohe Verfügbarkeit ist das Konzept der Datenbank und der Aufbau der Plattform auch mitentscheidend. Durch zwei oder mehrere Nodes in einem Cluster über mindestens zwei Standorte kann die Verfügbarkeit gesteigert werden auf 99,99% was in der Regel höher ist als bei klassischen Public Cloud Anbietern. Für maximale Verfügbarkeit ist ein VMware Cluster gestreched über zwei Rechenzentren die beste Wahl, es sind aber auch Hyper-V und KVM als Hypervisior möglich.
Dann kontaktieren Sie bitte Rainer Schneemayer per Mail (beratung@timewarp.at) oder telefonisch +4314191414203.
TIMEWARP Newsletter
Möchten Sie über Neuigkeiten immer gleich informiert werden? Dann melden Sie sich hier zum Newsletter an: