cloud-computing

Cloud computing

Cloud computing beschreibt die Bereitstellung von IT-Infrastruktur. Ziel sind u.a. Skalierbarkeit, Flexibilität und maximale Ausnutzung der vorhandenen Ressourcen.

Begriffsdefinition:

  • private Cloud
  • public Cloud
  • Hybrid Cloud
  • Virtualisierung
  • Outsourcing
  • Skalierbarkeit (Rapid elasticity/Resource pooling): Rechenleistung, Speicherplatz, Instanzen, Broad network access …
  • Self-service (On-demand)
  • Nutzungsbasierte Abrechnung („Measured service“)
  • Hochverfügbarkeit (mehrere Standorte, „globale“ Replikation)
  • Kostensenkungen?
    • zentrale Frage: wie bin ich bisher kostenmäßig ausgestellt?
      • Lieferantenbindung: habe ich teure Verträge abgeschlossen? Sind diese
      • legacy IT (klassische Systeme die nur in die Höhe skalieren?
    • eigene Fixkosten (Personalkosten etc.) lassen sich nicht auf so viele Server umlegen wie bei den Cloud-Anbietern
    • variable Kosten die von Lieferanten in Rechnung gestellt werden lassen sich steuerlich besser absetzen als Investitionen)
  • Steigerung der Flexibilität:
    • kann ich die Anforderungen meiner Anwender zeitnah erfüllen? Wenn nein: Was hält mich davon ab? Strukturen? Bürokratische Hürden? „Verhindert“ die Sicherheitsabteilung Innovationen?
    • self-service: ist dies nötig? gewollt? erlaubt?
  • bessere Skalierbarkeit und Verfügbarkeit
    • wie hoch ist die aktuelle Verfügbarkeit?
    • wie ist die Anbindung (upstream)? Reicht das vorhandene peering?
    • brauche ich weltweite Verteilung?
    • muss meine Anwendung erhöhte Last durch Skalierung abfangen?
  • Sicherheitsaspekte: Wer darf Dienste freigeben? Zugriffe verwalten?
  • Vertraulichkeit von Daten und Information
  • rechtliche Aspekte und Compliance-Anforderungen
  • starke Abhängigkeit vom einem Anbieter (solange sich nicht freie Datenformate durchsetzen die eine Migration von einem zum anderen Cloud-Anbieter stresslos möglich machen)

Eignet sich gut für:

  • stark schwankende workloads (Skalierung)
  • ressourcen-unkritische Anforderungen

Eignet nicht/*schlechter* geeignet für:

  • I/O-intensive Anwendungen (IOPS, …) wie Datenbanken → Kosten!
  • Applikationen mit sehr hohem RAM-Bedarf
  • grafik-lastige Anwendungen
  • Bandbreitenintensive Anwendungen (Upload ausreichend?)
  • Spezialkonfigurationen die eine Nutzung von managed-services ausschließen

Standorte:

  • Beauharnois BHS5
  • Frankfurt DE1
  • Gravelines GRA7
  • Straßburg SBG
  • London UK1
  • Warschau WAW1

Distributionen:

  • Archlinux
  • CentOS 6,7,8
  • CoreOS
  • Debian 9,10
  • Fedora 30,31,32
  • FreeBSD 11,12
  • Ubuntu 16.04, 18.04, 19.04, 19.10. 20.04

Telekom „Open Telekom cloud“ https://open-telekom-cloud.com

Ionos Cloud (DE, United Internet) (ehemals u.a. profitbricks) bietet eine grafische Oberfläche zur Erstellung von VMs und Netzwerkschnittstellen an.

Jiffy-Box - Skalierbare virtuelle Server auf Basis von Xen.

Virtual-Core basiert auf der Linux-Virtualisierung KVM und existiert als Produkt in drei Ausprägungen:

  1. hosted cloud (vserver laufen im Rechenzentrum von kamp)
  2. enterprise-cloud (vserver laufen inhouse im eigenen Rechenzentrum)
  3. customer-cloud (vserver laufen auf eigener Hardware im eigenen Unternehmen, Daten liegen vollständig im eigenen Unternehmen, lediglich Verwaltung erfolgt im Web)

Entgegen dem Cloud-Gedanken muss man feste Pakete buchen welche die maximal abforderbaren Ressourcen festlegen.

IBM Cloud (US) (ehemals: Softlayer)

scaleway (US)

Produkt mögliche Protokolle Redundanz Beispielpreis 100 GB incl. 5GB Transfer mtl. Beispielpreis 1000 GB incl. 50GB Transfer mtl.
1blu-drive
Dropbox (US)
Dunkel Cloud Storage
Google Drive (US)
Host europe Cloud storage
Microsoft onedrive (US)
Strato HiDrive / Hidrive S3

openstack ist ein in Python entwickeltes Projekt und soll für das Cloud-Computing eine größere Anbieterunabhängigkeit bieten als die bislang vorhandenen proprietären Lösungen. Es wird von etlichen Schwergewichten der IT-Branche unterstützt, unter anderem von AMD, Dell, Citrix und Intel.

begrenzter upload

Wenn es um sehr große Datenmenge geht (im GB odert TB-Bereich) ist mit einem normalen Internetanschluss nichts zu holen, hier ist der Upload fast immer zu klein. Selbst mit den größten VDSL- oder Kabelpaketen dauert der Upload großer Datenmenge eine Ewigkeit.

Leider sind die Ausweichmöglichkeiten begrenzt, einige File-Hoster bieten jedoch die Möglichkeit gegen eine Gebühr Datenträger (DVDs, Festplatten) einzuschicken und diese dann auch die meist kostenpflichtigen Speicherplatz aufzuspielen:

  • Platz im RZ anmieten und dort einen upload-PC platzieren
  • Festplatten send-in bei einige managed-Server Anbietern (Hetzner, …)