cloud-computing

Cloud computing

Cloud computing beschreibt die Bereitstellung von IT-Infrastruktur. Ziel sind u.a. Skalierbarkeit, Flexibilität und maximale Ausnutzung der vorhandenen Ressourcen.

Begriffsdefinition:

  • private Cloud
  • public Cloud
  • Hybrid Cloud
  • Virtualisierung
  • Outsourcing
  • Skalierbarkeit (Rapid elasticity/Resource pooling): Rechenleistung, Speicherplatz, Instanzen, Broad network access …
  • Self-service (On-demand)
  • Nutzungsbasierte Abrechnung („Measured service“)
  • Hochverfügbarkeit (mehrere Standorte, „globale“ Replikation)
  • Kostensenkungen?
    • zentrale Frage: wie bin ich bisher kostenmäßig ausgestellt?
      • Lieferantenbindung: habe ich teure Verträge abgeschlossen? Sind diese
      • legacy IT (klassische Systeme die nur in die Höhe skalieren?
    • eigene Fixkosten (Personalkosten etc.) lassen sich nicht auf so viele Server umlegen wie bei den Cloud-Anbietern
    • variable Kosten die von Lieferanten in Rechnung gestellt werden lassen sich steuerlich besser absetzen als Investitionen)
  • Steigerung der Flexibilität:
    • kann ich die Anforderungen meiner Anwender zeitnah erfüllen? Wenn nein: Was hält mich davon ab? Strukturen? Bürokratische Hürden? „Verhindert“ die Sicherheitsabteilung Innovationen?
    • self-service: ist dies nötig? gewollt? erlaubt?
  • bessere Skalierbarkeit und Verfügbarkeit
    • wie hoch ist die aktuelle Verfügbarkeit?
    • wie ist die Anbindung (upstream)? Reicht das vorhandene peering?
    • brauche ich weltweite Verteilung?
    • muss meine Anwendung erhöhte Last durch Skalierung abfangen?
  • Sicherheitsaspekte: Wer darf Dienste freigeben? Zugriffe verwalten?
  • Vertraulichkeit von Daten und Information
  • rechtliche Aspekte und Compliance-Anforderungen
  • starke Abhängigkeit vom einem Anbieter (solange sich nicht freie Datenformate durchsetzen die eine Migration von einem zum anderen Cloud-Anbieter stresslos möglich machen)

Eignet sich gut für:

  • stark schwankende workloads (Skalierung)
  • ressourcen-unkritische Anforderungen

Eignet nicht/*schlechter* geeignet für:

  • I/O-intensive Anwendungen (IOPS, …) wie Datenbanken → Kosten!
  • Applikationen mit sehr hohem RAM-Bedarf
  • grafik-lastige Anwendungen
  • Bandbreitenintensive Anwendungen (Upload ausreichend?)
  • Spezialkonfigurationen die eine Nutzung von managed-services ausschließen

Standorte:

  • Beauharnois BHS5
  • Frankfurt DE1
  • Gravelines GRA7
  • Straßburg SBG
  • London UK1
  • Warschau WAW1

Distributionen:

  • Archlinux
  • CentOS 6,7,8
  • CoreOS
  • Debian 9,10
  • Fedora 30,31,32
  • FreeBSD 11,12
  • Ubuntu 16.04, 18.04, 19.04, 19.10. 20.04

Telekom „Open Telekom cloud“ https://open-telekom-cloud.com

Ionos Cloud (DE, United Internet) (ehemals u.a. profitbricks) bietet eine grafische Oberfläche zur Erstellung von VMs und Netzwerkschnittstellen an.

Jiffy-Box - Skalierbare virtuelle Server auf Basis von Xen.

Virtual-Core basiert auf der Linux-Virtualisierung KVM und existiert als Produkt in drei Ausprägungen:

  1. hosted cloud (vserver laufen im Rechenzentrum von kamp)
  2. enterprise-cloud (vserver laufen inhouse im eigenen Rechenzentrum)
  3. customer-cloud (vserver laufen auf eigener Hardware im eigenen Unternehmen, Daten liegen vollständig im eigenen Unternehmen, lediglich Verwaltung erfolgt im Web)

Entgegen dem Cloud-Gedanken muss man feste Pakete buchen welche die maximal abforderbaren Ressourcen festlegen.

IBM Cloud (US) (ehemals: Softlayer)

scaleway (US)

Produkt mögliche Protokolle Redundanz Beispielpreis 100 GB incl. 5GB Transfer mtl. Beispielpreis 1000 GB incl. 50GB Transfer mtl.
1blu-drive
Amazon S3 (US)
Dunkel Cloud Storage
Google Drive (US)
Host europe Cloud storage
Microsoft onedrive (US)
Strato HiDrive

openstack ist ein in Python entwickeltes Projekt und soll für das Cloud-Computing eine größere Anbieterunabhängigkeit bieten als die bislang vorhandenen proprietären Lösungen. Es wird von etlichen Schwergewichten der IT-Branche unterstützt, unter anderem von AMD, Dell, Citrix und Intel.

begrenzter upload

Wenn es um sehr große Datenmenge geht (im GB odert TB-Bereich) ist mit einem normalen Internetanschluss nichts zu holen, hier ist der Upload fast immer zu klein. Selbst mit den größten VDSL- oder Kabelpaketen dauert der Upload großer Datenmenge eine Ewigkeit.

Leider sind die Ausweichmöglichkeiten begrenzt, einige File-Hoster bieten jedoch die Möglichkeit gegen eine Gebühr Datenträger (DVDs, Festplatten) einzuschicken und diese dann auch die meist kostenpflichtigen Speicherplatz aufzuspielen:

  • Platz im RZ anmieten und dort einen upload-PC platzieren
  • Festplatten send-in bei einige managed-Server Anbietern (Hetzner, …)