Citrix DaaS™

Multimedia

  • Der HDX™-Technologie-Stack unterstützt die Bereitstellung von Multimedia-Anwendungen durch zwei komplementäre Ansätze:

  • Multimedia-Bereitstellung mit serverseitigem Rendering
  • Multimedia-Umleitung mit clientseitigem Rendering

  • Diese Strategie stellt sicher, dass Sie eine vollständige Palette von Multimedia-Formaten mit einer hervorragenden Benutzererfahrung bereitstellen können, während gleichzeitig die Serverskalierbarkeit maximiert wird, um die Kosten pro Benutzer zu senken.

  • Bei der serverseitigen Multimedia-Bereitstellung werden Audio- und Videoinhalte von der Anwendung auf dem Citrix DaaS-Server (ehemals Citrix Virtual Apps and Desktops Service) dekodiert und gerendert. Die Inhalte werden dann komprimiert und über das ICA-Protokoll an die Citrix Workspace-App auf dem Benutzergerät übermittelt. Diese Methode bietet die höchste Kompatibilität mit verschiedenen Anwendungen und Medienformaten. Da die Videoverarbeitung rechenintensiv ist, profitiert die serverseitige Multimedia-Bereitstellung erheblich von der integrierten Hardwarebeschleunigung. Zum Beispiel entlastet die Unterstützung für DirectX Video Acceleration (DXVA) die CPU, indem sie die H.264-Dekodierung in separater Hardware durchführt. Intel Quick Sync-, AMD RapidFire- und NVIDIA NVENC-Technologien bieten hardwarebeschleunigte H.264-Kodierung.

Da die meisten Server keine Hardwarebeschleunigung für die Videokomprimierung bieten, wird die Serverskalierbarkeit negativ beeinflusst, wenn die gesamte Videoverarbeitung auf der Server-CPU erfolgt. Sie können eine hohe Serverskalierbarkeit aufrechterhalten, indem Sie viele Multimedia-Formate zur lokalen Wiedergabe an das Benutzergerät umleiten.

  • Die Windows Media-Umleitung entlastet den Server für eine Vielzahl von Medienformaten, die typischerweise mit dem Windows Media Player verbunden sind.
  • HTML5-Video ist populär geworden, und Citrix® hat eine Umleitungstechnologie für diese Art von Inhalten eingeführt. Wir empfehlen die Browserinhaltsumleitung für Websites, die HTML5, HLS, DASH oder WebRTC verwenden.
  • Sie können die allgemeinen Umleitungstechnologien Host-zu-Client-Umleitung und Lokaler App-Zugriff auf Multimedia-Inhalte anwenden.

Zusammenfassend lässt sich sagen: Wenn Sie keine Umleitung konfigurieren, führt HDX ein serverseitiges Rendering durch. Wenn Sie eine Umleitung konfigurieren, verwendet HDX entweder Server Fetch und Client Render oder Client Fetch und Client Render. Wenn diese Methoden fehlschlagen, greift HDX bei Bedarf auf serverseitiges Rendering zurück und unterliegt der Richtlinie zur Verhinderung von Rückfällen.

Beispielszenarien

Beispielszenario

Szenario 1. (Server-Abruf und Server-Rendering):

  1. Der Server ruft die Mediendatei von ihrer Quelle ab, dekodiert sie und präsentiert den Inhalt dann einem Audiogerät oder Anzeigegerät.
  2. Der Server extrahiert das präsentierte Bild oder den Ton vom Anzeigegerät bzw. Audiogerät.
  3. Der Server komprimiert es optional und überträgt es dann an den Client.

Dieser Ansatz verursacht hohe CPU-Kosten, hohe Bandbreitenkosten (wenn das extrahierte Bild/der Ton nicht effizient komprimiert wird) und hat eine geringe Serverskalierbarkeit.

Thinwire- und Audio-Virtual Channels handhaben diesen Ansatz. Der Vorteil dieses Ansatzes ist, dass er die Hardware- und Softwareanforderungen für die Clients reduziert. Bei diesem Ansatz erfolgt die Dekodierung auf dem Server, und er funktioniert für eine größere Vielfalt von Geräten und Formaten.

Szenario 2. (Server-Abruf und Client-Rendering):

Dieser Ansatz basiert auf der Möglichkeit, Medieninhalte abzufangen, bevor sie dekodiert und dem Audio- oder Anzeigegerät präsentiert werden. Der komprimierte Audio-/Videoinhalt wird stattdessen an den Client gesendet, wo er dann dekodiert und lokal präsentiert wird. Der Vorteil dieses Ansatzes ist, dass die Last auf die Clientgeräte ausgelagert wird, wodurch CPU-Zyklen auf dem Server eingespart werden.

Er führt jedoch auch zu zusätzlichen Hardware- und Softwareanforderungen für den Client. Der Client muss in der Lage sein, jedes Format zu dekodieren, das er möglicherweise empfängt.

Szenario 3. (Client-Abruf und Client-Rendering):

Dieser Ansatz basiert auf der Möglichkeit, die URL des Medieninhalts abzufangen, bevor sie von der Quelle abgerufen wird. Die URL wird an den Client gesendet, wo der Medieninhalt abgerufen, dekodiert und lokal präsentiert wird. Dieser Ansatz ist konzeptionell einfach. Sein Vorteil ist, dass er sowohl CPU-Zyklen auf dem Server als auch Bandbreite spart, da der Server nur Steuerbefehle sendet. Die Medieninhalte sind jedoch nicht immer für die Clients zugänglich.

Framework und Plattform:

Einzelsitzungs-Betriebssysteme (Windows, Mac OS X und Linux) bieten Multimedia-Frameworks, die die schnellere Entwicklung von Multimedia-Anwendungen ermöglichen. Diese Tabelle listet einige der populärsten Multimedia-Frameworks auf. Jedes Framework unterteilt die Medienverarbeitung in mehrere Stufen und verwendet eine Pipeline-basierte Architektur.

Framework Plattform
DirectShow Windows (98 und höher)
Media Foundation Windows (Vista und höher)
Gstreamer Linux
Quicktime Mac OS X

Double-Hop-Unterstützung mit Medienumleitungstechnologien

  Audio-Umleitung Nein
  Browserinhaltsumleitung Nein
  HDX Webcam-Umleitung Ja
  HTML5 Video-Umleitung Ja
  Windows Media-Umleitung Ja
Multimedia