Written by © Jens Elkner in Dec. '96 with FrameMaker 5.0 for Solaris,
Published by Quadralay WebWorks HTML Lite 1.5 (HoTaMaLe).

1. Mbone - Tools und Applikationen

Da Multimedia-Konferenzen via Mbone einem möglichst breiten Kreis von Anwendern zur Verfügung stehen soll, werden die folgenden Betrachtungen und Kurzbeschreibenungen auf die derzeit kostenlos erhältlichen, sowie gebräuchlichsten Tools beschränkt. Viele dieser Tools werden noch immer ständig weiterentwickelt. Die Versionen der im folgenden angeführten Tools können in 2.1 auf S. 18 nachgeschlagen werden.

Mbone-Tools können in folgende vier Klassen unterteilt werden:


1.1 Session directory tools

Session directory tools sind Konferenz-Management Tools und bilden eine Grundlage für die Ankündigung von neuen und der Auflistung von bereits angekündigten Multimedia-Konferenzen (multicast sessions). Ebenso können sie genutzt werden, um entsprechende Programme mit den benötigten Parametern zur Teilnahme an angekündigten multicast sessions zu starten bzw. nähere Informationen über die angekündigten sessions zu erhalten. Session directory tools haben nicht die Funktion, verschiedene Media-Streams einer Session miteinander zu synchronisieren (Audio mit Video bzw. Whiteboard etc.).

Zur Nutzung von session directory tools bedarf es einer grafische Anzeige (z.B. X11, OpenWindows, MS-Windows). Die benötigten Ressourcen bzgl. Speicherbedarf, Bandbreite und Performance der benutzten Maschine sind vernachlässigbar gering.

 
Abb. 1: sdr Abb. 2: sd

Derzeit sind die session directory tools sdr, sd und mmcc verfügbar. Da mmcc inzwischen veraltet ist und nur noch sehr selten eingesetzt wird, werden in diesem Abschnitt nur sdr (siehe Abb. 1 auf S. 1) und sd (siehe Abb. 2 auf S. 1) untersucht.

Zur Ankündigung einer session werden folgende Parameter unbedingt benötigt:

1 TTL: Dieser Schwellwert ist das Minimum der IP time-to-live (Lebenszeit), der benötigt wird, um ein Multicast-Datagramm zu einem gegebenen Interface oder Tunnel weiterzuleiten. Er wird genutzt, um die Reichweite des Multicast-Datagramms zu kontrollieren. Jeder Multicast-Router verringert die TTL um den Wert 1.

Da sd nur die Eingabe der unbedingt notwendigen Parameter zuläßt und inzwischen veraltet ist, wird an unserer Fakultät primär das etwas flexiblere, umfangreichere Tool sdr. So erlaubt sdr z.B. die Angabe einer URL, der genutzt werden kann, um über Details einer Konferenz ausführlich via WWW zu informieren. Ebenso unterstützt dieses Tool die Vergabe separater Media Streams (d.h., eine Multicast-Adresse je Medium) für die einzelnen Medien Audio, Video, Whiteboard und Text sowie die Angabe des zu verwendenden Protokolls und Formats (siehe Tab. 1 auf S. 2). Diese separaten Media-Streams sollten benutzt werden, falls einige session Teilnehmer nicht genügend Bandbreite zur Verfügung haben, um alle media streams zu empfangen.

MediumProtokollFormat
audioRTP, vatPCM,DVI,GSM,LPC
videoRTPH.261,nv,M-JPEG, CellB
whiteboardudpwb
textudpUCL NT

Tab. 1: Protokolle und Formate bzgl. Media-Streams

Ebenso ist es möglich, 3 Termine für die anzukündigende session einzutragen, die jeweils auch von periodischer Natur sein können. Dazu werden Angaben über Zeitraum, Datum, Uhrzeit, Dauer und Wiederholungszeitraum benötigt, wobei Zeitraum und Wiederholungszeitraum folgende Werte annehmen kann:

Als letztes wichtiges Merkmal von sdr sei hier die Möglichkeit der Angabe von detaillierten Informationen zur Kontaktierung der Person (e-mail, Telefon/Fax), welche eine session angekündigt hat genannt. Gerade für die Administratoren des Mbone kann es beim Auftreten von Problemen sehr wichtig sein, diese Informationen sofort parat zu haben.

All die oben genannten Eigenschaften und Besonderheiten geben Anlaß , auch weiterhin sdr als `das' session directory tool zu betrachten und dies als primäres oder besser "Standard-``Konferenz-Management-Tool zu nutzen. An dieser Stelle muß jedoch darauf hingewiesen werden, daß aufgrund von Koordinationsfehlern oftmals die Ankündigungen von sdr nicht im sd und vice versa erscheinen. Deshalb sollte eine sdr-Ankündigungen immer mit sd kontrolliert werden, und falls diese nach 2 Tagen noch immer nicht erscheint, sollte die entsprechende Konferenz noch einmal mit sd und den gleichen Parametern der sdr-Ankündigung angekündigt werden.

Eine dritte optionale Form der Ankündigung einer multicast session ist der Eintrag dieser in das Mbone global Agenda (http://www.cilea.it/MBone/agenda.html), welcher aufgrund der Netiquette und des besseren Überblicks (Ankündigungen sind dort nach Jahr, Monat, Tag gestaffelt) jeder nutzen sollte.

Wird das session directory tool gestartet, liest es seine Konfigurations- und Cachedateien ein und öffnet ein Fenster, in welchem bereits bekannte Sessions und Steuerelemente angezeigt werden (siehe Abb. 1 auf S. 1 und Abb. 2 auf S. 1). Von hier aus können nun die einzelnen Sessions direkt gestartet werden.

Wer eine neuere Version von sdr benutzt und den Teilnehmerkreis der Konferenz kennt, kann jeden Teilnehmer sofort explizit (name@machine.domain) einladen, sodas die Teilnehmer nicht auf die Ankündigung im Session directory tool warten müssen, welche manchmal u. U. mehrere Stunden benötigt, um 'durchgestellt` zu werden. Dies ist besonders bei kurzfristig anberaumten Konferenz von Vorteil: Läuft beim einzuladenden Teilnehmer sdr, wird durch das Aktivieren einer Einladung (Invitation) ein entsprechender Dialog plus Warntöne bei dem eingeladenen Teilnehmer ausgegeben, der zur Konferenzteilnahme aufruft. Der Teilnehmer kann nun entscheiden, ob er an der Konferenz teilnehmen will oder nicht. Der Einladende erhält in jedem Fall eine Nachricht, ob der eingeladene Teilnehmer die Konferenz angenommen, abgelehnt oder keine Reaktion auf die Einladung gezeigt hat.2

2 Grundsätzlich sei noch einmal darauf hingewiesen, daß man auch ohne session directory tool eine multicast-fähige Anwendung starten und somit eine Multimedia-Konferenz abhalten kann. Wichtig ist dabei nur, daß die Teilnehmer der Konferenz wissen, welche Parameter (mind. Medium mit Multicast-Adresse und Port) verwendet werden.


1.2 Audio Tools

1.2.1 vat

Vat wurde von der Network Research Group des Lawrence Berkeley National Laboratory entwickelt. Es ist eine real-time, multi-party, Multimedia-Applikation für Audio-Konferenzen via Internet. Vat basiert auf dem Internet Draft Real-time Transport Protocol (RTP3).



Abb. 3: vat

Vat ist einfach zu bedienen und erlaubt die Teilnahme an mehreren Sessions gleichzeitig. Wird nicht die Option `Keep Audio` benutzt, versucht vat, die jeweils aktive Audio Session auf das eingestellte Ausgabegerät umzuleiten. Dies ist ein bedeutender Vorteil gegenüber der derzeitigen Version von rat, welche zwar mehrmals gestartet werden kann, jedoch immer nur via zuerst gestarteten rat mithören kann. Selbst wenn das zuerst gestartete rat beendet wird, sind die bereits gestarteten rats nicht in der Lage, die Audioausgabe zu übernehmen. Vat kennt diesbezüglich keine Probleme.

Audio Codecs (Kodierungs/Dekodierungsverfahren):

Steuerung:

3 RFC 1889, RTP: A Transport Protocol for Real-Time Applications
RFC 1890, RTP Profile for Audio and Video Conferences with Minimal Control

1.2.2 RAT

Das Robust-Audio Tool (RAT) wurde im Department of Computer Science, University College London entwickelt. RAT ist anderen Audio-Tools (wie z.B. vat) ähnlich und basiert auf RTP v2. Zusätzlich wurde die Funktionalität des Tools erweitert, um eine verbesserte Leistung im Falle von Paketverlusten zu erzielen:



Abb. 4: rat
Audio Codecs (Kodierungs/Dekodierungsverfahren): Steuerung:

1.2.3 NeVoT

Das Network Voice Terminal wurde von Henning Schulzrinne während seines Aufenthalts an der University of Massachusetts, AT&T Bell Laboratories implementiert und bei GMD Fokus Berlin weiterentwickelt. Es erlaubt die Teilnahme audio-fähiger Workstations an Audiokonferenzen via LAN oder WAN. Es basiert auf RTP. In der nevot Distribution ist das Programm nevotd enthalten, welches der Funktionalität von nevot entspricht, jedoch keine grafische Benutzeroberfläche enthält.



Abb. 5: nevot

Nachteilig bei NeVoT ist, daß es nur eine sehr plump wirkende, benutzerunfreundliche grafische Benutzeroberfläche und keine komplexe Dialogbox zum Einstellen aller verfügbaren Optionen wie beispielsweise vat oder rat besitzt. Des weiteren ist zu bemängeln, daß viele einstellbare Optionen für Laien zu technisch und unverständlich sind und auch keine Dokumentation oder Online-Hilfen diesen Zustand beheben könnten. Angesichts dessen kommt dieses Tool nicht über den Status eines experimentellen Programms hinaus und wird somit in der Fakultät für Informatik nur zu experimentellen Zwecken eingesetzt.

Audio Codecs (Kodierungs/Dekodierungsverfahren):

Steuerung:

1.3 Video Tools

1.3.1 vic

Vic ist derzeit das gebräuchliste Video-Konferenz-Tool. Es wurde von der Network Research Group des Lawrence Berkeley National Laboratory in Zusammenarbeit mit der University of California, Berkeley entwickelt. Vic wurde mit einer flexiblen und erweiterebaren Architektur versehen, um heterogene Umgebungen und Konfigurationen zu unterstützen. So können z.B. in Highspeed-Netzwerken sogenannte hardware-komprimierte multi-megabit full-motion JPEG streams genutzt werden, während in Umgebungen mit geringer Bandbreite, wie z.B. das Internet, low bit-rate coding via Software ausgeführt werden kann. Es ist eine real-time Multimedia-Applikation für Video-Konferenzen via Internet. Vic basiert auf dem Internet Draft Real-time Transport Protocol (RTP).



Abb. 6: vic

Besonderheiten dieses Tools sind:

Der Intra-H.261 Kodierer kombiniert die Vorteile von nv's blockbasierten bedingten Auffüllungsschema (Robustheit bzgl. Verlust) mit denen des H.261 (höhere Kompressionsraten und Kompatibilität mit Hardware-Codecs). Für eine feste Bitrate erreicht der H.261 Kodierer ca. 2-4 mal höhere Frameraten als beim nv-Kodierungs Format.

Vic erlaubt es, Sichtfenster so zu konfigurieren, daß es dem Redner/Sprecher ``folgt''. Durch Hinweise von vat wird das Sichtfenster zum derzeitig sprechenden Konferenzteilnehmer umgeschaltet. Es können mehrere fenster auf diese Art und Weise konfiguriert werden, so daß immer die letzten N Sprecher angezeigt werden.

Vic verfügt über verschiedene Dithering Algorithmen zur Representation von Video Streams mit kontinuierlichen Farbtönen auf sogenannten color-mapped displays. Der Nutzer kann die Laufzeitkomplexität durch die gewünschte Qualität der Darstellung beeinflussen. Ein error-diffusion dither bewirkt die höchste Qualität, aber auch die größte CPU-Last, während eine direct color quantization nur eine geringe CPU-Last bewirkt, jedoch nur Bilder von geringer Qualität generiert.

Vic besitzt ein Interface, welches ein Mischen von Grafiken mit dem aufgenommenen Video erlaubt. Sogenannte Overlays können über den ``Conference Bus'' heruntergeladen und manipuliert werden, so daß es dem ``production team'' möglich ist, ein Broadcast mit Überschriften, Anmerkungen, Logos etc. zu verbessern. Da der ``Conference Bus'' mittels tcl (tool command language) manipuliert werden kann, ist es relativ einfach, existierende oder neue Scripte Überschriften-Generierung ``on-the-fly'' zu nutzen. Ein Beispiel dafür ist das Script title-maker, welches in der vic-Distribution enthalten ist.

Video streams können simultan auf einem Workstation-Bildschirm und einem externen Video-Ausgabe-Port ausgegeben werden, vorausgesetzt daß die verwendete Hardware eine externe Ausgabe unterstützt. Dies erlaubt die Wiedergabe eines einzelnen streams als analoges Videosignal auf ein NTCS/PAL-Gerät in voller Größe und erzeugt somit ein in der Regel ein komfortableres Bild (z.B. auf einem Videoprojektor) als in einem kleinen X-Window. Ebenso kann dieses Option genutzt werden, um Videokonferenzen z.B. mittels eines Videorecorders aufzuzeichnen.

Normsmallnormallarge
H.261176x144 (QCIF)352x288 (CIF)-
NTSC640x480320x240160x120
PAL768x576384x288192x144

Tab. 2: unterstützte Video Normen und Größen

Video Codecs (Kodierungs/Dekodierungsverfahren):

Steuerung:

1.3.2 Network Video tool

Das Network Video tool (nv) ermöglicht den Nutzern Video mit einer geringen Framerate zu senden und zu empfangen (ca. 3-5 Frames bei 128kbps). Die Video Streams können von Punkt-zu-Punkt oder auch zu mehreren Empfängern via Multicast gesendet werden. Der Empfänger benötigt keine spezielle Hardware. Da nv auch das Übertragen von X-Fenstern erlaubt, braucht der Sender in diesem Spezialfall ebenfalls keine spezielle Hardware. Soll jedoch eine Videoübertragung stattfinden, wird natürlich eine VideoCaptureKarte benötigt. Nv wird seit Juli 1994 nicht mehr weiterentwickelt.



Abb. 7: nv

Video Codecs (Kodierungs/Dekodierungsverfahren):

Normsmallmediumlarge
NTSC160x120320x240640x480
PAL192x144384x288768x576

Tab. 3: unterstützte Video Normen und Größen

Steuerung:


1.4 Whiteboard Tools

1.4.1 Whitebord

Wb wurde von der Network Research Group des Lawrence Berkeley National Laboratory entwickelt. Es erlaubt den Konferenzteilnehmern Texteingaben vorzunehmen, Grafiken zu erstellen oder direkt Postscript- oder Textdateien zu importieren und diese gemeinsam auf dem seitenorientierten Whitboard zu bearbeiten bzw. mit den Teilnehmern auszutauschen. Desweiteren ermöglicht dieses Tool, vorgenommene Änderungen eines oder mehrerer Konferenzteilnehmer selektiv auszublenden.

Da in Konferenzen, Vorträgen etc. oft wichtige Informationen mittels Overheadprojektor präsentiert werden, die Videoaufnahme des projizierten Bildes aus techmischen Gründen jedoch unbefriedigend ist, kann wb in diesen Fällen genutzt werden, um die entsprechenden Informationen synchron zum Vortrag mit Postscript-Qualität zu allen Konferenzteilnehmern zu übertragen. Der Nutzer des wb hat dann auch die Möglichkeit, die gewünschten Informationen als Postscriptdatei abzuspeichern und erspart sich somit den Aufwand für die Neuerstellung entsprechender Dokumentationen bzw. die Suche oder das Herunterladen der Dokumente von einem Server. Ebenso sollte das Whiteboard benutzt werden, um Informationen bzgl. des derzeitigen Vortrages zu geben (z.B. Name, Firma des Vortragenden; Beginn, Dauer und Thema des Vortrages).

Wird eine Vorlesung, ein Seminar oder Präsentation gehalten, ist es ratsam, jede verwendete Folie schon vor dem Vortrag in eine separate Postcriptdatei zu konvertieren. Liegt eine Datei nur im Postscriptformat mit mehreren Seiten vor, kann dies in der Regel mit dem Tool pssplit oder breakps in einzelne Dateien mit je einer Seite aufgeteilt werden. Die erhaltenen Postscriptdateien können dann zur gegebenen Zeit manuell oder unter Zuhilfenahme des Programms wbimport in das wb importiert werden.

Um Bandbreite zu sparen, die Übertragung und Darstellung der Datei zu beschleunigen, empfiehlt es sich die Postscriptateien zu vereinfachen und auf kleinstmögliche Größe zu bringen. Folgende Herangehensweise hat sich bei uns im Umgang mit wb bewährt:

  1. Postscriptdatei (was im engeren Sinne eine Datei mit einem Postscript-Programm darstellt) vereinfachen.
    Dies kann durch das Postscriptprogramm still.ps bewerkstelligt werden. still.ps wandelt jedes Postscriptprogramm in eine einfacheres, teilweise bedeutend kleineres Programm um. Das resultierende Postscriptprogramm stellt exakt die gleichen Seiten wie das Original dar, jedoch ist aller unnötiger Overhead beseitigt und das Programm ist sauber, einheitlich und schnell. Zur automatischen Bearbeitung von Postscriptdateien wurde folgendes Script erstellt, was das oben beschriebene leistet und die resultierenden Dateien untergleichem Namen mit dem Suffix psx ablegt:
         #!/usr/bin/sh
         # script distill to make postscript programs smaller, clean,
         # uniform and fast
         # by elkner@irb.cs.uni-magdeburg.de
         # Usage: distill file ... ...
         while ( [ $# -ne 0 ] )
         do
                FILES=''$FILES ($1)distill ``
                shift
         done
         echo ``$FILES'' | gs /usr/localapp/Mbone/etc/still.ps
         
  2. Postscriptdatei splitten.
    Enthält die Postscriptdatei mehrere Seiten, wird diese mittels pssplit in einzelne Dateien mit je einer Seite zerlegt (z.B. pssplit -v -p datei lldatei.ps ). Die resultierenden Dateien haben die Form dateiNN.ps, wobei NN die Seite in der originalen datei.ps angibt.
  3. Kopieren aller für eine Konferenz benötigten Postscriptdateien in ein separates Verzeichnis (~/session).
  4. Komprimieren aller Postscriptdateien.
    Hierfür empfiehlt sich das Tool lzps. Damit nicht für jede einzelne Datei ein `cat datei.ps | lzps >compdatei.ps` ausgeführt werden muß, kann folgendes Script zur automatischen Kompression der Dateien benutzt werden(z.B. pscompress ~/session/*.ps):
         #!/usr/bin/sh
         # script pscompress to convert postscript files
         # to LZ-compressed postscript files
         # by elkner@irb.cs.uni-magdeburg.de
         # Usage: pscompress file ... ...
         while ( [ $# -ne 0 ] )
         do
                  mv $1 $1.tmp
                  cat $1.tmp | lzps >$1
                  ls -l $1 $1.tmp
                  shift
         done
         
    In Abhängigkeit vom Inhalt der Datei und mit welchem Programm diese erstellt wurde (Framemaker, Word, CorelDraw etc.), werden Kompressionsraten von 50% und mehr erzielt. Da wb standardmäßig auf den Import von Dateien mit einer maximalen Größe von 32 KB beschränkt ist, muß im Falle des Imports größerer Dateien wb mit dem Parameter -P n gestartet werden, wobei n das obere Limit in Bytes für eine importierbare Datei angibt.
  5. Erstellen der wbimport Datei.
    Dies geht beispielsweise am einfachsten durch ein `ls ~/session/* >~/session/wb.imp`
    Werden die Dateien dann in der Konferenz benötigt, muß nur noch wbimport mit der entsprechenden Datei gestartet werden (z.B. wbimport ~/session/wm.imp). Ein Anklicken eines Namens in der wbimport Liste bewirkt das sofortige Laden und Anzeigen der entsprechenden Datei, d.h. daß das wb aller anderen Konferenzteilnehmer ebenfalls auf die neu eingeblendete Seite umschaltet!


Abb. 8: wb und wbimport
   

1.4.2 UCL Network Text Editor (nt)

NTE ist ein für Mbone vom Department of Computer Science, University College London entwickelter Texteditor, welcher die gemeinsame, gleichzeitige Bearbeitung von Textdokumenten durch verschiedene Konferenzteilnehmer erlaubt. Der Editor ist textblockorientiert. D.h., klickt man an eine Stelle im Textdokument des Editors, wird ein neuer Textblock angelegt und alle darauffolgenden Eingaben in diesem abgespeichert. Durch erneutes Anklicken einer Position im Textdokument wird der begonnene Textblock beendet und ein neuer angelegt. Alle durchgefÜhrten Aktionen beziehen sich also immer auf einen Textblock und nicht etwa auf einzelne Buchstaben, Wörter, Zeilen etc., wie man es vielleicht von einem Textverarbeitungsprogramm erwarten würde. Folgende Blockoperationen läßt NTE zu:

Damit die Teilnehmer bei der Bearbeitung des Textdokumentes nicht irritiert werden, macht NTE jede Aktionen durch Symbole mit dem Namen des Editierenden für jeden sichtbar (siehe Abb. unten).

Abschließend kann gesagt werden, daß NTE sicher keine verteilte Textverarbeitung ersetzen kann, jedoch als begleitendes Hilfsmittel für multimediale Konferenzen, trotz seines derzeitigen Limits von ca. 10 KB Dokumentgröße, geeignet ist.



Abb. 9: nt

1.5 Hybrid Tools

1.5.1 INRIA Videoconferencing System

Das INRIA Videoconferencing System (IVS) ist ein Softwaresystem zur kombinierten Übertragung von Video- und Audiodaten im Internet mittels Uni- oder Multicast. Zur Übertragung von H.261 Video Streams wird das RTP genutzt. Da andere, spezialisiertere Tools mehr und teilweise auch bessere Kodierungs/Dekodierungsverfahren für Audio/Videostreams sowie grafische Benutzeroberflächen enthalten, wird von dem Einsatz dieses Tools abzuraten.



Abb. 10: ivs

Audio Codecs (Kodierungs/Dekodierungsverfahren):

Video Codecs (Kodierungs/Dekodierungsverfahren):

Normsmallnormallarge
H.261176x144 (QCIF)352x288 (CIF)704x576 (SCIF)

Tab. 4: unterstützte Normen und Größen

Steuerung:


1.6 Image Tools

1.6.1 Image Multicaster

Imm ist ein Client Programm zum Empfang von JPEG/GIF Bildern, die mittels Multicast vom imm Server (immserv) übertragen werden. Wird ein Bild empfangen, wird dies automatisch in das Root-Window (Bildschirm-Hintergrund) geladen, archiviert oder in einem neuen Fenster unter Zuhilfenahme des Programms xv oder xloadimage angezeigt. Optional kann festgelegt werden, ob das empfangene Bild in seiner originalen Größe (default screen), im Vollbild (full screen) oder gekachelt (tiled screen) angezeigt werden soll. Desweiteren ist ein Dithering bzw. Smoothing der Bilder durch die Programm xv oder xloadimage möglich. Ein sogenanntes Logfenster bietet Überblick über bereits empfangene Bilder und deren Sender an, sowie die Möglichkeit, jene mit dem eingestellten Betrachter (Viewer) noch einmal anzuschauen.



Abb. 11: imm

Der Image Multicaster Server kann von der Kommandozeile oder von imm selbst gestartet werden.


2. Anhang

2.1 Versionen für Mbone-Tools

Aktuelle Informationen zu den neusten Mbone-Tools sind auf den unten aufgeführten WWW-Seiten verfügbar. Ebenso können die aktuellen Versionen für alle verfügbaren Plattformen u.a. von den in Tabelle 6 aufgelisteten FTP-Sites kostenlos heruntergeladen werden.

2.2 Mbone-Tools im WWW

ToolURL
sdr http://www-mice.cs.ucl.ac.uk/mice/sdr/
sd -
vat http://www-nrg.ee.lbl.gov/vat/
rat http://www-mice.cs.ucl.ac.uk/mice/rat/
nevot http://www.cs.columbia.edu/~hgs/nevot/nevot.html
vic http://www-nrg.ee.lbl.gov/vic/
nv -
wb -
nt -
ivs http://www.inria.fr/rodeo/ivs.html
imm -

Tab. 5: Mbone-Tools im WWW

2.3 FTP sites für Mbone-Tools

ToolURL vom OriginalURL eines Mirrors
sdr ftp://cs.ucl.ac.uk/mice/sdr ftp://irb.cs.uni-magdeburg.de/pub/mbone/sdr/
sd ftp://ftp.ee.lbl.gov/conferencing/sd/ ftp://www-ks.rus.uni-stuttgart.de/pub/mbone/sd/
vat ftp://ftp.ee.lbl.gov/conferencing/vat/ ftp://irb.cs.uni-magdeburg.de/pub/mbone/vat/
rat ftp://cs.ucl.ac.uk/mice/rat/ ftp://irb.cs.uni-magdeburg.de/pub/mbone/rat/
nevot ftp://ftp.fokus.gmd.de/pub/step/nevot ftp://irb.cs.uni-magdeburg.de/pub/mbone/nevot/
vic ftp://ftp.ee.lbl.gov/conferencing/vic/ ftp://irb.cs.uni-magdeburg.de/pub/mbone/vic/
nv ftp://ftp.parc.xerox.com/pub/net-research/nv-3.3beta/ ftp://www-ks.rus.uni-stuttgart.de/pub/mbone/nv/
wb ftp://ftp.ee.lbl.gov/conferencing/wb/ ftp://irb.cs.uni-magdeburg.de/pub/mbone/wb/
nt ftp://cs.ucl.ac.uk/mice/nt/ ftp://irb.cs.uni-magdeburg.de/pub/mbone/nt/
ivs ftp://zenon.inria.fr/rodeo/ivs ftp://irb.cs.uni-magdeburg.de/pub/mbone/ivs/
imm ftp://ftp.hawaii.edu/paccom/imm-3.3/ ftp://irb.cs.uni-magdeburg.de/pub/mbone/imm/

Tab. 6: FTP-Sites

2.4 Audio Encodings4

encoding name Description sample/frame bits/sample ms/frame clock rate (Hz) channels
1016 Encoding 1016 is a frame based encoding using code-excited linear prediction (CELP) and is specified in Federal Standard FED-STD 1016 (4800 bps) frame N/A 30 8000 1
G721 ITU-T Recommendation G.721 [G721] descri bes the algorithm recommende for conversion of a 64 KB/s A-law or u-law PCM channel to and from a 32 KB/s channel. The conversion is applied to the PCM stream using an Adap tive Differential Pulse Code Modulation (ADPCM) transcoding technique. This algo rithm will be registered with the IANA for MIME use under the name Audio/ 32KADPCM. sample 4 N/A 8000 1
G722 G722 is specified in ITU-T recommendation G.722, ,7 kHz audio-coding within 64 kbit/s". sample 8 N/A 8000 1
G728 G728 is specified in ITU-T recommendation G.728, ,Coding of speech at 16 kbit/s using low-delay code excited linear prediction". frame N/A 2.5 8000 1
GSM GSM (group speciale mobile) denotes the European GSM 06.10 provisional standard for full-rate speech transcoding, prI-ETS 300 036, which is based on RPE/LTP (residual pulse excitation/long term prediction) coding at a rate of 13 kb/s. frame N/A 20 8000 1
DVI4 DVI4 is specified, with pseudo-code, in [6] as the IMA ADPCM wave type. sample 4 N/A 8000 16000 1
VDVI VDVI is a variable-rate version of DVI4, yiel ding speech bit rates of between 10 and 25 kb/ s. It is specified for single-channel operation only. sample var.      
LPC LPC designates an experimental linear predic tive encoding contributed by Ron Frederick, Xerox PARC, which is based on an implemen tation written by Ron Zuckerman, Motorola, posted to the Usenet group comp.dsp on June 26, 1992. frame N/A 20 8000 1
PCMA, PCMU PCMA and PCMU are specified in CCITT/ ITU-T recommendation G.711. Audio data is encoded as eight bits per sample, after log arithmic scaling. (A-law, mu-law) sample 8 N/A 8000 1
L8 L8 denotes linear audio data, using 8-bits of precision with an offset of 128, that is, the most negative signal is encoded as zero. sample 16 N/A 44100 2
L16 L16 denotes uncompressed audio data, using 16-bit signed representation with 65535 equally divided steps between minimum and maximum signal level, ranging from -32768 to 32767. The value is represented in two`s com plement notation and network byte order. sample 16 N/A 44100 1
MPA MPA denotes MPEG-I or MPEG-II audio encapsulated as elementary streams. The encoding is defined in ISO standards ISO/IEC 11172-3 and 13818-3. frame N/A dep. 32000 44100 48000 dep.

Tab. 7: Audio Encodings

4siehe RFC 1890: RTP Profile for Audio and Video Conferences with Minimal Control


2.5 Video Encodings

encoding name Description
CellB The CELL-B encoding is a proprietary encoding pro posed by Sun Microsystems.
JPEG The encoding is specified in ISO Standards 10918-1 and 10918-2
nv The encoding is implemented in the program ,nv`, version 4, developed at Xerox PARC by Ron Frede rick.
H261 The goal of the H.261 standard is to provide Audio- Visual Services over the Integrated Sevices Digital Network (ISDN) at rates multiple of 64 Kbits/sec. For videophone applications the target rate is typically 64 or 128 Kbits/sec; for videoconferencing it is in the range of 384 Kbits/sec or more.
MPV MPV designates the use MPEG-I and MPEG-II video encoding elementary streams as specified in ISO Standards ISO/IEC 11172 and 13818-2, respectively
MP2T MP2T designates the use of MPEG-II transport streams, for either audio or video

Tab. 8: Video Encodings

2.6 Literatur

Vicky Hardman, Angela Sasse, Mark Handley and Anna Watson, ``Reliable Audio for Use over the Internet'', in Proceedings of Inet'95, June 1995, Honolulu, Hawaii.

Isidor Kouvelas, Vicky Hardman and Anna Watson, ``Lip Synchronization for use over the Internet: Analysis and Implementation'', in Proceedings of IEEE Globecom'96, November 1996, London UK.

Vicky Hardman and Markus Iken, ``Enhanced Reality Audio in Interactive Networked Environments'', in Proceedings of the Framework for Interactive Virtual Environments(FIVE) conference, December 1996, Pisa Italy.

[6] IMA Digital Audio Focus and Technical Working Groups, "Recommended practices for enhancing digital audio compatibility in multimedia systems (version 3.00),``tech. rep., Interactive Multimedia Association, Annapolis, Maryland, Oct. 1992.

[15] H. Schulzrinne, S. Casner, R. Frederick, and V. Jacobson, "RTP: A transport protocol for real-time applications.``Work in Progress, Mar. 1995


Written by © Jens Elkner    <elkner@irb.cs.uni-magdeburg.de> in December '96