Erzeugung und Verwendung multimedialer Teachware im synchronen und asynchronen Teleteaching

Post on 25-Aug-2016

219 views 0 download

transcript

1 Einleitung

Teleteaching und Telelearning haben sichin den letzten Jahren zu einer wichtigenInternet-Anwendung entwickelt. Fast alleeurop�ischen und nordamerikanischenUniversit�ten betreiben aktuelle For-schungsprojekte �ber Technik und An-wendung der neuen Medien in der Lehre.Die im Projekt VIROR (Virtuelle Hoch-schule Oberrhein [VIRO98]) beteiligtenUniversit�ten Mannheim, Freiburg, Karls-ruhe und Heidelberg tauschen seit demSommersemester 1996 regelm�ßig Lehr-veranstaltungen aus. Dieser Austauschwird durch die �bertragung von Vorlesun-gen, Seminaren und �bungen �ber einNetzwerk erm�glicht. Zur Realisierungsolcher Tele-Lehrveranstaltungen sind ei-ne Reihe technischer Probleme zu l�sen:Zum einen werden Anwendungen ben�-tigt, die s�mtliche in Lehrveranstaltungeneingesetzten Medien zwischen den Stand-orten verteilen. Die wichtigsten Beispielef�r solche Anwendungen sind Werkzeugezur �bertragung von Video und Audio so-wie zur Pr�sentation von Folien. Zum an-deren wird eine geeignete Netzwerkinfra-struktur ben�tigt, �ber die die multimedia-len Datenstr�me �bertragen werden k�n-nen. Problematisch ist dabei die unter-schiedliche Anbindung verschiedener Teil-nehmergruppen. Beispielsweise verf�genStudenten, die eine Lehrveranstaltung amheimischen PC verfolgen, nur �ber eineschmalbandige ISDN-Verbindung, w�h-rend die H�rs�le durch breitbandigeATM-Strecken miteinander verbundensind.

Im Vergleich zur traditionellen Lehreverursacht die Erstellung von Lehrmaterialf�r Tele-Vorlesungen keinen oder nur ge-ringen Mehraufwand. Dagegen bedeutetdas Erstellen von Lehrmaterial f�r multi-mediale Kurseinheiten meist einen erhebli-chen Mehraufwand f�r den Dozenten, ins-besondere wenn der Stoff dem Mediumentsprechend didaktisch aufbereitet undmit multimedialen Bestandteilen angerei-chert wird. W�nschenswert sind daherVerfahren, die diesen Mehraufwand mini-mieren. Ein Ansatz zur Erzeugung solchmultimedialer Kurseinheiten ist es, die�bertragung von Veranstaltungen (i. d. R.Vorlesungen) aufzuzeichnen und mitLehrdokumenten zu verkn�pfen. Nebenden Aufzeichnungen ist es oft sinnvoll,weitere multimediale Elemente, wie z. B.

interaktive Animationen oder �bungenzur Selbstkontrolle, in die Teachware ein-zubinden. Die Erzeugung dieser Kursein-heiten kann in zwei Teilprobleme zerlegtwerden: Zum einen ist es notwendig, alleMedienstr�me einer Lehrveranstaltungaufzuzeichnen und auf einem Server zumAbruf bereitzustellen. Zum anderen mussnach einer Veranstaltung aus allen verf�g-baren Materialien m�glichst automatisierteine Kurseinheit generiert werden.

Abschnitt 2 gibt zun�chst eine kurzeEinf�hrung in Teleteaching und beschreibtdas Projekt VIROR. In Abschnitt 3 wirdein allgemeines Medienmodell eingef�hrt,das die Grundlage der weiterenDiskussionbildet. Anschließend werden die Medienuntersucht, die in verschiedenen Lehrsze-narien Verwendung finden. Abschnitt 4geht auf die zugrundeliegende Netzinfra-struktur ein. Die Aufzeichnung und Wie-dergabe von Tele-Veranstaltungen wird inAbschnitt 5 dargestellt. In Abschnitt 6wird beschrieben, wie multimediale Kur-seinheiten aus Lehrdokumenten und auf-gezeichneten Medienstr�men entstehen.Einen �berblick �ber die mit den be-schriebenen Verfahren und Szenarien ge-machten Erfahrungen gibt Abschnitt 7.Andere Arbeiten im Bereich Teleteachingwerden in Abschnitt 8 untersucht. Ab-

schnitt 9 beschließt den Artikel mit einerZusammenfassung.

2 Teleteaching

2.1 Projekt VIRORVIROR ist ein Verbundprojekt der vierUniversit�ten des Oberrheins, Freiburg,Karlsruhe, Mannheim und Heidelberg[VIRO98]. Das Projekt wird durch dasLand Baden-W�rttemberg im Rahmen desProgramms „Virtuelle Hochschule Baden-W�rttemberg“ gef�rdert. An den einzel-nen Standorten sind nicht nur Lehrst�hlein das Projekt eingebunden, sondern auchRechenzentren, um Ideen technisch zu

Dipl. Wirtsch.-Inf. Volker Hilt, Dipl.Math.-oec. Claudia Schremmer, Dipl.Wirtsch.-Inf. Christoph Kuhm�nch,Dipl. Wirtsch.-Inf. J�rgen Vogel,Universit�t Mannheim Lehrstuhl f�rPraktische Informatik IV, L 15, 16,D-68131Mannheim,E-Mail: {hilt|schremmer|kuhmuench|vogel}@informatik.uni-mannheim.de

E rzeugungund Verwendung

mult imedialer Teachwareim synchronen und

asynchronen Teleteaching

Volker Hilt, Claudia Schremmer,Christoph Kuhm�nch, J�rgen Vogel

WI – Schwerpunktaufsatz

WIRTSCHAFTSINFORMATIK 43 (2001) 1, S. 23–33 23

realisieren, und Bibliotheken, um dieNachhaltigkeit der Arbeit zu gew�hrleis-ten. So erstreckt sich das Projekt auf ins-gesamt 32 beteiligte Institutionen, die ge-meinsam an dem Ziel arbeiten, Elementeeiner virtuellen Universit�t aufzubauen.Wichtige langfristige Aspekte sind dabeidie universit�ts�bergreifende Kooperati-on, nachhaltige Verankerung computer-gest�tzter Lehre in der Hochschule, undals wichtigster Punkt die Verbesserung derLehre durch Computereinsatz. Diese Ver-besserung wird erreicht durch geringereOrts- und Zeitbindung der Lerner an denLehrenden, durch eine damit erreichbarethematische Erweiterung der Lehre durchTele-Veranstaltungen sowie durch erheb-lich verbesserte didaktische Qualit�t derLehre im Vergleich zur traditionell papier-basierten Form derWissensvermittlung.

Das Gesamtprojekt VIROR vereinigtso unterschiedliche Lehrst�hle wie statisti-sche Physik und Statistik, Medizin, Be-triebswirtschaftslehre, Psychologie undInformatik. In diesen F�chern werden In-halte erstellt, die an mindestens einem an-deren Standort zum Einsatz kommen. EinTeilprojekt Technik k�mmert sich umWeiterentwicklung und Ausbau einer ge-eigneten Netzinfrastruktur f�r synchronetelemediale Lehrveranstaltungen und umRecording-Mechanismen zur Verbreitungasynchronen Lehrmaterials. Hierzu z�hleninsbesondere die Authoring-On-The-Fly-(AOF) tools [BMOW97] und die in Ab-schnitt [RNSS00][MMSS99] vorgestellteComputer-Based-Training-Einheiten. Ei-

ne p�dagogisch-psychologische Begleit-evaluation betrachtet die Relevanz der er-stellten Inhalte auf das Lernverhalten derStudierenden und gibt den TechnikernR�ckmeldung �ber die Anwenderseite[Buch00][HoBH01][ScEf99]. Eine markt-wissenschaftliche und eine medienwissen-schaftliche Begleitevaluation runden dasProjekt ab, indem sie die Einbettung einer(teilweise) virtuellen Universit�t in die ak-tuellen soziologischen Str�mungen evalu-ieren.

2.2 Lehr- und Lernszenarien

Das Hauptziel synchronen Teleteachingsist es, Ortsunabh�ngigkeit zwischen Do-zent und Studierenden zu erreichen. Dieswird durch die �bertragung von Vorlesun-gen zwischen Universit�ten erm�glicht.Im VIROR-Projekt werden drei synchro-ne Lehr-/Lernszenarien erprobt und evalu-iert [Buch00][HoBH01][ScEf99]. Abh�n-gig von der Anzahl der an einem Kurs teil-nehmenden Orte, ihrer technischen An-bindung an das Internet und der Interakti-on zwischen den einzelnenGruppen unter-scheiden wir zwischen Remote-Lecture-Room, Remote-Interactive-Seminar undInteractive-Home-Learning (vgl. Bild 1).Im Remote-Lecture-Room-Szenario sinddie Teilnehmer �ber eine kleine Anzahlvon Standorten verteilt. Ein Remote-Lecture-Room kann grob mit einem Kinoverglichen werden, in das das �bertrageneVideo des Dozenten sowie die elektro-

nische Tafel mittels LCD-Projektor an eineLeinwand projiziert werden und die �ber-tragene Sprache �ber Lautsprecher aus-gestrahlt wird. In diesem Szenario gibt es,obwohl technisch m�glich, meist nur we-nig Interaktion, wie das auch in herk�mm-lichen Vorlesungen zu beobachten ist.

Ein Remote-Interactive-Seminar startet�blicherweise mit dem Vortrag eines Stu-dierenden, gefolgt von Diskussionen zwi-schen allen Teilnehmern. Ebenso wie beimRemote-Lecture-Room gibt es nur einebeschr�nkte Anzahl von teilnehmendenOrten, aber aufgrund der Diskussionenherrscht hier deutliche Interaktivit�t vor.

Das Interactive-Home-Learning wen-det sich an Studierende, die sich per ISDN(64/128 kbit/s) in eine Tele-Vorlesung ein-w�hlen und diese am heimischen PC ver-folgen k�nnen. Prinzipiell ist f�r diese Stu-denten eine Interaktion mit demDozentenm�glich. Dies erfordert jedoch zum einenentsprechende Hardware (Full-Duplex-Soundkarte, Mikrofon, Videokarte, Kame-ra) beim Studenten, zum anderen bestehteine hohe Hemmschwelle, von zu Hauseaus aktiv in eine Vorlesung einzugreifen.

Das Hauptaugenmerk asynchronerLernszenarien liegt darauf, die Studieren-den mit Lehrmaterial zu versorgen, das jenach eigenen Lernpr�ferenzen bez�glichInhalt und Tempo abgerufen werden kann.Gew�hnlich begleitet dieses Material eineVorlesung. Im Gegensatz zum synchronenSzenario, wo Lehrmaterial den Studieren-den vorgelegt wird, erlaubt asynchronesLernen selektives und aktives Holen desgew�nschten Stoffes. Aufgrund dieses fun-damentalen konzeptionellen Unterschie-des d�rfen Menge und Streuweite des Ma-terials erheblich gr�ßer sein als in synchro-nen Veranstaltungen, bei denen meist nurdie notwendigsten Sachverhalte vom Do-zenten erl�utert werden. Zusatzmaterialkann ebenfalls verwendet werden, um esdem Lernenden zu erm�glichen, Teil-aspekte des Stoffes tiefer zu erforschen.Durch die Bereitstellung kompakter Kurz-informationen f�r schnell Lernende undausf�hrlicher Detailinformationen f�rlangsam Lernende kann unterschiedlichenLernbed�rfnissen der Studierenden Rech-nung getragen werden. Im VIROR-Pro-jekt wird dabei besonderer Wert darauf ge-legt, auch interaktive Elemente in die Ma-terialien zu integrieren. Dieses wird mitden Computer-Based-Training-Einheitenrealisiert (vgl. Bild 1), die in Abschnitt 6n�her beschrieben werden.

Netzwerk NetzwerkNetzwerk Netzwerk

RLR RIS IHL CBT

= Dozent

Bild 1 Vier Teleteaching-Szenarien: die synchronen Szenarien Remote-Lecture- Room (RLR),Remote-Interactive-Seminar (RIS) und Interactive-Home-Learning (IHL) sowie das asynchroneComputer-Based-Training-(CBT) Szenario

Volker Hilt, Claudia Schremmer, Christoph Kuhm�nch, J�rgen Vogel

24

3 Medien in der Lehre

3.1 MedienmodellZur Vermittlung von Lehrinhalten werdenim synchronen und asynchronen Szenarioverschiedene Medien (Audio, Video, Ani-mationen, etc.) parallel eingesetzt. DieseMedien k�nnen bez�glich der KriterienZeitabh�ngigkeit und Interaktivit�t unter-schieden werden (vgl. Bild 2). Die Klasseder diskreten Medien ist zeitunabh�ngigund beinhaltet beispielsweise Bilder undVorlesungsfolien. Medien der kontinuierli-chenMedienklasse wie Video oder Anima-tionen ver�ndern ihren Zustand dagegenmit dem Fortschreiten der Zeit. Ein Bei-spiel f�r einen Zustandswechsel, der aus-schließlich durch den Ablauf der Zeit ver-ursacht wird, ist die Animation eines Ob-jekts, das sich �ber den Bildschirm bewegt.Das Kriterium der Interaktivit�t be-schreibt dagegen, inwieweit der Zustandeines Mediums durch Ereignisse (z. B. Be-nutzeraktionen) ver�ndert werden kann.Interaktive Medien wie Animationen oderannotierbare Dokumente gestatten solcheZustands�nderungen. Nicht-interaktiveMedien wie Video oder Grafiken erlaubendagegen keine Interaktion. Der Zustand ei-nes interaktiven Mediums zwischen zweiaufeinanderfolgenden Ereignissen ist volldeterministisch und h�ngt nur vom Ver-streichen der Zeit ab. Jeder Zustandswech-sel, der nicht durch eine deterministischeFunktion der Zeit definiert ist, wird durchein Ereignis verursacht.

3.2 Medienim synchronen Teleteaching

3.2.1 Einordnung

In synchronen Tele-Veranstaltungen wer-den �blicherweise Lehrdokumente, Audiound Video eingesetzt, um den Stoff zumLernenden zu transportieren. Unter denBegriff Lehrdokumente fallen die vomDozenten vorbereiteten Folien, Texte,Grafiken und Bilder. Sie geh�ren zur Klas-se der diskreten Medien und k�nnen inter-aktiven Charakter besitzen, falls beispiels-weise dynamisch Annotationen auf denDokumenten angebracht werden k�nnen.Weiterhin werden die Inhalte der Ver-anstaltung in verbalen Erl�uterungen desDozenten, in Diskussionsrunden sowie in

Fragen und Antworten transportiert. Cha-rakteristisch f�r dieses kontinuierlicheMedium ist, dass die Audiospur einer Ver-anstaltung live entsteht. Ein großer Teilder f�r den Lernstoff relevanten Informa-tionen wird �ber diesen Kanal transpor-tiert. F�r viele Fachbereiche ist auch dasVideo des Dozenten von entscheidenderBedeutung. Beispiele hierf�r sind physika-lische Experimente, die von einem Dozen-ten live vorgef�hrt werden oder medizi-nische Demonstrationen. Auch die Video-spur einer Lehrveranstaltung entsteht livew�hrend des Veranstaltungsablaufs. Dar�-ber hinaus werden in Lehrveranstaltungenweitere Medien wie beispielsweise vor-gef�hrte Animationen und Simulationenverwendet.

3.2.2 Lehrdokumente

Im Rahmen des synchronen Teleteachingwerden die oben genannten Lehrdoku-mente mit Hilfe eines elektronischen Whi-teboards zwischen den Standorten derTeilnehmer �bertragen und dort auf einemMonitor oder Beamer dargestellt. DasWhiteboard dient dabei als digitale Tafelund erm�glicht interaktive Annotationenw�hrend der Pr�sentation. Im VIROR-Projekt wurde zun�chst das imMBone ge-br�uchliche wb verwendet. Seit l�ngeremkommt auch das auf Tele-Veranstaltungenspezialisierte digital lecture board (dlb)zum Einsatz. Das dlb bietet im Vergleichzu anderen Whiteboards einen erheblich

erweiterten Leistungsumfang. Zus�tzlichzum �ffentlichen Arbeitsbereich (SharedWorkspace), in dem die jeweils aktuelleFolie pr�sentiert wird, existiert ein privaterArbeitsbereich. Dieser kann dazu verwen-det werden, w�hrend einer Veranstaltung(z. B. einer �bung) Dokumente vorzube-reiten. Folien des Shared Workspace k�n-nen mit Annotationen versehen werden,die nur lokal sichtbar sind, so dass privateMitschriften m�glich sind. Dar�ber hinausintegriert das dlb eine Reihe von Tools, diedie kollaborative Gruppenarbeit unter-st�tzen und somit helfen, das fehlendeGruppenbewusstsein (Awareness) bei Te-leveranstaltungen auszugleichen. Ein Tele-pointer erzeugt einen gemeinsamen Be-

Kernpunkte f�r dasManagement

Die Erzeugung und Verwendung multimedialer Dokumente in der tradi-tionellen Lehre ist �ußerst ineffizient. Die Aufzeichnung von Vorlesungen und dieautomatisierte Generierung von multimedialen CBT-Einheiten kann diesesProblem elegant l�sen., Vorlesungen enthalten einen signifikanten inhaltlichenWert, der durch

Aufzeichnung praktisch kostenfrei erschlossen werden kann., Internet-basierte Computer-Based-Training Einheiten erlauben eine

didaktisch sinnvoll strukturierte Pr�sentation umfangreicher multimedialerMaterialsammlungen im Internet.

, Ein automatischer Produktionsprozess (Aufzeichnung, CBT-Generieren)erm�glicht die schnelle und effiziente Verarbeitungmultimedialer Teachware.

Stichworte: Teleteaching, Teachware, interaktive Medien, medienunabh�n-giges Recording, RTP/I.

nicht-interaktive Medien

interaktive Medien

kontinuierliche Medien

diskrete Medien

Texte, Bilder Video

AnimationannotierbareDokumente

Bild 2 Beispiele f�r Medientypen

Erzeugung und Verwendung multimedialer Teachware

25

zugspunkt und wird vom Dozenten zumZeigen auf einer Folie verwendet. Wort-meldungen werden mit Hilfe des Melde-Tools koordiniert. Das Online-Feedback-Tool erlaubt die st�ndige Evaluation be-stimmter Parameter wie z. B. �bertra-gungs- und Vortragsqualit�t. Die Antwor-ten auf verschiedene Fragestellungen (z. B.kleinere �bungsaufgaben) lassen sich mitdem Voting-Tool einholen. Ein zus�tzli-ches Diskussionsforum ist mit dem Chat-Tool gegeben.

Im Rahmen des ANETTE-Projekts[ANET00] entsteht zur Zeit das multi-media lecture board (mlb) als Nachfolgerdes dlb. Die wichtigsten Eigenschaften desmlb aus der Sicht des Anwenders sind dieUnterst�tzung von Unix- und Windows-Plattformen und die Integration weitererDokumentenformate undMedien wie z. B.HTML und Pr�sentationsanimationen.

3.2.3 Audio und Video

Neben den Lehrdokumenten m�ssen auchdie Audio- und Videostr�me der Teilneh-mer zwischen den Veranstaltungsorten�bertragen werden. Diese �bertragungwird mit Hilfe von Videokonferenz-anwendungen realisiert. Im VIROR-Pro-jekt werden zur �bertragung des Tons dieim Internet Multicast Backbone (MBone)gebr�uchlichen Tools vat (visual audiotool) bzw. rat (robust audio tool) und zurVideo�bertragung vic (videoconferencingtool) eingesetzt. Das Video des Dozentenwird derzeit mit H.261 codiert und mit ei-ner Bandbreite von etwa 600 kbit/s �ber-tragen, der Ton wird mit PCM codiert undben�tigt eine Bandbreite von 64 kbit/s.

Da die �bertragung hochqualitativerVideodaten eine hohe Netzwerkbandbrei-te erfordert, muss hier i. d. R. ein Kompro-miss zwischen der verf�gbaren Bandbreiteund der gew�nschten Videoqualit�t ge-troffen werden. In Zukunft wird jedochdie verf�gbare Netzwerkbandbreite keinbeschr�nkender Faktor f�r die �bertra-gung von Lehrveranstaltungen mehr sein.Daher bieten sich in unseren seit vier Jah-ren erfolgreich umgesetzten Szenarienneue M�glichkeiten, um die Qualit�t vonsynchronen Lehrveranstaltungen nahe anFernsehqualit�t zu steigern.

Da andere Fachbereiche als die Infor-matik teilweise erheblich h�here Anforde-rungen an die �bertragungsqualit�t desVideos stellen (z. B. Photos in derMedizin,bei denen der Detailgehalt essentiell wich-

tig ist), werden zur Zeit MPEG-2 Hard-ware-Codecs zur �bertragung des Videoserprobt. Die Hardware-Codecs werden alsProdukt gekauft und sind sehr einfach zubedienen. Bei der Umstellung der Vor-lesungs�bertragungen von den MBone-Tools auf MPEG-2 sind andere Schwierig-keiten zu l�sen: In allen genutzten Lehr-szenarien werden auch digitale Folien�bertragen. Da ein MPEG-2-Strom (stan-dardm�ßig) einen ganzen Monitor belegt,muss f�r den Whiteboard-Strom einezweite Projektionsm�glichkeit vorhandensein. Wenn Videos aus mehreren Stand-orten �ber MPEG-2 empfangen werden,muss es zudem die M�glichkeit geben, dieVideos �ber Kreuzschiene oder Mischpultabzumischen. In jedem Fall wird die Ein-richtung eines Regieplatzes notwendig.

3.2.4 Animationen und Simulationen

Animationen und Simulationen k�nnenhelfen, komplexe Sachverhalte wie z. B.Algorithmen anschaulich darzustellen [Ja-va98]. Ein wichtiger Punkt f�r den Einsatzeiner solchen Animation in synchronenTele-Veranstaltungen ist die Synchronisa-tion: Die visuelle Darstellung muss �berallgleichzeitig erfolgen. Dar�ber hinaus mussdie Animation auch von allen Seiten steu-erbar sein. Insbesondere muss es dem Do-zenten erm�glicht werden, den Ablauf beiallen Teilnehmern gleichzeitig zu steuern,d.h. die Animation muss fernsteuerbarsein. Zu diesem Zweck wurde im Rahmendes IHL-Projekts (vgl. Bild 1) die Java-Re-mote-Control entwickelt. Mit Hilfe dieserJava-Bibliothek lassen sich Animationenmit wenigen �nderungen zu kooperativenAnimationen wandeln. Grundidee der Bi-bliothek ist es, lokale externe Ereignisse(Events) wie z. B. Benutzerinteraktionenabzufangen und an die entfernten Stand-orte zu �bertragen. Weiterhin stellt die Bi-bliothek sogenannte Synchronisations-punkte zur Verf�gung. Diese k�nnen vomProgrammierer an den entscheidendenStellen in den Programmcode eingef�gtwerden. Erreicht eine Animation einenSynchronisationspunkt, wird der weitereAblauf so lange unterbrochen, bis auch dieAnimationen an den entfernten Standortenden Synchronisationspunkt erreicht ha-ben.

3.2.5 Medien im asynchronenTeleteaching

Im asynchronen Szenario werden eben-falls verschiedene Medien parallel zurWissensvermittlung eingesetzt. Diese Do-kumente werden auf einem Server oderauf CD-ROM vorgehalten, so dass alleTeilnehmer einer Tele-Veranstaltung aufdie Unterlagen zugreifen k�nnen. ZentraleBestandteile der Teachware sind diskreteMedien wie die vom Dozenten vorbereite-ten Lehrdokumente sowie kontinuierlicheMedien wie Audio- und Videoclips, dieper Streaming vom Server abgerufen wer-den k�nnen. Interaktive Medien wie Ani-mationen oder �bungsaufgaben zurSelbstkontrolle erlauben dem Lernendeneine intensive Auseinandersetzung mitdem Stoff und sind insbesondere im asyn-chronen Szenario von großer didaktischerBedeutung.

4 Technische Realisierungdes synchronenTeleteachings

Die synchronen Tele-Veranstaltungen (Te-le-Vorlesungen, Tele-Seminare und Tele-Tutorien) des VIROR-Projekts kennendrei verschiedene Gruppen von Teilneh-mern, die sich jeweils durch die ihnen zurVerf�gung stehende Netzwerktechnologieunterscheiden. Teilnehmer der erstenGruppe verfolgen die Lehrveranstaltungenin den H�rs�len der Partneruniversit�ten,die �ber einen ATM/PVC (Permanent-Virtual-Circuit) mit einer garantierten�bertragungsrate von 10MBit/s mit demlokalen H�rsaal oder Seminarraum ver-bunden sind. Teilnehmer der zweitenGruppe sind Studierende, die die Vor-lesung an Nicht-Partneruniversit�ten inDeutschland �ber das �ffentliche MBoneverfolgen. Da dieses dem Best-Effort-Prinzip des Internet folgt, gibt es f�r dieseTeilnehmergruppe keine Qualit�tsgaran-tien. Insbesondere k�nnen pl�tzliche Eng-p�sse innerhalb des Netzwerks f�r Paket-verluste sorgen. Die dritte Gruppe umfasstStudierende, die die Veranstaltung imIHL-Szenario von zu Hause aus per ISDNverfolgen (vgl. Abschnitt 2.2). Diese Teil-nehmer verf�gen �ber eine schmalbandige,aber zuverl�ssige Verbindung von 64 kbit/sbzw. 128 kbit/s.

Volker Hilt, Claudia Schremmer, Christoph Kuhm�nch, J�rgen Vogel

26

Die gleichzeitige �bertragung von Da-tenstr�men �ber ATM/PVC, �ffentlichesMBone und ISDN erzeugt zwei technischeProbleme: Erstens erfordert die �bertra-gung von hochqualitativem Video eineBandbreite von mindestens 600 kbit/s, dienicht auf allen �bertragungsstrecken ver-f�gbar ist. Zweitens wird Multicasting vonISDN nicht unterst�tzt. Um diese Proble-me zu l�sen, wurde ein ISDN-Gateway[Kuhm98] entwickelt, das es erm�glicht,ausgew�hlte Datenstr�me einer Multicast-�bertragung in Einwahlverbindungen(Dial-In) einzuspeisen. Das Gateway bein-haltet einen einfachen Filtermechanismus,der die ausgew�hlten breitbandigen Me-dienstr�me so skaliert, dass sie �ber dieschmalbandige Dial-In-Verbindung �ber-tragen werden k�nnen. Das �bertragender Multicast-Datenstr�me funktioniertnach dem Prinzip eines Reflektors, der dieDaten einer Multicast-Gruppe empf�ngtund per Unicast zu einer Reihe von ISDN-Benutzern weiterversendet. Umgekehrtwerden ebenfalls die Daten eines ISDN-Benutzers vom Reflektor an alle anderenISDN-Benutzer und an die MulticastGruppe weitergeleitet. Das Gateway be-steht aus einer Server- und einer Client-Komponente. Der Client stellt eine gra-phische Benutzeroberfl�che zur Kom-munikationmit dem Server zur Verf�gung,der das Skalieren und �bertragen der Da-tenstr�me durchf�hrt. Mit Hilfe desClients authentifiziert sich ein Benutzerzun�chst beim Server und erh�lt anschlie-ßend eine Liste aller verf�gbaren Multicast�bertragungen.

Dieses Szenario wird abWS2000/01 umeine vierte Teilnehmergruppe erweitertwerden. Im Rahmen des DFN-ProjektsANETTE [ANET00] werden Studierendein Aachen in das VIROR-Netzwerk inte-griert. Diese partizipieren ebenfalls imIHL-Szenario von zu Hause aus, verf�genaber �ber die moderne Netzzugangstech-nologie ADSL (Asynchronous-Digital-Subscriber-Line). Die Datenrate betr�gtzwischen 6 und 9MBit/s in Richtung desTeilnehmers (Down-stream) und ca.640 kbit/s in Richtung des Netzwerkes(Upstream). Auch die �bertragung zuADSL-Benutzern bereitet ein technischesProblem: Zwar reicht die garantierte Da-tenrate von 6–9MBit/s f�r jeden einzel-nen Teilnehmer in der Regel aus, jedochk�nnen Engp�sse an den ADSL-Routernauftreten. Weiterhin unterst�tzt ADSL,wie auch alle anderen Dial-In-Netzwerke,

keinMulticasting. Aus diesemGrund wirdim Rahmen des Projekts ein sogenannterADSL Multicast-Access-Server ent-wickelt, der auf dem Konzept des ISDN-Gateways beruht. Aus Performance-Gr�nden wird dieser in den Kernel des Be-triebssystems des ADSL-Routers inte-griert.

Bild 3 fasst die wesentlichen Bestandtei-le des VIROR-Netzwerkes zusammen.Die linke obere Ecke zeigt das Campus-Netzwerk der Universit�t Mannheim.�ber den ISDN-Einwahlknoten des Re-chenzentrums k�nnen Studierende von zuHause aus an der Lehrveranstaltung imH�rsaal teilnehmen. Dazu benutzen siedas ISDN-Gateway. �ber ATM/PVCswerden die Datenstr�me der Vorlesung zuden entfernten H�rs�len in Freiburg,Karlsruhe und Heidelberg �bertragen.Auch die RWTH Aachen wird �ber einenATM/PVC angeschlossen. �ber denADSL Multicast-Access-Server im Re-chenzentrum Aachen werden die Multi-cast-Str�me zun�chst in die Ortsvermitt-lungsstelle der Telekom geleitet. Von dortaus gelangen sie schließlich �ber ADSL zuden Studierenden nachHause.

5 Aufzeichnung undWiedergabe von synchronenLehrveranstaltungen

Die in synchronen Lehrveranstaltungendynamisch entstehenden Medien (Annota-tionen, Audio und Video) enthalten einensignifikanten Mehrwert an Informationenim Vergleich zu den vorbereiteten Lehr-dokumenten. Werden diese Medien auf-gezeichnet, entstehen multimediale Ele-mente ohne nennenswerten Zusatzauf-wand f�r den Autor. Die Herstellungskos-ten solcher Elemente sind somit sehr ge-ring.

5.1 Aufzeichnungvon Audio und Video

Die Aufzeichnung der Audio- und Video-str�me synchroner Lehrveranstaltungenist mittlerweile sehr gut verstanden undwird im VIROR-Projekt seit dem Som-mersemester 1998 im Regelbetrieb durch-gef�hrt. Zur Aufzeichnung wird dasMVoD-System verwendet, das die aus demH�rsaal �bertragenen Audio- und Video-str�me empf�ngt und synchronisiert aufder Festplatte abspeichert. Da nach unse-

Bild 3 Netztechnische Anbindung der verschiedenen Teilnehmergruppen

Erzeugung und Verwendung multimedialer Teachware

27

ren Erfahrungen die Qualit�t des Video-stroms bei Informatikvorlesungen nichtentscheidend ist, wird der mit 600 kbit/sgesendete Videostrom zur Aufzeichnungauf eine Bandbreite von 128 kbit/s skaliert;das spart zum einen Speicherplatz und er-m�glicht zum anderen den Abruf einerAufzeichnung �ber zwei ISDN-Leitun-gen.

5.2 Aufzeichnunginteraktiver Medien

Die Aufzeichnung der interaktiven Me-dien einer Lehrveranstaltung ist weit pro-blematischer. Eine der Hauptschwierigkei-ten bei der Implementierung eines Rekor-ders f�r interaktive Medien ist die Realisie-rung des wahlfreien Zugriffs auf gespei-cherte Aufzeichnungen. Der wahlfreie Zu-griff auf Audio- und Videoaufzeichnungenist relativ unproblematisch, da diese Me-dien keine internen Abh�ngigkeiten besit-zen: Das Decodieren eines Audio- bzw.Videostroms kann prinzipiell an beliebigenStellen innerhalb einer Aufzeichnung be-ginnen. Im Gegensatz dazu erfordert bei-spielsweise das Decodieren einerWhitebo-ard-Aufzeichnung zus�tzlich das Wissen�ber den am Zugriffszeitpunkt g�ltigenZustand. So k�nnte ein Dozent in eineraufgezeichneten Whiteboard-Sitzung inMinute 12 eine Postscript-Folie laden, aufder er dann in Minute 17 eine Annotationanbringt. Wird nun auf die Aufzeichnungdieser Sitzung an der Minute 17 zugegrif-fen, so w�rde ohne weitere Vorkehrungennur die Annotation wiedergegeben. Dieder Annotation zugrundeliegende Seitew�rde fehlen. Diese Seite ist an Minute 12im aufgezeichneten Datenstrom enthalten,d.h. weit vor dem Zugriffspunkt.

Ein zweites Problem ist, dass f�r inter-aktive Medien imGegensatz zu Audio undVideo bislang keine standardisierten Netz-werk-Transportprotokolle und Codie-rungsformate existieren. Derzeit wird f�rjede Anwendung ein eigenes Protokollspezifiziert und implementiert. Dadurchentsteht hoher Zusatzaufwand bei der An-wendungsentwicklung, bekannte Proble-me werden jedesmal aufs Neue gel�st unddie Interoperabilit�t der Anwendungen istnicht gew�hrleistet. Es ist zudem nichtm�glich, einen generischen Rekorder f�rinteraktive Medienstr�me zu entwickeln,der analog zu existierenden Rekordern f�rAudio und Video interaktive Medien un-

abh�ngig von deren Codierung aufzeich-nen und wiedergeben kann. Ohne ein stan-dardisiertes Protokoll ist eine individuelleAnpassung des Rekorders f�r jeden auf-zuzeichnendenMedienstrom notwendig.

5.2.1 RTP/I-Protokoll

Um die oben genannten Probleme zu l�-sen, wurde an der Universit�t Mannheimbasierend auf dem in Abschnitt 3.1 vor-gestellten Medienmodell das generischeTransportprotokoll RTP/I (Application-Level-Protocol for Distributed-Interacti-ve-Media) [MHKV00] f�r verteilte inter-aktive Medien entworfen. Dieses Pro-tokoll kann sowohl diskrete als auch kon-tinuierliche Medien transportieren. Diebeiden wichtigsten Designkriterien vonRTP/I werden im folgenden kurz vor-gestellt:

– Die Kernfunktionalit�t des RTP/I-Pro-tokolls ist die �bertragung von Ereig-nissen und Zustandsinformationen. Al-le �bertragenen Daten werden mit ei-nem gemeinsamen Protokollheader ver-sehen. Dieser Header enth�lt gen�gendInformationen, um auf den �bertrage-nen Daten Aktionen ausf�hren zu k�n-nen, ohne die medienspezifische Codie-rung der Ereignisse und Zustandsinfor-mationen zu lesen. Beispielsweise er-m�glicht es der generische Protokoll-header, bei der �bertragung zwischenZust�nden und Ereignissen zu unter-scheiden.

– Eine wichtige Anforderung an RTP/Iist die Flexibilit�t und Anpassbarkeitdes Protokolls. Analog zum im Internetweit verbreiteten Real-Time TransportProtocol (RTP) f�r Audio- und Video-str�me bildet RTP/I ein generischesProtokoll-Rahmenwerk. Dieses Rah-menwerk wird an die Erfordernisse der�bertragung eines konkreten Medien-typs durch zus�tzliche Spezifikationenangepasst. Eine solche Spezifikation be-inhaltet u. a. die Codierung von Ereig-nissen und Zustandsinformationen.Beispiel f�r ein solches Medium ist dasmultimedia lecture board.

5.2.2 RTP/I-Rekorder

Basierend auf dem RTP/I-Rahmenwerkwurde ein Rekorder f�r interaktive Me-dienstr�me entwickelt [HMKE99]. DieserRekorder erweitert das MVoD-System um

einen Protokollstack f�r RTP/I. Um denwahlfreien Zugriff auf aufgezeichnete Me-dienstr�me zu erm�glichen, wurde einMe-chanismus in den Rekorder integriert, derden Medienzustand zu Beginn einer Wie-dergabe rekonstruiert. Da dieser Mecha-nismus ausschließlich auf den RTP/I-Pro-tokollelementen arbeitet und keine me-dienspezifischen Daten interpretiert, ist esnicht m�glich, den Anfangszustand einesMediums im Rekorder direkt zu berech-nen. Dagegen kann der Rekorder existie-rende RTP/I-Pakete aus einer Aufzeich-nung extrahieren und senden. Die Aufgabedes Rekorders ist es daher, eine Sequenzaus aufgezeichneten Zustandsinformatio-nen und Ereignissen so zusammenstellenund zu senden, dass alle Empf�nger in denf�r das weitere Abspielen ben�tigten Zu-stand versetzt werden.

Der Zustand eines interaktiven Medi-ums ist bestimmt durch den initialen Zu-stand und eine Sequenz von Ereignissen,die auf diesen Zustand angewandt werden.In einem diskreten interaktiven Mediumist der Zeitpunkt, an dem ein Ereignis aus-gewertet wird, f�r den resultierenden Zu-stand nicht von Bedeutung. Es muss ledig-lich sichergestellt werden, dass die Ereig-nis-Reihenfolge nicht ver�ndert wird. Bei-spielsweise ist es f�r dem Endzustand eineselektronischen Whiteboards nicht von Be-deutung, ob die Annotationen einer Seitein Echtzeit oder mit hoher Geschwindig-keit eingespielt wurden. Demgegen�ber istder Auswertungszeitpunkt eines Ereignis-ses bei einem kontinuierlichen Mediumentscheidend f�r den resultierenden Zu-stand. Dies l�sst sich an einem einfachenBeispiel verdeutlichen: In einer Eisenbahn-Simulation seien als Ereignisse das Anfah-ren und Anhalten eines Zuges sowie dasUmstellen einer Weiche definiert. L�sstman den Zug anfahren, stellt anschließenddie Weiche um, und stoppt dann den Zugwieder, so ist es entscheidend f�r den End-zustand dieser Simulation, ob der Zug dieWeiche vor dem Umstellen bereits passierthatte (dann h�tte das Umstellen keine Aus-wirkung auf den Endzustand) oder nicht(dann w�rde der Zug das andere Gleis be-nutzen). Daher m�ssen Ereignisse w�h-rend der Initialisierung eines kontinuierli-chen Mediums immer in Echtzeit wieder-gegeben werden. Dies hat zur Folge, dassdas Abspielen eines aufgezeichneten kon-tinuierlichen Mediums nicht exakt an dergew�nschten Zugriffsstelle beginnt, son-dern an einer Stelle, an der im aufgezeich-

Volker Hilt, Claudia Schremmer, Christoph Kuhm�nch, J�rgen Vogel

28

neten Medienstrom ein Zustand enthaltenist. Je �fter der Zustand von einer Anwen-dung �bertragen wird, mit um so feinererGranularit�t kann sp�ter auf die Aufzeich-nung zugegriffen werden.

In Bild 4 ist ein aufgezeichneter Me-dienstrom, bestehend aus einer Sequenzvon Zust�nden und Ereignissen, dar-gestellt. Wenn ein Benutzer die Wieder-gabe dieser Aufzeichnung an Position tpstartet, so muss der Zustand an tp wieder-hergestellt werden. Ein kontinuierlichesMedium erlaubt keinen direkten Zugriffauf tp, da an dieser Stelle kein Zustand imMedienstrom enthalten ist. Der Zugriff aufdie Position t2 ist jedoch m�glich. Handeltes sich um ein diskretes Medium, so kanndirekt auf tp zugegriffen werden, da diezwischen t2 und tp liegenden Ereignisseohne Verz�gerung nach dem Zustand t2abgespielt werden k�nnen. Die zu Beginneiner Wiedergabe erzeugte Sequenz ausZustand und Ereignissen f�r kontinuierli-che und diskrete Medienstr�me ist in Bild4 dargestellt.

6 Integration der Medienzu einer Computer-Based-Training-Einheit

Parallel zu den synchronen Lehrveranstal-tungenwerden imasynchronenLehrszena-rio Computer-Based-Training-Einheiten(CBT-Einheiten) erstellt, die alle zur jewei-ligen Veranstaltung verf�gbaren multime-dialen Dokumente integrieren. Der Auf-wand zur traditionellen Herstellung multi-medialer Kurseinheiten mit speziellenMultimediaAutorenwerkzeugen ist enormund kann i. d. R. vom Dozenten nicht rou-tinem�ßig bew�ltigt werden. Wichtige Vo-raussetzung f�r die fortlaufende Produk-tion von Kurseinheiten ist daher die Mini-mierung des Herstellungsaufwands. Da-raus folgt die Forderung, alle manuell edi-tierten Dokumente effektiv zu nutzen undeinenm�glichst hohenGrad derAutomati-sierung bei Routinearbeiten anzustreben.Dies wurde bei der Entwicklung unseresProduktionsverfahren f�r multimedialeKurseinheiten ber�cksichtigt.

Da die im VIROR-Projekt realisiertenLehrszenarien sehr unterschiedliche An-forderungen an Dokumentenformate stel-len, werden Lehrdokumente gleichen In-halts in verschiedenen Formaten ben�tigt

(z. B. als Postscript-Dokument f�r Vor-lesungen und als HTML-Dokument f�reine CBT-Einheit). Das Dokumentenfor-mat von Autorenwerkzeugen (z. B. Micro-soft Word) eignet sich dabei in den seltens-ten F�llen direkt zum Einsatz in Lehrver-anstaltungen. Das entwickelte Produkti-onsverfahren erlaubt es daher, die im Pri-m�rformat des Autorenwerkzeugs vorlie-genden Dokumentenbausteine weitest-gehend automatisiert in die in den Lehr-szenarien ben�tigten Pr�sentationsformateumzuwandeln. Dadurch k�nnen erstellteDokumente sehr effektiv genutzt werden.Das Verfahren gliedert sich in drei Schritte(siehe Bild 5): Nach dem Editieren des Do-kuments wird im ersten Schritt eine Dateiim RTF-Format erzeugt, das von allen

g�ngigen Textverarbeitungssystemen ge-schrieben werden kann. Aus diesem RTF-Dokument werden im zweiten Schritt dieverschiedenen Pr�sentationsformate (Post-script, PDF und HTML) erzeugt. DieHTML-Version wird anschließend in ei-nem dritten Schritt mit zus�tzlichen multi-medialen Elementen (Vorlesungsmit-schnitten, Animationen, �bungsaufgaben,etc.) verkn�pft und anhand eines vorgege-benen Instruktionsdesigns zu einer CBT-Einheit aufbereitet. Die Zuweisung derVorlesungsmitschnitte zu den generiertenDokumenten erfolgt dabei weitgehend au-tomatisiert, da w�hrend der Aufzeichnungeiner Veranstaltung die Verwendung derLehrdokumente protokolliert wird. DiesesProtokoll dient als Eingabeparameter des

� � � � � � � � � � � � � � �

� � � � � � � � � � � � � � � � � � �

� � � � � � � � � � � � � � � � � � � � � � � � � � � � � � �

� � � � � � � � � � � � � � � � � � � � � � � � �

� �

� �

� �

� �� ��

� �

� �

� �

� �

Bild 4 Wahlfreier Zugriff auf einen aufgezeichneten Medienstrom

Bild 5 Konversions- und Strukturierungsprozess einer CBT

Erzeugung und Verwendung multimedialer Teachware

29

CBT-Produktionsprozesses. Die Einbin-dung weiterer Dokumente kann vom Au-tor selbst festgelegt werden.

Seit dem Sommersemester 1998 werdenmit unserem Verfahren routinem�ßig mul-timediale CBT-Einheiten generiert. Bis-lang entstanden sind Kurseinheiten zu denHauptstudiumsveranstaltungen Rechner-netze [RNSS00] und Multimedia-Technik[MMSS99]. Bild 6 zeigt das Abspielen ei-nes Vorlesungsmitschnitts aus der CBT-Einheit f�r Rechnernetze.

7 Erfahrungen

7.1 Erfahrungen im Bereichdes synchronen Teleteaching

Im Sommersemester 1998 wurde die Vor-lesungMultimedia-Technik an der Univer-sit�t Mannheim untersucht. Der Fragebo-gen war an den standardisierten Fragebo-gen HILVE [RiAm94] angelehnt. Zudem

wurde die Software f�r die via ISDN ange-bundenenHome Learner evaluiert.

Bez�glich der insgesamt 65 teilnehmen-den Studenten ergab sich folgende Zusam-mensetzung: 43 Teilnehmer im lokalenH�rsaal, 10 Teilnehmer im H�rsaal derUniversit�t Freiburg und 12 IHL-Teilneh-mer. Da die jeweilige Gruppengr�ße rechtklein war und zudem variierte, wird imFolgenden statt einer statistischen Beurtei-lung eine rein deskriptive Bewertung gege-ben. Die Studierenden im lokalen H�rsaalvergaben durchweg bessere Beurteilungen.Die entfernten Teilnehmer bewerteten dieWahrnehmung in einer traditionellen Vor-lesung als besser. Als Gr�nde wurden dieUnvertrautheit mit dem Video auf demBildschirm bzw. Video-Beamer und dieschlechte Audioqualit�t in Verbindung mitder eingeschr�nkten Darstellungsqualit�tder Folien auf demVideo-Beamer genannt.Zus�tzlich f�hlten sich die Studierenden inder entfernten Situation nicht so gut vomVortragenden wahrgenommen. Diese Er-gebnisse stimmen mit denen in [EcGe97]�berein.

Evaluiert wurde auch, wie die Studie-renden die Qualit�t der drei MedientypenAudio, Video und Whiteboard in Bezugauf die Relevanz f�r ihren Lernprozess be-urteilten. Aufgrund der unterschiedlichentechnischen Voraussetzungen werden dieErgebnisse der Gruppen getrennt dis-kutiert: (1) Home-Learning-Teilnehmer:Sowohl die Audio- als auch die Videoqua-lit�t wurden nur als ausreichend bewertet.Die Ergebnisse deuten allerdings daraufhin, dass Video in Informatik-Vorlesungennur von geringer Bedeutung ist. Die Whi-teboard-Qualit�t erhielt gute Bewertun-gen. (2) Studenten im H�rsaal der Univer-sit�t Freiburg: Wegen der h�heren Band-breite ergab sich ein deutlich besseres Vi-deobild. Die Relevanz des Videos wird vonden Studenten als durchschnittlich und dieRelevanz des Whiteboards und des Audiosals hoch bewertet. W�hrend die Qualit�tdes Videos und des Whiteboards den An-forderungen der Studierenden gen�gte,wurde die Audioqualit�t als verbes-serungsw�rdig eingestuft.

Spezifische Fragen zur Evaluation desHome Learning Szenarios zeigten, dass dieTeilnehmer teils durch technisches Interes-se an ISDN und teils durch pers�nlicheKontakte zum Lehrstuhl zur Teilnahmemotiviert waren. Zudem fanden es einigeStudierende vorteilhaft, dass sie nicht zurUniversit�t fahren mussten. Eine wichtigeErkenntnis ist, dass Home Learninggrunds�tzlich von den Studierenden ak-zeptiert wird, wobei eine h�here Band-breite sehr w�nschenswert ist.

7.2 Erfahrungenmit der CBT-Einheit

Um einen Hinweis auf die Akzeptanz dermultimedialen Kurseinheiten ([RNSS00][MMSS99]) bei den Studierenden zu erhal-ten, wurde die Zugriffsh�ufigkeit auf denCBT-Server untersucht (vgl. Bild 7).

Am h�ufigsten wurde ausschließlichAudio abgerufen. Ein Grund daf�r k�nntesein, dass viele Studierende per Modem aufdie CBT zugreifen und somit nicht �berdie erforderliche Bandbreite f�r Audiound Video von rund 145 kbit/s verf�gen.Wenn gen�gend Bandbreite zur Verf�gungsteht, wie dies beispielsweise in einigenStudentenwohnheimen der Fall ist, werdensowohl Audio als auch Video genutzt. Diestarken H�ufungen der Zugriffe kurz vorden Pr�fungen im April und im September

Bild 6 Abruf einer Vorlesungsaufzeichnung aus einer CBT

Volker Hilt, Claudia Schremmer, Christoph Kuhm�nch, J�rgen Vogel

30

weisen darauf hin, dass die CBT zur Pr�-fungsvorbereitung intensiv genutzt wird.DieH�ufung imDezember kann so gedeu-tet werden, dass Studierende die vor-lesungsfreien Zeit genutzt haben, um ver-s�umte Vorlesungen nachzuarbeiten. Die„Grundlast“ von etwa 200 Zugriffen proMonat deutet auf eine kontinuierlicheNachbearbeitung von Vorlesungen mit derCBT hin. Insgesamt kann festgestellt wer-den, dass die multimedialen Kurseinheitenbei den Studierenden auf großes Interessestoßen und als wichtige Informationsquel-le in den Lernprozess integriert wurden.

8 Andere Arbeitenim Bereich Teleteaching

Die wachsende Popularit�t von Teletea-ching zeigt sich auch in der Vielzahl vonProjekten, die sich mit diesem Thema be-sch�ftigen. Unterschiede zum hier vor-gestellten Ansatz bestehen vor allembez�glich Zielsetzung, unterst�tzter Sze-narien und Systemarchitektur.

Im Rahmen des Interactive Remote In-struction-Projekts (IRI) in Virginia an derOld Dominion University entsteht seit1993 ein Teleteaching-System, das sowohlsynchrone als auch asynchrone Lehrszena-rien unterst�tzt [MaAb97]. Die Aufzeich-nung synchroner Veranstaltungen bildet

auch hier die Schnittstelle zwischen denbeiden Szenarien. Ein wesentlicher Unter-schied von IRI ist es jedoch, dass das Re-cording und Playback mit Hilfe speziellangepasster Applikationen erfolgt undnicht generisch ist. Dadurch ergibt sich dieNotwendigkeit, bei der Integration neuerTools entsprechende Rekorder-Module zuimplementieren bzw. anzupassen (vgl.auch Abschnitt 5).

Der Schwerpunkt des Authoring-On-the-Fly-Systems (AOF) der Universit�tFreiburg liegt in der Produktion von CBT-Einheiten durch Aufnahme von Live-Ver-anstaltungen [BMOW97]. Diese Einhei-ten werden als CD-ROM vertrieben, dieBereitstellung auf einem Server ist nichtm�glich. Der verwendete Rekorder istebenfalls speziell auf die AOF-Tools ange-passt, was zu den oben erw�hnten Proble-men f�hrt. Ein weiterer Nachteil vonAOF ist die fehlende Kollaborationsunter-st�tzung im synchronen Szenario. Bei-spielsweise kann nur der Dozent Annota-tionen auf dem Whiteboard (AOFwb) an-bringen.

Sowohl der Lecture Browser der Cor-nell University [MuSm99] als auch Class-room 2000 (bzw. eClass) des Georgia Insti-tute of Technology [Abow99] unterst�tzenausschließlich das asynchrone Szenario:Lehrveranstaltungen werden zwar auf-gezeichnet, aber nicht an andere Standorte�bertragen. Das Ziel des Lecture Browsersliegt in der Aufzeichnung von Vortr�gen,

die nicht speziell daf�r vorbereitet sind.Bei der Aufzeichnung werden dabei aus-schließlich Video- und Audiostr�me be-r�cksichtigt. In der Nachbearbeitung wer-den die Videostr�memiteinander synchro-nisiert, automatisch geschnitten und mitden vorbereiteten Pr�sentationsfolien zuTeachware verkn�pft. W�hrend einer Ver-anstaltung angebrachte Annotationen sindnur auf dem Video sichtbar sind. Class-room 2000 ist vollst�ndig in Java imple-mentiert und realisiert die AufzeichnungderMedienstr�me einer Lehrveranstaltungmit spezifischen Rekorder-Modulen. DieBesonderheit von Classroom 2000 liegt ineiner integrierten Suchfunktion, mit derenHilfe auf bestimmte Passagen einer CBT-Einheit schneller zugegriffenwerden kann.

9 Zusammenfassung

Dieser Artikel stellt verschiedene Lehr-und Lernszenarien f�r synchrone undasynchrone Tele-Lehrveranstaltungen vorund untersucht die verwendeten Medien,die anhand eines Medienmodells klassifi-ziert werden. Das synchrone Szenariostellt viele Herausforderungen an Band-breite, Protokolle und Synchronisation. Indiesem Zusammenhang haben wir Anwen-dungen zur �bertragung verschiedenerMedien diskutiert: dlb/mlb zur Pr�sentati-on von Lehrdokumenten, die MBone-Tools vic und vat/rat zur �bertragung vonVideo und Audio, MPEG-2 Hardware-Codecs und kooperative Java-Anima-tionen. Weiterhin wird eine Netzinfra-struktur beschrieben, die Studierenden�ber eine Vielzahl von Netzzugangstech-nologien die Teilnahme an Tele-Veranstal-tungen erm�glicht (ISDN und ADSL �berdas Dial-In-Gateway).

Zur Vor- und Nachbereitung von Lehr-veranstaltungen fragen viele Studierendejedoch interaktive, asynchrone Lehrdoku-mente nach. Die Erstellung solch asyn-chroner Dokumente ist ein aufw�ndigerProzess. �ber die vorgestellten Recor-ding-Verfahren nicht nur f�r Audio undVideo, sondern auch f�r interaktive An-wendungen, realisieren wir den Br�cken-schlag von synchronen in asynchroneLernszenarien. Unter den gegebenen Vo-raussetzungen erstellen wir somit asyn-chron nutzbare, in der Herstellung �ußerstflexible, multimediale Lehrdokumente mit

Bild 7 Zugriffe auf Vorlesungsmitschnitte

Volker Hilt, Claudia Schremmer, Christoph Kuhm�nch, J�rgen Vogel

32

minimalem Aufwand. Diese Recording-und Konvertierungsverfahren werden anden VIROR-Universit�ten Mannheim,Freiburg, Karlsruhe undHeidelberg einge-setzt und von den Studierenden gernenachgefragt.

Danksagung

Die Projekte im Bereich Teleteaching derUniversit�t Mannheim werden unterst�tztvom Land Baden-W�rttemberg und vomDFN-Verein.

Literatur

[Abow99] Abowd, Gregory D.: Classroom 2000:An experiment with the instrumentation of aliving educational environment. IBM SystemsJournal, Vol. 38, No. 4, 1999, S. 508–530.

[ANET00] ANETTE. Projekt Applications andNetwork Technology for Teleteaching. URL:http://www.informatik.uni-mannheim.de/informatik/pi4/projects/ANETTE/anetteIndex.html, Abruf am 2000-09-27.

[BMOW97] Bacher, Christian; M�ller, Rainer;Ottmann, Thomas; Will, Matthias: Authoringon the Fly. A new way of integrating telepre-sentation and courseware production. In: Proc.ICCE ‘97, Kuching, Sarawak,Malaysia, 1997.

[Buch00] Buchholz, Andrea: Von rollendenSchreibtischst�hlen und virtuellen Studenten -Ethnographie einer Televeranstaltung. S. Uell-ner & V. Wulf (Hrsg.). Vernetztes Lernen mitdigitalen Medien, Heidelberg, Physica-Verlag,2000, S. 163–182.

[EcGe97] Eckert, Andreas; Geyer, Werner; Effels-berg, Wolfgang: A Distance Learning Systemfor Higher Education in Telecommunicationsand Multimedia – A Compound Organizatio-nal, Pedagogical and Technical Approach.Proc. ED-MEDIA/ED-TELCOM ‘97, Calga-ry, Canada, 1997.

[HMKE99] Hilt, Volker; Mauve, Martin; Kuh-m�nch, Christoph; Effelsberg, Wolfgang: AGeneric Scheme for the Recording of Interacti-ve Media Streams. In: Proc. InternationalWorkshop on Interactive Distributed Multi-media Systems and Telecommunication Ser-vices 1999 (IDMS‘99). Toulouse, France. M.Diaz et.al. (Eds.), LNCS 1718, Springer Verlag,Berlin, Germany, 1999, pp. 291–304.

[HoBH00]Horz, Holger; Buchholz, Andrea; Ho-fer, Manfred: Neue Lehr-Lernformen durchTeleteaching. In: Praxis der Informationsver-arbeitung und Kommunikation (PIK), 23,03/2000, K.G. Saur Verlag, M�nchen, 2000,pp. 129–136.

[Java98] Java Applets zu Rechnernetze und Mul-timedia-Technik. URL: http://www.informatik.uni-mannheim.de/informatik/pi4/stud/animationen/, Abruf am 2000-09-27.

[Kuhm98] Kuhm�nch, Christoph: A MulticastGateway for Dial-In Lines. In: Proc. of the Eu-ropean Conference on Multimedia Applica-tions, Services and Tools (ECMAST), Madrid.LNCS 1629, Springer Verlag, Berlin, 1998,pp. 441–455.

[MaAb97] Maly, Kurt; Abdel-Wahab, Hussein;Overstreet, Michael C.; Wild, Christian; Gup-ta, Ajay; Youssef, Alaa; Stoica, Emilia; Al-Shaer, Ehab: Interactive Distance LearningOver Intranets. IEEE Journal of InternetComputing, Vol 1, No. 1, 1997, pp. 60–71.

[MHKV00] Mauve, Martin; Hilt, Volker; Kuh-m�nch, Christoph; Vogel, J�rgen; Geyer, Wer-ner; Effelsberg, Wolfgang: RTP/I: An Applica-tion Level Real-Time Protocol for DistributedInteractive Media. Internet Draft, IETF, draft-mauve-rtpi_00.txt, March, 2000.

[MMSS99] Vorlesung „Multimedia-Technik“ imSommersemester 1999. URL: http://www-mm. informatik.uni-mannheim.de/veranstaltungen/ss1999/multimedia/,Abruf am 2000-09-27.

[MuSm99]Mukhopadhyay, Sugata; Smith, Brian:Passive Capture and Structuring of Lectures.

In: Proc. of ACM Multimedia ‘99, Orlando,1999.

[RiAm94] Rindermann, H.; Amelang, M.: DasHeidelberger Inventar zur Lehrveranstaltungs-evaluation (HILVE ) – Handanweisung. Hei-delberg: Asanger, 1994.

[RNSS00] Vorlesung „Rechnernetze“ im Som-mersemester 2000. URL: http://www-mm.informatik.uni-mannheim.de/veranstaltungen/ss2000/rechnernetze/, Abruf am 2000-09-27.

[ScEf99] Schremmer, Claudia; Effelsberg, Wolf-gang: Konzeption und Durchf�hrung einesverteilten multimedialen TeleSeminars zwi-schen den Universit�ten Freiburg, Karlsruhe,Mannheim und Eichst�tt im SS1999. In: Proc.Lehren und Lernen mit Neuen Medien – Mo-delle – Plattformen – Werkzeuge; Hildesheim,1999.

[VIRO98] VIROR. Virtuelle Universit�t Ober-rhein. Verbundprojekt zwischen den Univer-sit�ten Freiburg, Heidelberg, Karlsruhe undMannheim. URL: http://www.viror.de, Abrufam 2000-09-27.

Erzeugung und Verwendung multimedialer Teachware

33