Wenn Sie kein Inhaltsverzeichnis sehen, dann klicken Sie bitte hier: Wenn Sie auch andere Themen sehen wollen hier: Natürlich würde ich mich auch über eine Eintragung ins Gästebuch freuen

0. Vorwort

In grau gehaltene Passagen sind speziellere Ausführungen, die nicht unbedingt zum Verständnis des Folgenden beitragen und daher vom Anfänger übersprungen werden können

Etliche Passagen des Abschnitts über QT sind Exzerpte aus [1]

1. Hardware-Erfordernisse

1.1 Plattenspeicher

Die größten Festplatten, die nicht einfach aus mehreren als Array zusammen gehängten Einzelplatten bestehen, liegen 2/2010 bei 2 TB.

Plattenumdrehgeschwindigkeiten liegen bei 5400 resp. 7200 UpM. Das schnellere Tempo hat aber keinen Sinn, wenn die sog. Bridge die Kapazität nicht erreicht (so hat z.B. die Oxford-911-Bridge nur einen Maximaldurchsatz von 35MB/s). Bei theoretischen Durchsatzraten um 35MB/s liegen die optimalen Dauertransferraten im Benchtest knapp unter 30MB/s. Das reicht für einen konstanten DV-Stream von 3,6MB/s. Über das Anzeigen der Datenraten in QT siehe weiter unten.

Die nötigen Platten sollen eine FW-Schnittstelle haben und nicht zu klein sein. 1 min DV benötigt 60 x 3,6 = 215MB, 1 Stunde 60 mal mehr, das ist etwa 12,7GB. Außerdem muss man beim Arbeiten darauf achten, dass man die Platte nicht zu sehr fragmentiert, was bei knapp bemessenem Plattenplatz viel eher passiert, als wenn die Platte großzügiger ausgelegt ist. Wegen der Performance soll auch auf derjenigen Platte, die das zu bearbeitende Material enthält kein Programm und keine Systemkomponente abgespeichert sein, da ansonsten durch den alternierenden Zugriff auf Programm und gespeichertes Videomaterial der Lesekopf ständig hin- und herfahren muss, was die Verarbeitungsgeschwindigkeit drastisch beeinträchtigen kann.

1.2 Monitore und Beamer

Ursprünglich verwendete man als Monitore CRT (Cathode Ray Tubes), also Röhrentypen, die auch noch 2007 die beste Bildqualität brachten. Da sie aber viel Platz brauchen und schwer sind, verschwanden sie um diese Zeit zu Gunsten von Plasma und LCD-Bildschirmen. Plasmabildschirme scheiden für Computeranwendungen trotz schnellerer Reaktion und besserer Leuchtkraft gegenüber LCD-Schirmen derzeit eher noch aus, da sie wegen der Verwendung von 3-4Kammern pro Pixel etwas unscharf sind. Der Stromverbrauch liegt aber bei bis zu 500W (!). Ihre Stärke ist die Anwendung als Großbildschirm. LCD-Schirme haben zum Unterschied zu den Plasmaschirmen keine Glasoberfläche und reflektieren daher viel weniger stark oder gar nicht. Sie sind dann leuchtkräftig und haben besseren Kontrast, wenn sie nach der TFT-Technik gebaut sind. Zukünftige Techniken sind die OLED- und SED-Technik. Letztere verspricht noch viel flachere Bildschirme mit der Leuchtkraft der CRT. Seit 2007 hängt aber alles an einem Lizenzstreit.

Will man den Monitor auch für das Abspielen von HD-Filmen oder für HDTV verwenden, so benötigt man eine Auflösung von mindestens 1920 x 1080 px. Bei HD-Geräten geht der Eingang in den Bildschirm über DVI-, HDMI oder Komponenteneingang. Nur wenige Monitore erlauben dabei das Abspielen von HDCP-kopiergeschützten Quellen (z.B. der Viewsonic VP231WB HDCP über den DVI-Eingang bei 60Hz). Nastürlich müssen auch die Ausgabegeräte (D-Box, DVD-Spieler…) ebenfalls die Dekodierung nach HDCP unterstützen, sonst bleibt der Schirm schwarz.

1.2.1 Fernsehformate

Klassisch: PAL: 720 Spalten / 576 Zeilen , NTSC
Hochauflösend entweder 720p (p für progressive, also Vollbilder) mit 1280 x 720 px, oder 1080i (i für interlaced, also Halbbilder) mit 1920 x 1080px. Beide Formate kommen mit 50 und 60Hz Bildwiederholrate.

1.3 Grafikkarten

dDie DVI-Interface Spezifikation (single link) erlaubt eine Videobandbreite von 165MHz. 1920 x 1200px für HD-Video brauchen allerdings 154MHz, dazu kommt der Overhead und man ist sehr an der Grenze. Abhilfe verschafft die Verkürzung der Verweilintervalle bis zum nächsten Auffrischen des Bildpunkts, was allerdings Helligkeit kostet. Der 30"-Schirm von Apple geht mit 2560 x 1200 px weit darüber hinaus und bedarf deshalb eines Dual-Link-Interfaces.

1.4 Speichermedien

1.4.1 CD

Nach Meinung einiger Experten sind die besten CD-Geräte 3/2007 von der Fa. Plextor.

Das Kopieren mancher geschützter CDs ist mit dem Windows-Programm AnyDVD möglich, jedoch muss man sich um die entsprechenden Rechte (DRM) kümmern.

1.4.2 DVD

zur Geschichte der DVD siehe hier. In-depth Informationen zu DVD, HD-DVD und Blue-Ray hier.

Nach Meinung einiger Experten sind die besten DVD-Geräte 3/2007 von der Fa. Pioneer.

DVD-Audio ist ein Standard, der auf der Audio-CD basiert und sich durch eine bessere Tonqualität gegenüber der normalen CD auszeichnet. Die hohe Wiedergabequalität ist auf das LPCM-Verfahren zurückzuführen, mit dem Abtastraten von bis zu 196 kHz möglich sind, und das bei Sampletiefen von bis zu 24 Bit, was zu einem Dynamikbereich von 136 dB führt. Im Gegensatz dazu hat die Audio-CD eine Abtastrate von 44,1 kHz und 16 Bit Sampletiefe.

Nicht wieder beschreibbare DVDs haben eine graue Rückseite. die RW-Typen eine farbige.

Die DVD-R lässt sich einmal beschreiben und hat einlagig eine Speicherkapazität von 4,7 GB, zweilagig 8,5 GB. Beim Ablesen unterscheiden sich DVD-R nicht. Beim Brennen jedoch gibt es den DVD-R(A) Typ (Authoring) für den professionellen Einsatz mit eingebautem Kopierschutz, der einen speziellen Brenner mit 635nm braucht. Der andere Typ, DVD-R(G) (General) wird mit 650nm (nach anderen Angaben 658nm) gebrannt und arbeitet mit den üblichen Brennern aus dem Consumerbereich. Gelesen werden beide Scheibentypen mit der Brennerwellenlänge des G-Typs. Auf der DVD-R (nicht auf der DVD+R) gibt es eine RMA (Recording Management Area) auf der unter anderem Angaben über das Brennlaufwerk inkl. Seriennummer gebrannt werden. Mit Nero können diese Angaben sichtbar gemacht werden, indem man shift & strg gedrückt hält, während man auf den Aktualisieren-Button der Disk Information klickt. Bei DVD+R Medien wird diese Information nicht mit auf dem Medium gespeichert.

Die DVD-RW, entwickelt von Pioneer, ist eine wiederbeschreibbare DVD-R, die mindestens 1.000-mal beschrieben und gelöscht werden kann. Ihr Speichervolumen beträgt 4,7 GB.

Die wiederbeschreibbare DVD+RW mit 4,7 GB pro Seite ist kompatibel zu vorhandenen DVD-Laufwerken und DVD-Playern und ist in ihren technischen Daten mit den gepressten DVD-ROMs, DVD-Audio und DVD-Video praktisch ident. Bezüglich ihrer Haltbarkeit kann man mit etwa 1000 Beschreibungen und Löschungen rechnen.

Das Kopieren von geschützten DVDs ist mit dem Windows-Programm AnyDVD möglich, jedoch muss man sich um die entsprechenden Rechte (DRM) kümmern.

Die HD-DVD soll eine Zusammenführung von High-End Audio + Video bringen. Die Spezifikation ist 10/2005 noch nicht fertig. Sie steht in Konkurrenz zur Blue-Ray-Disk. Der erste HD-DVD Player erschien 3/2006 von Toshiba.

1.4.3 Blue-Ray-Disk (BD-ROM)

In-depth Informationen zu DVD, HD-DVD (1/2008) und Blue-Ray hier.

Die Blue-Ray-Disk ist ein mehrschichtiger optischer Speicher mit einer größeren Kapazität als die DVD. Bei einlagiger Beschichtung beträgt die Speicherkapazität 23,3 GB bis 27 GB/Seite, bei zweilagiger Beschichtung bis zu 54 GB/Seite. Bei zusätzlich zweiseitiger Beschichtung stehen über 100 GB zur Verfügung. Die maximale Datenrate beträgt 36 Mbit/s.

2. Text

Nicht behandeln will ich in diesem Kapitel die triviale Verwendung von Text wie sie in jedem Textverarbeitungsprogramm wie beispielsweise Nisus Writer oder Microsoft Word verwendet wird.

2.1 Text in PS

In PS wird Text mit dem Textwerkzeug geschrieben, wobei man in PS CS die stärke des Anti-Aliasing in der mit dem Textwerkzeug verbundenen Werkzeugleiste einstellen kann. Der Stil kann -ähnlich den Effekten von WordArt in Windows>Styles erstellt werden. Außerdem kann die Schrift verzerrt werden, wenn man unmittelbar nach dem Schreiben die cmd-Taste niederdrückt.

Neben dem normalen Schreibmodus gibt es auch die Möglichkeit eine Textmaske zu erstellen, wenn man das Aufklappmenü des Textwerkzeugs verwendet. Mit seiner Hilfe werden die Buchstaben zu einer Auswahlmaske. Man kann also z.B. einen Hintergrund wählen, darüber ein Bild oder eine Fläche legen, dann mit dem Textwerkzeug im Maskenmodus schreiben und das Maskierte mit der Löschtaste herauslöschen, sodass die Buchstabenumrisse leer werden und der Hintergrund durchscheint. Will man diese Schreibe vorher noch zurecht rücken, so sollte man das auf einer eigenen weiteren Ebene machen, die man dann hinunter mergt. Mit Hilfe der Ebeneneffekte lässt sich die Optik weiter verbessern.

(Step by step).

2.2 Text in FH

Freehand hat einige spezielle Möglichkeiten, wie z.B. die 3D-Rotation von Objekten oder die Mischung zweier Objekte. Das Verzerren und Drehen von Schrift geschieht mit Hilfe des Skalieren Tools und der weiteren dort enthaltenen Werkzeuge. Eine besonders interessante Option in FH ist das sogenannte Mischen. Damit kann man einen Übergang zwischen zwei Objekten schaffen. Das geht allerdings nicht unmittelbar mit 2 Buchstaben, sondern diese müssen erst mit Text>In Pfade konvertieren umgewandelt werden. Dann markiet man die beiden Elemente und wählt Modifizieren>Zusammenfassen>Mischung.

Eigenschaften eines Objekts (Text in Pfad umwandeln!) werden übrigens in Fenster>Objekt eingestellt, wobei es mit dem Spezialeffekt-Menüknopf ausgefallene Möglichkeiten gibt.

2.3 Text in QT

2.4 Text in Word

Wordart

2.5 Musiknotation

Zur Notation von Musik gibt es der Textverarbeitung entsprechende Programme. Wer sich näher dafür interessiert, sei auf die lectures notes für die zwei wichtigsten Vertreter, Sibelius und Finale verwiesen. Will man Dateien zwischen Musiknotationsprogrammen austauschen, so bedient man sich heutzutage (1/2006) vermehrt des Formats MusicXML. Es schließt mehr Informationen bei der Übertragung von Musiknotation zwischen verschiedenen Programmen ein als andere Formate wie z.B. MIDI-Dateien.

3.Foto und Grafik.

Neben den vielen CD-Sammlungen für Bilder und Grafiken, kann man sich einfach Bilder von einer Webseite auf das Desktop herunterziehen, wodurch diese automatisch am Rechner gespeichert wird. Bei der Weiterverwendung solcherart gesaugter Bilder muss man aber beachten ob es sich um freie oder lizenzpflichtige Darstellungen handelt. Oft haben Bilder heutzutage auch schon praktisch unsichtbare elektronische Wasserzeichen, durch die sie eindeutig einem Eigentümer zuordenbar sind.

Für die Bearbeitung und das Ordnen von Bildern, aber auch zum Erstellen von Grafiken, gibt es hunderte Gratis- und Sharewareprogramme für die verschiedenen Betriebssysteme, von PalmOS bis Linux. Eine gute Zusammenstellung findet sich hier.

Ein Problem, das sich typischerweise beim Erstellen von Webseiten oder anderen Bildschirmdarstellungen ergibt ist die Notwendigkeit, geometrische Figuren bestimmter Pixelgrößen herzustellen. Einerseits kann man das mit PS oder Fireworks, andrerseits gibts es floating screenrulers, wie z.B. PixelPerfect .

3.1 Grafikkompressionsformate

Die Wirkung verschiedener Kompressionen kann am besten in PS dargestellt werden, indem man auf DATEI>FÜR WEB SPEICHERN… geht. Man kann eine 4-fache Darstellung anzeigen lassen, wobei eine immer das Original darstellt, die anderen jeweils anklickbar und die Kompressionsparameter einstellbar sind. Man kann nun vergleichen welchen Effekt die jeweiligen Kompressionen und ihre Parameter haben. Zugleich sieht man unterhalb des jeweiligen Bildes die Dateigröße bei dieser Kompression. Mehr Kompression bedeutet geringere Ladezeit, aber auch weniger Detail. Durch ctrl-Klick (Mac) oder Klicken mit der rechten Maustaste (Win) auf eines der Vorschaubilder der Kompression kann man gewisse Einstellungen anpassen. So wird also heute vermutlich kaum mehr jemand mit 58,8 Kb/s surfen.

3.1.1 GIF

Dabei handelt es sich um ein lossy (mit Verlust verbundenes) Kompressionsformat, das sich für plakatartige Darstellungen ohne nennenswerte Farbverläufe gut eignet.

Eine Sammlung animierter GIFs findet man hier und unter anderem auch hier.

3.1.2 JPEG

Ist ein lossy Kompressionsformat, das besonders dann gut ist, wenn Farbverläufe im Bild sind, insbesondere trifft das meist auf Fotos zu. Es erzeut aber auch die von Fotographen so wenig geschätzten Bildartefakte.

Hintergründe findet man beispielsweise hier (linke Leiste: Hintergründe) und geschmackvolle Hintergrundbilder kann man zum Beispiel hier finden, wobei man das gelegentlich auftauchende pop-up einer teste-dich Seite einfach wegklicken muss.

3.1.3 PNG

PNG-8 (8-bit farbe) und PNG-24 (24-bit Farbe) versucht einen Mittelweg zwischen GIF und JPEG zu gehen. Bei sehr kleinen Grafiken bleibt .gif im Vorteil. Ist die Grafik aber etwas größer, so erzielt man mit .png das bessere Ergebniss. Ebenfalls lossy.

3.1.4 TIFF

ist ein Kompressionsformat, bei dem kein Qualitätsverlust zu verzeichnen ist. Es eignet sich also um Bilder aus dem RAW-Format aufzubewahren und dabei doch etwas Platz zu sparen. RAW ist das unkomprimierte Bildformat, das von besseren Digitalfotokameras bereit gestellt wird. Zur Weiterverarbeitung kann man das TIFF-Bild verlustfrei in den PS bringen und dann ebenfalls verlustfrei als .psd-Datei speichern.

3.1.5 Slicen

Zeigt sich keines der Verfahren als optimal, weil ein Teil des Bildes aus eher plakativen Teilen besteht, ein anderer hingegen aus Farbübergängen, so kann man ein Bild, wenn es für das Web bestimmt ist slicen. Dasselbe verfahren wendet man auch dann an, wenn man einen bestimmten teil eines Bildes gar nicht komprimieren will, z.B. ein Gesicht, das aber nur einen kleinen Teil des Bildes einnimmt.

Ein dafür geeignetes Werkzeug enthält zum Beispiel MMFW. Nachdem man ein Bild geöffnet hat, findet man bei den Werkzeugen in der Abteilung "Web" das sliche-Werkzeug. Man zeichnet nun die zu komprimierenden Bereiche an und kann nun für jeden dieser Bereiche im PI die geeignetste Kompression einstellen und in der Exportvorschau das resultat beobachten. Anschließend wird exportiert, wobei als Option alle, auch die übrigen Bereiche ohne Segmente zusammen mit einem HTML-File exportiert werden. Klickt man anschließend auf das HTML-File, so stellen sich alle Bruchstücke automatisch zum Bild zusammen. Allerdings finde ich persönlich die Kompressionsmöglichkeiten in MMFW zu einfach und undurchsichtig und bevorzuge es deshalb, die einzelnen Slices unkomprimiert zu exportieren um sie dann jedes für sich (da sie ja nun separate Dokumente sind) weiter in einem anderen Programm (PS, ImageReady etc.) zu komprimieren.

3.2 Bildschirmfotos (Screen Shots)

3.2.1 Mac (OSX)

Befehl-Umschalt-4 liefert ein Fadenkreuz für einen partiellen Screenshot. Drückt man die Leertaste wird daraus eine Kamera, die den gesamten Schirm aufnimmt. Als Resultat wird ein .png erzeugt mit dem Titel Bild 1. Außerdem gibt es unter den Dienstprogrammen eines mit Namen "Bildschirmfoto", das besonders dann wichtig ist, wenn man z.B. ein aktives Dialogfenster oder ein offenes Menü mit aufnehmen will. Dann kann man nämlich den Selbstauslöser betätigen und hat 10 sek. Zeit, den gewünschten Zustand am Bildschirm herzustellen.

3.2.2 Windows

Macht man mit dem PrtSc button der Tastatur (Drucken-Taste), wonach sich der Schirm in der Zwischenablage befindet. Will man nur das aktive Fenster, so drückt man Alt-PrtSc. Anschließend kann man das Bild in Paint weiterbearbeiten oder kleinere Ausschnitte machen, die man wiederum z.B. als Illustration in eine Textverarbeitung importieren kann.

3.3 Photoshop (PS)

Über Kompression siehe vorher. Zahlreiche nützliche Lernvideos über die Anwendung von PS findet man auf Adobe-TV

3.3.1 Farbräume

Die Situation ist hier entsprechend jeder Digitalisierung von Analogdaten: Die Anzahl der möglichen Farben hängt von der Zahl der für die Farbdarstellung verwendeten bits ab. Mit 8 bit pro Pixel kann man 256 Farben darstellen. kommt man mit 16 Farben aus, so braucht man nur 4 bit. Das bedeutet, dass man doppelt so viele Pixel darstellen kann, oder dass man nur den halben Speicherplatz braucht. Der benötigte Speicherplatz eines Bildes in Bytes berechnet sich überschlagsmäßig ganz einfach als

Anzahl der Pixel in der Breite x Anzahl der Pixel in der Höhe x bits pro Pixel / 8

Da Farbe als Überlagerung verschiedenster Frequenzen mit jeweils verschiedensten Amplituden dargestellt werden kann, ist die Menge der möglichen Farben eine Unendlichkeit in 2 Dimensionen. Deshalb ist es schwierig, die richtige Definition einer Farbe zu treffen. Eine im MacOS integrierte Komponente ist der DigitalColor Farbmesser (in Dienstprogramme), der es erlaubt anwendungsübergreifend die genaue Farbdefinition jedes Bildschirmpixels anzuzeigen.

3.3.2 Freistellen und exportieren

PS: Zauberstab, Toleranz in px einstellen, Umgebung weglöschen, Auswahl umkehren, in neues Bild mit transparentem Hintergrund einsetzen, HILFE>TRANSPARENTES BILD EXPORTIEREN.

3.3.3 Filter

Es gibt eine Unzahl von Filtern mit deren Hilfe das ganze Bild oder ausgewählte Bereiche daraus verändert werden können. Einen Teil dieser Filter stellt das Programm selbst zur Verfügung, während andere käuflich erworben werden können.

Erzeugen organischer Formen aus  primitiven Grafiken, z. B. in Freehand - download Läufer).

kann man mit einem Gauß'schen Weichzeichner (FILTER>WEICHZEICHNUNGSFILTER>GAUßSCHER WEICHZEICHNER), Pixelradius 6 das Bild verwaschen- download LäuferGauß)

Ein sehr interessanter Effekt ergibt sich mit dem im PS CS vorhandenen Filter unter Filter>Artistic>Neon Glow>Stylize>Glowing Edges

Dieses Bild wird dann zu:

Neben den PS-Filtern gibt es am Mac ab OS 10.4 unter Zuhilfenahme der eingebauten Core-Image-Technologie auch die Möglichkeit Filter und Effekte mittels eigenständiger Programme, also unabhängig von PS, interaktiv und in Echtzeit darzustellen. Eine Übersicht über einschlägige Programme findet man in Macup 4/06 S. 50ff).

3.3.4 Korrekturen

Tonwertkorrektur, ev. nur auf Auswahlbereiche angewandt.

Auswahl im Bild treffen, Vorder- und Hintergrundfarben auswählen und dann mit dem Verlaufswerkzeug einen Strich machen.

Stempel

3.3.5 Pfade und Masken

3.3.6 Alpha-Kanäle

Zusätzlich zu den RGB-Informationen gibt es einen 4. Kanal, der eine 8-bit Graustufeninformation enthält, sodass sich insgesamt 4x8=32 bit Information ergeben. Das Bild muss also im 32-bit Modus gespeichert werden. Das resultierende RGB-Bild mit Alphakanal bezeichnet man als RGBA-Bild. Die schwarzen Bereiche des Alphakanals sind durchsichtig, weiße undurchsichtig und graue dazwischen. Der Wert eines Alpha-Kanals besteht darin, dass sich das Bild an den sichtbaren Rändern an den Untergrund, auf den es gelegt wird immer anpasst (Antialiasing).

Einige der Formate, die Alphakanäle abspeichern sind PSD, PDF, PICT, TIFF, PNG, Pixar und Raw.

3.3.7 Ausdruck

PS druckt für gewöhnlich in die Mitte des papiers zentriert. Will man das nicht, so muss man File>Print with preview… anwählen und dort das Zentrieren abwählen.

3.4 Adobe Illustrator

Zahlreiche nützliche Lernvideos darüber findet man auf Adobe-TV

3.5 Paintshop

In Paint Shop Pro von Corel gibt es interessante Lichtfilter, die eine Spotbeleuchtung vortäuschen können.

3.6 Fotoflexer

Fotoflexer erlaubt u.a. ein intelligentes stauchen von Bildern, bei dem nicht alle Bildabschnitte gleich stark verzerrt werden. Durch das Auswählen bestimmter Bereich als unbedingt erhaltenswert oder umgekehrt als auf jeden Fall zu verwerfen, kann man unliebsame Bildelemente wir z.B. geschiedene Ehepartner mit einer einfachen Methode aus dem Bild entfernen.

3.7 Inkeffekte

3.8 Tools für Farbwahl

Unter dem MacOS gibt es ein Werkzeug, namens DigitalColor Farbmesser, das es ermöglicht für jedes auf dem Bildschrim gerade sichtbare Pixel die RGB-Zusammensetzung zu messen. Es ist dies im Prinzip die selbe Funktion wie die der Pipette in den verschiedenen Grafikprogrammen - mit dem Unterschied, dass dieses Werkzeug auch anwendungsübergreifend funktioniert.

3.9 Umwandlung von Bitmaps in Vektorgrafiken (Vektorisierung)

Mittels des Programms Adobe Streamline 4.0

3.10 Layouting

Layoutprogramme wie Indesign (Adobe) oder Xpress (Quark) ermöglichen auch interessante AV-Produkte zu gestalten, da die verschiedenen Elemente in ihnen mit vielen Gestaltungsmöglichkeiten angeordnet und anschließend als Bildschirmfoto mit 72 dpi gesichert werden können. Weitaus billiger ist es mit iWeb zu arbeiten, das aber nur am Mac läuft.

3.11 Morphing

Am Mac mit Morph 4.8 (nur unter OS 9).
Unter Windows mit WinMorph (Freeware) - d/l unter www.simtel.net/pub/dl/14613.shtml (ev. bei www.debugmode.com/winmorph beginnen)

3.12 Diashows

Eine Möglichkeit zur Erstellung einer Diashow, die viel einfacher und Platzsparender als Powerpoint oder Acrobat ist, besteht darin, Einzelbilder mit und ohne Ton und/oder Hotspots in QT Pro einzusetzen und diese dann unter FILM>FILM VORFÜHREN>DIASHOW vorzuführen. Dabei verwendet man die Pfeiltasten zum Fortschreiten (vor und zurück) sowie ESC zum Aussteigen. (Die Option »normale Größe« bedeutet dabei, dass QT die Monitorauflösung so umstellt, dass der Fim möglichst groß dargestellt werden kann ohne dass die Pixel umgerechnet werden müssen).

Eine andere Verfahrensweise bestünde darin, eine Reihe von .html-Dokumenten zu erstellen, die durch einen Klick auf des jeweilige Dokument, das nur aus einem einzelnen Bild besteht, das nächste Dokument aufrufen.

Eine weitere vorgefertigte Möglichkeit für Diashows liefert iPhoto.

3.13 Grafik nach Problemstellung

3-D Text: siehe Text extrudieren

Alphakanal: Ist im Allgemeinen eine Graustufenmaske, die aber schon im Grafikprogramm selbst definiert sein und dann zusammen mit dem eigentlichen Bild in getrennten Ebenen exportiert werden muss. Im PS wählt man Maskierungsmodus woraufhin ein neuer Kanal entsteht (siehe Kanalfenster). Dann kann man in verschiedenen Graustufen malen oder s/w-Verläufe machen. Der Alphakanal liegt wie eine Rotfolie über dem Bild. Um die Wirkung zu sehen, muss man das Bild in einem entsprechenden Programm ansehen. Man kann es z.B. exportieren (einschließlich des Alphakanals) und anschließend etwa in Director als member importieren (32bit Farbtiefe!) im cast und auf der stage sind dann die Alphakanaleffekte als solche sichtbar.

Masken: Masken sind s/w Grafiken, die dann an entsprechender Stelle in der Funktion als Maske eingesetzt werden. Dabei gibt es nur 0 oder 100% Transparenz. Für andere Werte muss man einen Alphakanal definieren.

Schatteneffekte: Ebenen in PS verwenden. z.B. findet Schrift immer in einer neuen, höheren Ebene statt. Wählt man diese Ebene im Ebenenfenster an, so kann man den EBENE>EBENENSTIL entsprechend ändern

Text extrudieren: in FH; mit Director siehe http://www.macromedia.com/support/director/text/3d_text/

Text in Reliefdarstellung: in PS, Ebenenstil

Verläufe: in MMFW: eine Fläche erzeugen und in der Werzeugpalette unter Farben neben dem Kübel die Fülloptionen und Farben auswählen (ein diagonaler roter Stirch in der Anzeige bedeutet »keine Füllung«.
in MMD: siehe in den MMD-lecture notes

3.14 Hardware

Gute Kameras (und dazu zählt sogar mittlerweilen das iPhone) haben eine HDR-Funktion. Dabei macht die Kamera 3 Bilder, eines mit Unterbelichtung, eines mit normaler Belichtung und ein überbelichtetes. Aus dem Unterbelichteten werden die ansonsten überstrahlten Partien verwendet, aus dem Überbelichteten die ansonsten zu dunklen Teile, sodass das resultierende Bild in allen Helligkeitsbereichen besser durchgezeichnet ist.

Mittlerweilen (12/2010) wird auch 3D-Fotographie wieder aktuell.

4. Ton

Über die Einrichtung eines Heimtonstudios inklusive der im moment optimalen Hard- und Software findet man im MACup 11/2009 S.36ff

Ein gelegentlich bei Tonanlagen auftretendes Problem ist ein Brummen, besonders wenn mehrere Geräte zusammengeschaltet werden. Meist handelt es sich dabei um eine Erdungsschleife, wenn zwei oder mehr Geräte über die Erdleitung des Stromsteckers und über die Audio-Masseleitung verbunden und keine symmetrischen Anschlüsse vorhanden sind, wobei dann Gehäuse- und Audiomasse identisch sind. Man erkennt diese Situation daran, dass der Brumm erst auftritt, wenn die Eingänge angschlossen sind. Es gibt ausreichend Lieratur zu diesem Problem und Ideen zur Abhilfe. Oft reicht es, die Erdungsschleife zu unterbrechen. Macht man das allerdings an der 230V-Leitung (z. B. indem man die Erdung am Stecker mit einem Isolierband abklebt), so muss man dabei beachten, dass allfällige Fehlströme an diesem Gerät dann immer über die Audiomasse abgeleitet werden und in diesem Fall Lebensgefahr besteht. Sinnvoller ist es, die Audiomasse irgendwo zu unterbrechen. Eine solche Mehrfacherdung mit Brummschleife kann auch durch Auftrennung der Masse mittels einer DI-Box eliminiert werden. Zusätzliche Masseverbindungen können auch über die Gehäuse der Geräte entstehen, wenn diese leitend in einem Rack eingebaut sind. In so einem Fall verwendet man sogenannte Humfrees, das sind kleine Isolierungen, die die Schraubverbindung zum Rack isolieren. Letztendlich kann ein Brumm aber auch von einem Trafo oder Stromkabel herrühren. Man erkennt diese Situation daran, dass die Brummstärke  von der Lage der Geräte (und Kabel) zueinander abhängt. In so einem Fall kann eine räumliche Separation oder das Anbringen einer Abschirmung das Störgeräusch beseitigen.

4.1 Midi

Genauere Information zum Midi-Setup siehe auch in den Max-Notes, Kap. 5.1

Umfangreiche Literatur zu Midi, Computer in www.harmony-central.com/Computer/

Midi ist ein Akronym für »Musical Instrument Digital Interface« und normiert das Kommunikationsprotokoll zwischen elektronischen Musikinstrumenten und Computern. Diese Norm existiert seit 1983.

Die typische MIDI Message ist 3 Byte lang. Da ein MIDI byte für seine Übertragung etwa 300 Mikrosekunden braucht ergibt sich, dass eine MIDI Message ungefähr 1 msek braucht um zur CPU zu gelangen. Das ist weiters nicht tragisch, da das menschliche Ohr allergünstigsten Fall akustische Signale als ungleichzeitig erkennen kann, wenn sie zumindest 2 msek auseinander liegen.

4.1.1 Midihardware im Computer

Voraussetzung zum Empfang von Mididaten sind midifähige Geräte wie Musikinstrumente mit einem Midiausgang oder man verwendet einen Midikonverter, die die Töne eines Instruments (oder der Singstimme) in Mididaten umwandelt (mehr oder weniger genau). Auf der anderen Seite gibt es den Computer, bei dem die Midi-Datenkonversion entweder bereits eingebaut ist oder mit einer Soundkarte oder mit extern anschließbarer Soundhardware bewirkt wird. Solche Midiinterfaces hängen entweder am seriellen oder am USB oder am FW-Port des Rechners. Wenn die Spannungsversorgung des Rechners nicht ausreicht, müssen diese Geräte an einen Hub mit externer Stromversorgung angeschlossen werden.

4.1.1.1 Midi-Ports

Funktioniert das Interface am USB-Port nicht, genügt oft ein An- und wieder Abstecken. Bei Wintel-Rechnern kann es vorkommen, dass wenn man nach einer Installation das Interface nicht wieder am gleichen USB-Port anhängt, das Programm es nicht erkennt.

Für Wintelrechner ist Midi in/out auch am Joystickport möglich. Aber achtung: billige Kabel gehen mitunter nur für Yamaha-Produkte.

Eine billige Option für Powerbooks und Notebooks ist der Midex3 (Midex3-Driver Mac siehe Steinberg)

4.1.1.2 Midi-Kanäle (Channels)

Zu einem gegebenen Port können wiederum 16 Kanäle verwendet werden. Unter OSX kann man im Dienstprogramm Audio-Midi-Konfiguration ein bestimmtes Midigerät doppelklicken, und in dem sich öffnenden Subfenster «weitere Eigenschaften» anwählen. Man erhält dann die Möglichkeit auszuwählen, auf welchen Kanälen gesendet und empfangen werden soll. Stellt man z. B. ein, dass ein Gerät nur auf Kanal 4 sendet, so kann es nur dann gehört werden, wenn auch tatsächlich während des Einspielens auf dem Midigerät Kanal 4 eingestellt ist.

4.1.1.3 Midi-konfiguration

Am Mac unter OSX mit dem Dienstprogramm Audio-Midi-Konfiguration

Einrichten von Midi in PLAY>GERÄTE

4.1.1.4 Soundkarten

Bei Soundkarten ist beim Kauf darauf zu achten, ob diese auch Sound-Input erlauben, was bei billigen Karten nicht immer der Fall ist. Auf jeden Fall können diese Karten die selbe Funktion wie das als Hardware bekannte Gerät namens »Expander« ausführen, nämlich auf Kommando verschiedene Sounds abzuspielen. Eine Übersicht über die geschichte, Funktion und Angebot von Soundkarten findet man bei der Firma thomann.

4.1.2 Der Sequencer (mit spezieller Orientierung an Logic)

Der Sequencer ist ein Mehrspurrecorder, mit dem Mididaten (und bei besseren Programmen auch Audiodaten) aufgenommen und verarbeitet werden können. Da hiebei nur Steuerungsbefehle aufgenommen werden gibt es eine Unzahl von Möglichkeiten diese Daten zu verarbeiten oder zu nutzen. So kann wie in der Textverarbeitung kopiert, eingesetzt, ersetzt und gelöscht werden, man kann einer Spur nachträglich unterschiedliche Wiedergabeklänge (-instrumente) zuordnen, man kann mischen, bouncen, und beliebige Datenveränderungen vornehmen, ohne wie im Analogprozess unvermeidbar an Qualität einzubüßen.

Früher gab es eigene Hardware-Sequencer, die meist nur die Verarbeitung von 8 Spuren erlaubten, heutzutage wird praktisch nur mehr mit Softwaresequencern gearbeitet, die mitunter 256 und mehr Aufnahmespuren haben.

Früher gab es lineare Sequencer, bei denen jede Spur die kontinuierliche Aufnahme eines Instrument enthielt, etwa wie bei einer analogen Mehrspuraufnahme. Heutzutage verwendet man praktisch ausschließlich pattern-basierte Sequencer, bei denen die aufgenommenen Teile Blöcke in einem Tracksystem zeigen, wobei unterschiedliche Instrumente im gleichen Track liegen können und ein Track nicht von Anfang bis Ende durchgehend mit Daten belegt sein muss. (§Abb. einfügen).

4.1.2.1 Aufnehmen

Bevor man beginnt auf einer Spur aufzunehmen ordnet man einer Spur eine Kanalnummer zu. Man hat z. B. schon einen Bass auf Kanal 2 und Schlagzeug auf Kanal 10 und will jetzt Klavier dazu aufnehmen. Man wählt also für die Klavierspur einen freien Kanal, sagen wir 4 und stellt auf dem Synth auf Kanal 4 einen Klavierklang ein. Stellt man auf Aufnahme-Modus, so hört man das Klavier aufnehmen, während Bass und Schlagzeug abgespielt werden. Will man weitere Aufnahmen auf dem Klavier machen, so stellt man eine neue Spur auf Kanal 4 ein und beginnt die Aufnahme.

Der Vorgang einer Spur eine Kanalnummer zuzuordnen heißt »rechannelizing«. Oftmals erfolgt die Aufnahme über den voreingestellten Kanal 1 des Synth. Man sieht das, wenn man  in den Edit-Mode geht und z. B. die vorher erwähnten Klavieraufnahmen betrachtet. Die rechannelizing-Funktion übergeht dieses event-Setting und schickt die Daten auf den kanal 4 des Synth.

Außerdem können Sequencer weitere Einstellungen haben, die so ähnlich heißen können wie Any, Off, No. (Im Falle des Alesis:§) OFF dreht die rechannelizing Funktion ab und es werden alle Events der Spur auf jenem kanal übertragen, der in dem Event angegeben ist.§

4.1.2.2  Wiedergeben

 

4.1.3 Der Synthesizer (mit spezieller Orientierung am Alesis QS6)

Hat man am Sequencer eine 16-spurige Aufnahme im Computer, so könnte man nun jeder Spur einen Kanal zuordnen und 16 Synthesizer als Klangerzeuger anhängen, die auf jeweils einen der Kanäle eingestellt sind und auf denen jeweils ein bestimmtes Instrument für die Klangwiedergabe eingestellt worden ist. Dieses Verfahren wäre sehr teuer und lässt sich mit Hilfe eines polyphonen, multiklanglichen (multitimbralen) Sequencers einfacher bewerkstelligen (siehe Mix-Mode).

4.1.3.1 Ports

Ports sind die physischen Anschlüsse an einem MidiInterface, über die die Mididaten durch verschiedene Kanäle gesendet werden. So hat zum Beispiel das Midex3 von Steinberg 1 Inputport und 3 Outputports, die vermittels der Treibersoftware in einem Benutzerprogramm unter bestimmten Bezeichnungen aufscheinen.

4.1.3.2 Kanäle

Midi sendet seine Daten aus einem Output-Port über 16 verschiedene Kanäle. Durch das Einstellen des Sende- und Empfangskanals kann man bestimmen welche Daten wo empfangen werden. Stellt man z. B. einen Synth auf Kanal 1, den anderen auf Kanal 2 ein und sendet aus einem Midiprogramm Daten aus Kanal 3, so wird keiner der beiden angesprochen. Sendet man hingegen auf Kanal 2, so wird nur der auf Kanal 2 eingestellte Synth reagieren. Allerdings gibt es einen Modus einen Synth so einzustellen, dass er auf alle Kanäle reagiert. In diesem Falle würde er die Daten, die auf Kanal 1 gesendet werden gleichzeitig mit den auf Kanal 2 gesendeten verarbeiten.

Der Anfänger hat oft Probleme damit den Unterschied zwischen Kanälen und Spuren zu begreifen. Der Begriff der Spur kommt von der Mehrspuranalogaufnahme und hat eigentlich wenig mit Midi zu tun. Er ist lediglich ein Etikett, mit dem man im Sequencer Midi-Daten übersichtlicher einteilen kann. So ist es z. B. für einen Klavierpart möglich eine Spur für die rechte Hand, eine für die linke und eine für das Pedal einzurichten. Ebenso könnte man bei einem Drum-kit jedes einzelne Gerät auf eine eigene Spur legen.

Auf einen Kanal hingegen kann man ein Instrument legen, sodass man im Endeffekt gleichzeitig 16 Instrumente spielen lassen kann. Egal wie viele Spuren nun ein Instrument enthalten (z. B. 3 Spuren für das Klavier); legt man sie auf den gleichen Kanal, so werden alle Spuren auf dem für diesen Kanal am Synth eingestellten Instrumentenklang abgespielt. Das gleiche Ergebnis erhielte man, wenn man alle diese Tracks zu einem verschmilzt und über einen Kanal wiedergibt.

Es ist aber auch möglich, im gleichen Track Töne für unterschiedliche Kanäle abzuspeichern. Das geht deshalb, weil alle Midi-Events die Kanalangabe mitschicken.

4.1.3.2 Das Programm

Unter Programm versteht man in diesem Zusammenhang eine gespeicherte Kombination von Parametern für den Tongenerator, der ein bestimmtes Instrument emuliert. Am Beispiel des QS6 sehen wir 640 interne Programme (andere können extern über eine Sound Karte geladen werden), unterteilt in 5 Bänke zu 128 Programmen. Jede Bank ist unterteilt in 12 Zehnergruppen und eine 13. Gruppe mit 8 Programmen, die jeweils für einen Instrumententyp stehen ([00] Klaviere, [30] Gitarren usw.). Ein Programm selbst kann aus bis zu vier Klängen bestehen.

4.1.3.3 Der Mix

Ein Mix ist einfach eine Kombination aus bis zu 16 Programmen. Dabei gibt es verschiedene Möglichkeiten: Wenn jeder Midikanal ein Programm spielt, so spricht man von multitimbraler Wiedergabe. Damit kann man zum Beispiel ein Kammerensemble simulieren. Man kann aber die Programme in einem Mix auch so überlagern, dass sie gleichzeitig vom Keyboard spielen. Dabei kann das Keyboard auch noch gesplittet sein, sodass im oberen Bereich ein anderes Programm spielt als im unteren. Je nachdem stellt man mit "program" ein einzelnes Instrument oder mit "mix" eine Kombination von Instrumenten ein.

4.1.3.4 Banken

Eine Bank ist eine Sammlung von 128 Programmen und 100 Mixes. So wäre z. B. der GM-set (General Midi) eine Bank. Am QS6 gibt es 5 Banken (GM, User und Preset 1 bis 3), die oben am Display angezeigt werden. Im Prinzip ist eine Bank nur eine willkürliche Unterteilung. Das erkennt man daran, dass man, wenn man im PROGRAM-Mode vom GM Set #00 (AcousPiano) auf »value down« drückt, zu Preset 3 #127 (Hitz Peak) kommt. Ähnliches gilt für den Mix-Mode

4.1.3.5 Tonparameter

Tonhöhe, pitch
Lautstärke
, velocity
Aftertouch
, pressure. Darunter versteht man das Niederdrücken einer Taste nachdem der Ton schon angeschlagen wurde. Dieser Parameter kann verwendet werden um andere Parameter (Tonhöhe, Lautstärke u.ä. zu verändern).
Pitch Bend
. Durch betätigen des Rades kann ein angeschlagener Ton in der Tonhöhe verändert werden.
Modulation Wheel. Vibrato, Tremolo. Der Effekt kann von Programm zu Programm variieren.

4.1.4 Weitere Hardwaregeräte

4.1.4.1 Sampler

Sind wie Sequencer gebaut, nur wird die Klangerzeugung nicht mit Hilfe der Synthese von Oszillatorenschwingungen ereeciht, sondern es werden aufgenommene Audioklänge verwendet. Das Problem besteht dabei in der Anzahl von Klängen pro Oktave, da ein Audioton, wenn er um eine große Terz verschoben wird, oft schon nicht mehr natürlich klingt, andrerseits das Speichern von 12 Klängen pro Oktave viel Platz kostet.

Mitunter verwendet man auch die Technik den Anklang (attack) aus einem Audiosample zu verwenden, da in ihm die wesentliche Charakteristik eines Klanges steckt, und für den weiteren Tonverlauf dann einen oszillatorgenerierten Klang.

4.1.4.2 Master-Keyboards

Erzeugen selbst keinen Ton sondern steuern nur andere Geräte an.

4.1.5 Midi-Kommunikation zwischen Programmen

4.1.5.1 Unter MacOS 9.x

Prinzipiell besorgt das Programm OMS-Setup von Opcode nicht nur die richtigen Patches zwischen HW-Geräten, sondern über den IAC-Bus auch zwischen Programmen. Im Folgenden sei das an Hand der Verbindung von Sibelius zu Max näher erläutert: Man doppelklickt im OMS Setup den IAC-Treiber und fügt den exakten (!) Namen des Programms ein, mit dem die Verbindung erzeugt werden soll:

Nun öffnet man Sibelius, checkt unter PLAY>GERÄTE die Option "Andere Musikprogramme als Geräte anzeigen" und erhält als Wiedergabegerät auch das Programm namens MaxMSP 4.1 Natürlich darf man den Programmnamen dann nicht mehr ändern (z. B. auf "MM41" oder dergleichen).

In Max erlaubt ein Doppelklick auf ein notein-object das Zuordnen desjenigen Controllers, von dem Midi-Input erwartet wird:

Leider funktioniert das Selbe mit Finale 2003a nicht. Man kann zwar auch in Finale unter MIDI>MIDI EINRICHTEN… das verwendete Midi-system und das Ausgabegerät (oder -programm) spezifizieren, allerdings funktioniert die Verbindung zu Max beim anschließenden Abspielen von Noten nicht, auch wenn man beachtet hat, dass die die Lautsprecherwiedergabe im Menü MIDI abgewählt ist.

4.1.5.2 Unter MacOS X

Prinzipiell erscheint ein reibungsloses Zusammenarbeiten mehrerer Programme unter OSX wahrscheinlicher, da dieses Betriebssystem Multitasking beherrscht, also nicht ein Programm darauf warten muss, dass das andere gerade nichts tut, um selbst etwas tun zu können.

Sibelius: derzeit ist keine Kommunikationsmöglichkeit bekannt.

Logic: ?

Zu den momentanen (5/2006) Treiberproblemen siehe diesen Mailstring aus einer Sibelius-Liste.

4.2 Audio

Eines der beliebtesten Audioaufnahme und -schnittprogramme im Amateurbereich ist zur Zeit (12/2010) das Freewareprogramm Audacity. Braucht man Marker (CuePoints), die in Director erkannt werden, so kann man Quicktime ohne die Videokomponente verwenden.

Beim Versuch aufzunehmen kann es immer wieder bei den verschiedensten Programmen passieren, dass keine Reaktion des Systems auf Eingangssignale erfolgt. Das kann unter anderem auch daran liegen, dass bestimmte Programme wie zum Beispiel Screenflow, ihre eigenen Audiotreiber installieren und damit andere deaktivieren.

Die Darstellung einer Audiokurve kann man sich bildlich so vorstellen, dass der Amplitudenwert der Kurve zu einem bestimmten Zeitpunkt der Entfernung einer Mikrofon- oder Lautsprechermembran aus der Ruhelage zu diesem Zeitpunkt entspricht.

4.2.1 AD-Konversion

Die Sample Rate (auch Sampling Rate oder Sampling Frequenz) ist die Anzahl der Meßpunkte (Samples) pro Sekunde. Große Sample Raten, wie etwa 44,100 Hz zeichnen den Ton genauer auf als niedrige, brauchen aber dem entsprechend mehr Speicherplatz und Bandbreite.
Im folgenden Beispiel repräsentiert die rote Linie die gesampelten Werte. Ist das Netz feiner, also bei höherer Sample Rate und/oder einer größeren Bit-Ttiefe (Bitamplitude) ist die Repräsentation der Ausgangskurve besser.

bei feinerer Auflösung:



4.2.2 Nyquist Theorem

Die größte durch eine gegebene Samplingrate darstellbare Frequenz beträgt die Hälfte der Samplingrate. (Um also einen Ton mit 16kHz darstellen zu können, muss die Samplingrate zumindest 32000Hz sein.

4.2.3 Bit-Tiefe


Darunter versteht man die Auflösung der Vertikalachse. Bit-Tiefen gehen heutzutage von 8- bis 32-bit Samples. Während 8-bit Samples weniger Platten und RAM-Bedarf benötigen, sind sie doch deutlich geräuschvoller (rauschiger) als 16- oder 24-bit Samples. Eine andere Bezeichnung dafür ist die Sample-Amplitude- Ein Sample kann je nach Bit-Tiefe ein verschieden große Anzahl von Werten annehmen:
Bei 32-bit audio von -2147483648 bis 2147483647.
Bei 24-bit audio von -8388608 bis 8388607.
Bei 16-bit audio von -32768 bis 32767.
Bei 8-bit audio von -128 bis 127.

4.2.4 Relation zwischen Frequenz und Tonhöhe

Der Kammerton a' ist festgelegt als jener Ton, dessen Frequenz 440Hz ist. Als die nächst höhere Oktave eines Tones bezeichnet man denjenigen, dessen Frequenz doppelt so groß ist, wie der des zugrunde liegenden Tones. Daraus ergibt sich das Intervall von einem Ton zum nächsten Halbton als die 12. Wurzel aus 2 (weil dieser Faktor 12 mal mit sich selbst multipliziert, also für den 12. Halbton - das ist die Oktave - über dem zugrunde liegenden Ton 2 ergibt, also einer Verdoppelung der Frequenz entspricht)

4.2.5 Clipping

Der höchste erlaubte Sample-Wert wird auch mit 100% oder 0 dB bezeichnet. Neu aufgenommene Signale werden oft normalisiert, was bedeutet, dass man eine untersteuerte Aufnahme so verstärkt, dass die lauteste Stelle 0dB erreicht.

Eine übersteuerte Aufnahme kann man nicht normalisieren. Bei ihr sind bereits Informationen verloren gegangen.

Sinus versa Rechteck

4.2.6 Formate

.aif oder .aiff (audio interchange file format) ist das universellste und somit geeignetste Austauschformat. Es stellt - so wie .wav - einen Container dar, in den beliebige Inhalte gepackt werden können. Durch die fehlende Kompression ist die typische Bitrate 1400kb/s.

.wav ist das unter Windows übliche unkomprimierte Soundcontainerformat. Es benötigt den doppelten Speicherplatz von .aif

.ram oder .rm gehören dem RealPlayer von RealAudio (Mac und Win) Player für OSX kostet 10 USD/Monat. Gelegentlich kann man statt dessen zum Abspielen den Windows MediaPlayer verwenden. .ram können nicht in SoundForge 5.0 geöffnet werden.

4.2.7 Kompressionen

Die heute übliche Musik- CD hat (nach einer Absprache zwischen Herbert v. Karajan und der Firma Sony in Salzburg in den 70er Jahren) einen Platzbedarf von 5,3 MB/min pro Kanal. (Die Bedingung an ein CD-Format war, dass wenigstens Beethovens 9. Symphonie noch als Ganzes darauf Platz hätte). Aber auch noch 1 min Telefonsprache benötigt mehr als 0,5MB. Deshalb bedient man sich verschiedener Kompressionsmethoden.

4.2.7.1 MACE

Macintosh Audio Compression and Expansion. MACE komprimiert 8-bit mono oder stereo Tondaten (binary offset-Format) destruktiv (was sich in Geräuschzunahmeäußert) und expandiert sie wieder beim Abspielen. Dabei kann die Sampling Rate beliebig sein. Mögliche Kompressionsraten sind 3:1 or 6:1. Die 3:1 buffer-to-buffer Kompression ist für high-fidelity Ton gut geeignet. 6:1 eignet sich eher für Sprache. Dabei reduziert sich die Frequenzbandbreite auf die Hälfte.

4.2.7.2 mp3

In Hard- und Softwareplayern weit verbreiteter Standard für Stereokompression (Start 1992), der sich gut fürs Netz eignet. Er ist aber nicht gratis . Details hier. Gibt bei 128kb/s akzeptablen Ton, bei 160kb/s können die meisten Normalhörer nicht mehr zwischen Original und komprimierter Musik unterscheiden. Die Kompression beruht auf psychoakustischen Modellen. Dabei werden folgende Dinge weggenommen

Ein neueres mp3-Format ist mp3 Surround, das die Kompression von Surroundmaterial ermöglicht. 5.1-Material ist dabei lediglich um 10% größer als 2.0 (Stereo).

4.2.7.3 VQF

Tonformat von Yamaha. Der zugehörige Coder ist Yamaha SoundVQ. Der maximale Datenstrom beim Kodieren von Stereomusik wird von Anwendern mit enttäuschenden 96 kbit/sec angegeben (hier).

4.2.7.4 AAC, HE-AAC

AAC wurde schon früh von digitalen Rundfunkstationen verwendet und arbeitet ebenso wie mp3 mit psycoakustischen Modellen. Einer der möglichen Encoder ist Astrid/Quartex's AAC Encoder. Nach Berichten bei 96 kbit/sek noch immer besser als mp3, wobei das komprimierte File nur etwa 70% von mp3 betrug. Bei 128kb/s hören die meisten Menschen keinen Unterschied mehr zum Originalmaterial. Das Format eignet sich auch für Multikanalmaterial. Mit High-Efficiency AAC (HE-AAC) kann man bis zu Bitraten von 64kb/s für Stereomaterial gehen (wichtig für Multimediaanwendungen auf UMTS-Telefonen).

4.2.7.5 OGG Vorbis und FLAC

Ogg Vorbis ist eine freie Alternative zu mp3, ebenfalls destruktiv. Von der gleichen Grupee kommt aber auch ein nichtdestruktives, plattformunabhängiges Verfahren namens Free Lossless Audio Codec, FLAC. 50-70% der Datenrate können (so wie auch bei Apple Lossless) eingespart werden.

4.2.7.x Proprietäre Verfahren Apple Lossles und WMA

Apple Lossless ist ein proprietäres - wie schon der Name sagt nicht destruktives - Verfahren von Apple, das nur für Mac und iPod taugt.

WMA ist ein proprietäres, destructives Verfahren von Microsoft zu dem es noch keine unabhängigen Tests gibt.

4.2.8 Einführung in das Mischpult

Ich schließe hier vorläufig den Bereich der Special-FX am Mischpult aus, da diese meist im Computer eingebracht werden. Nehmen wir also als Beispiel das Behringer Eurorack UB1204-Pro:

4.3 Konversion

4.3.1 von Midi zu Audio

Unter Windows kann man, wenn die Soundkarte full duplex unterstützt (also unabhängige "Leitungen" für In und Out) das eigene Midi-Playback als .wav file aufnehmen. Alternativ kann man die Windows-Software Awave Studio von www.fmjsoft.com verwenden.
Auch mit manchen Notenschreibprogrammen (z.B. Sibelius) geht es.

Die Qualität des Audio hängt natürlich jeweils von der Qualität der Sound auf der Soundkarte oder der Softsounds ab.

Verwendung von QT Pro
Man kann mit Hilfe von QT Pro Midis in Audio konvertieren und im auftauchenden Dialog change Files of type to Audio files angibt. Dann sucht man das Midifile und klickt Convert. Daraufhin folgt der Dialog Save converted file as: Klick Save ; man erhält ein QuickTime Movie ( .mov ) des Midifiles. Beende mit File >Export. und in Save exported file as: wählt man aus dem drop-down Menü neben Export Music to AIFF

4.3.2 von Audio zu Midi

Ist im Prinzip mit der Software Melodyne möglich, doch bedarf es einiger Einarbeitung in das Programm.

Um das AIFF file ( .aif ) in ein .wav file umzuwandeln wählt man File >Import . Setze Files of type zu Audio files
Importiere die AIFF-datei, klick Convert, File >Export, ändere die Drop-down Liste neben Export zu z.B. Sound to wave und sichere.

4.3.3 Audioveränderungen

Mit Hilfe von Programmen wie Transcribe! kann man Audiofiles ohne Tonhöhenänderung verlangsamen, oder ohne Tempoänderung transponieren, man kann Tonfolgen und Akkorde automatisch analysieren lassen und das Programm hat auch eine Karaokefunktion. Für Mac/Win/Linux

4.4 Mac only-Programme

Das beliebteste Programm um eine Sundbibliothek zu erstellen und zu verwalten ist Apples iTunes. Man kann mehrere Bibliotheksfiles anlegen, z.B. eines für Lieder, eines für Geräusche, eines für aufgenommene Telefonate etc. das Transferieren einer Bibliothek auf einen anderen Datenträger bedingt eine Neudefinition des Pfades in den Voreinstellungen. Eine genaue Anleitung dazu findet man hier.

SoundStudio 3.0 ist der Nachfolger von Soundedit 16, das für Macs vor OS 10 geschrieben war, das aber im Emulationsmodus unter OSX zu langsam für längere Musikstücke läuft. Soundstudio erlaubt es so wie seinerzeit sein Vorgänger Marker zu setzen, die in Director verwendet werden können. Man kann für diesen Zweck aber auch die Soundverarbeitung von iMovie verwenden. (Näheres in den Director lectures, Kap. 3.1). Ein weiters interessantes Feature von Soundstudio ist die Ausgabe einer Fourieranalyse.

Ein weiteres Open Source, Cross Plattform, Freeware Programm mit dem man nicht nur eine Fourieranalyse machen kann, sondern auch noch die Frequenzen der Peaks und ihre Umdeutung in Midinotation erhält ist Audacity, die plattformübergreifend funktioniert.

Einen Überblick über freie Audio-Tools findet man in MACup 11/2009 S. 54ff

Intelligente Geschwindigkeits- und Tonhöhenkorrekturen kann man mit Melodyne Uno machen (siehe MacUp 1/2006 S. 40).

4.5 Andere Plattformen

iTunes (Mac, Windows) siehe oben

Audacity (Mac, Windows, Linux) siehe oben

Soundforge 5.0 (Windows only) d/l Anleitung von Robert Wolff. 4/2005 erschien Version 8.0

Aufnahme am PC Gitarre: hier(?)

4.6 Instant Vertonung

Mit Movie Maestro, oder GarageBand

4.7 Sequencer-Programme

4.7.1 Logic Audio

4.7.2 Live 5

siehe MacUp 11/2005 S.40ff

4.7.3 Cubase

4.8 Publishing

Einen eigenen Musikserver kann man mit DOT-Tunes einrichten (Shareware, siehe MacUp 1/2006 S.44) wenn man einen von außen über eine IP erreichbaren Server hat. Die Trackverwaltung geschieht über iTunes.

4.9 Audioperipherie

Der Aufwand für eine brauchbare Aufnahme ist gering, wenn man ein Mikrofon direkt über USB an den Rechner anschließen kann, wie etwa das AudioTechnika 2020.

Nebst anderen (Conrad,...) erzeugt die Firma Ion einen Plattenspieler mit USB-Ausgang. Der ITTUSB kostet 12/2005 etwa 130 USD.

5. Vide0

5.1 Videoformate

Nun einige Faktoren, die ein Videoformat charakterisieren:

5.1.1 Videostandards

Darunter versteht man Bilddefinitionen wie PAL, NTSC, SECAM, ATSC (HDTV 1080i oder 720p),...

Eine Übersicht über die verschiedenen Fernseh- und Videosignalarten findet man hier, über HDTV-Kaufentscheidungen hier.

5.1.2 Seitenverhältnis und Bildabmessung

4:3 (1,333:1), 14:9, 16:9...gibt das Größenverhältnis von Bildbreite zu Bidhöhe an. Die Bildabmessung ist die Anzahl der px/Zeile und der Zeilen/Bild.

Der Farbraum im Videobereich ist zum Unterschied vom Bildschirm oder dem Tintenstrahldrucker nicht  RGB, sondern YUV. Dabei ist Y die Luminanz (also der s/w-Wert) und die Chrominanz (U+V) die Summe von zwei Farbdifferenzsignalen. Der Bezug zu RGB ist:

Y= .3 R + .59 G + .11B
U= .493 (B-Y) = -.15 R - .29 G + .44 B
V= .877 (R-Y) = .62 R - .52 G - .1 B

Die Faktoren hängen mit der Gewichtung der physiologisch unterschiedlichen Wahrnehmung unterschiedlicher Farben durch das menschliche Augen zusammen. (Näheres siehe [1], S.142ff)

Beim Abtasten des Bildes wird bei der Chroma-Komponente gespart. Das führt zu verschiedenen Formaten:
(§ Abb7, S. 146 einfügen).

Letztlich ist noch die Geometrie eines Pixels wichtig. Sie sind nämlich nicht notwendigerweise quadratisch. Das PAL-Format hat eine Auflösung von 768x576 px, das ergibt bei quadratischen Pixeln eine aspect ratio (Seitenverhältnis) von 4:3. Demgegenüber ist die DV-PAL Norm (ITU-R BT.601 (ehem. CCIR 601)) 720 x 576px (DV-NTSC 720 x 680). Um trotzdem ein Seitenverhältnis von 4:3 zu erreichen müssen die DV-PAL Pixel horizontal um den Faktor 768/720=1.067 gestreckt werden. Wieder anders liegen die Verhältnisse, wenn das DV-PAL Format auf 16:9 wiedergegeben werden soll. Die px müssen dann um 16/9*(576/720)=1.4222 gestreckt werden.

Eine typische Fehlerquelle ergibt sich beim Import von Grafiken in das DV-Schnittprogramm. Erstellt man das Bild im PAL-Format 768 x 576 unter der Voraussetzung quadratischer px wird es verzerrt, weil ja DV-PAL rechteckige px macht. Man muss also mit 768 px Breite erstellte Bilder mit quadratischen px vor dem Import auf 720px Breite skalieren, weil sie dann im DV-PAL rechteckig gemacht und wieder gestreckt werden.

5.2 vom Filmmaterial zum fertigen Film

Filme liegen im Rohmaterial meist entweder als DV- oder HDV-Aufnahmen vor. Beide Formate können von billiger Filmsoftware wie iMovie verarbeitet und anschließend wieder ausgegeben werden. Man muss dabei beachten, dass das Material bei der Ausgabe immer komprimiert wird, es sei denn, man spielt es aus iMovie 06 oder Final Cut zurück auf ein Band. Die späteren Versionen von iMovie 08 und 09 können das nicht mehr. Mit ihnen kann man nur unter Verlusten auf DVD oder andere, noch beschränktere Medien schreiben wie iTunes, YouTube oder dergleichen. Da iMovie 09 ein paar Stückerl spielt, die auf der Videoseite sehr interessant sind, jedoch in Ton und Ausgabe der Version 06 unterlegen ist, kann man die Strategie verfolgen, den Bildschnitt in iMovie 09 zu machen, den Film dann nach 06 zu exportieren und dort Tonverarbeitung und Ausgabe anzuschließen.

Bei der Ausgabe ist es ganz wichtig die selbe Bilddarstellung wie bei der Aufnahme zu verwenden. Interlaced muss interlaced bleiben und Vollbild muss Vollbild bleiben. Hat man z.B. in 720p aufgenommen, gibt aber in 1080i aus, so sind die Halbbilder gegeneinander verschoben - und zwar umso mehr, je schneller die Bewegung war. Das sieht dann so aus:

5.2.1 Allgemeine Aspekte

Liegt das Material in Analogform vor, so muss erst einmal digitalisiert werden. Am billigsten und einfachsten ist es, seine DV-Kamera auf Input zu schalten (wenn sie das nicht von Haus aus kann, gibt es meist günstige HW-Zusätze, die das bewerkstelligen) und dann das Analogmaterial zu überspielen. Dazu braucht man üblicherweise einen Player, der eine S-Videobuchse hat, also vom Typ Hi8 oder S-VHS. 

Bei der digitalen Videoaufnahme gibt es zwei Qualitätsstufen: SD und HD (High Definition). PAL hat eine frame rate von 25, NTSC eine von 29,97fps. Jedes Frame besteht aus Pixeln. Beide Fernsehsysteme haben 720 px pro Zeile. Im SD-Modus hat PAL hat 576, NTSC nur 480 Zeilen, abgekürzt als 720x576 und 720x480. Der 16:9 HD-Modus besitzt jedoch 720 oder sogar 1080 Zeilen mit 1920 px pro Zeile.

Jedes Bild hat eine sog. aspect ratio, auf deutsch das Seitenverhältnis, also am häufigsten 4:3 oder 16:9. Letzteres Format wird of von DV-Billigproduktionen verwendet.

Analoge (SD) PAL-Fernsehbilder entsprechen zwar einem Datenfluß von 32Mb Bildinformation/sek, aber das in älteren Amateur-DV-Videokameras verwendete komprimierte Format begnügt sich mit 3,6 Mb/sek. Das HDV-Format geht unter Kompression (MPEG-2 Typ, Aufnahme auf Band) mit 25 Mb/sek ebenfalls, ohne Kompression käme manbei HD in die Gegend von bis zu 125 Mb/s. Eine weitere Kompressionsart ist AVCHD, bei der direkt auf Speicherkarten oder auf eine Platte aufgenommen wird und die mit den Codecs MPEG-4 oder H.264 arbeitet. MPEG-4 ist dabei nicht nur für Internet-basiertes Video, sondern auch für Handhelds und UMTS-Telefonie beliebt. Zudem hat MPEG-4 recht günstige Lizenzbedingungen. AVCMD-komprimierte Dateien sind etwa 10% kleiner als HDV-komprimierte, stellen aber beim Verarbeiten höhere Anforderungen an den Prozessor.

Zur Bearbeitung von 1080 i-codiertem Material benötigt man 1920 x 1080 px bei 50Halbbilden pro Sekunde in PAL. Da TFT-Monitore im Allgmeinen aber 60Hz und 1920 x 1200px haben, muss umgerechnet werden - mit all seinen Problemen wie Ruckeln des Bildes etc. Eines der wenigen Geräte, das 50Hz bietet ist das Sony P234, der Rest ist auf die 29,7 - resp. 60 Hz von NTSC abgestimmt. Die an-und-für-sich kleine Differenz zwischen NTSC (59,4HZ) und 60Hz kann auf die Dauer mitunter zu Asynchronitäten in der Tonspur führen.

Videoinformation wird in Echtzeit von der Kamera über FW heruntergeladen und nach Bearbeitung entweder komprimiert auf ein Medium gespielt oder unwieder hinauf zu Wiedergabe über einen Fernsehapparat. Zum  Komprimieren arbeitet man mit SW-Modulen, sogenannten Codecs (compressor-decompressor), die vor dem Transfer komprimieren und nach dem Verschicken wieder dekomprimieren.

Zur Umrechnung von HD auf SD oder HD auf DVD-Formate siehe MacUp 11/2005 S.23ff.

Der Speicherplatzbedarf liegt für DV-Video bei 1 GB für 5min. Also braucht ein 60min Band etwa 12GB

5.2.2 Programme

5.2.2.1 iMovie

iMovie istein Apple Programm (Teil von iLife), einfach in der Handhabung und kann relativ viel. Das Windows-Analogon zu iMovie (in vereinfachter Form) ist der Movie Maker.

Für den Import kann man auch mit Film=>DV Stream exportierte QT-Filme verwenden, also im Kreis arbeiten.

Für den Export nach QT gibt es Standardoptionen und damit verbundene Filmgrößen, sowie die Möglichkeit eigener Settings.

Interessant ist die Erstellung von Filmen für den iPod. Näheres dazu in MacUp 1/2006 S.39

Mono- oder Stereoton kann in 2 Tonspuren eingesetzt werden, wobei jede Spur für sich Stereosignale beherbergen kann. Ist der Ton einmal in der Tonspur eingesetzt, lässt sich das Ende des Clips durch ziehen verschieben. Wenn man dabei im Menü Darstellung den Menüpunkt Lautstärke des Clips anzeigen deaktiviert hat. Umgekehrt lässt sich die Lautstärke nur dann verändern, wenn diese Option angewählt ist.

5.2.2.2 Apples FinalCut Express (FCE)

FCE ist die billigere und nur etwas weniger umfangreiche Version des Profiprogramms FinalCut Pro. Der Umstieg vom schlichteren iMovie zu FinalCut ist nicht allzu schwierig. Seit iLife '08 sind die beiden Oberflächen einander angepasst. Allerdings müssen gewisse Arbeiten, die in iMovie vereinfacht gesetzt werden konnten, in FCE mit ein paar Handgriffen mehr erledigt werden. Näheres findet man in den Lecture Notes zu FCE.

5.2.2.3 Avidemux

Bei Avidemux handelt es sich um eine open source SW, für verschiedenste Betriebssysteme. Es ist derzeit das meist verbreitete nichtkommerzielle Programm seiner Art (2/2008).

5.2.2.4 Adobe Premiere

Standardprogramm zur Filmbearbeitung.

5.2.2.5 Weitere Postproduction

iDVD Ermöglicht die einfache Erstellung einer DVD aus dem fertig geschnittenen Filmmaterial.

Oft ist es nötig Farben, Schärfe oder andere Parameter an einem bereits fertig geschossenen Film zu ändern, Schriften zu überlagern, andere Film- oder Bildteile in Alphakanälen zu positionieren oder andere Effekte einzubauen. Dazu dienen Programme wie etwa Shake - mit dem man sogar verwackelte Sequenzen wieder in Ordnung bringen kann.

5.3 QuickTime (QT)

Bei der Besprechung von QT gehe ich von der vollständigen Version, also QT Pro 6 aus. Die Pro-Version enthält einige Funktionalitäten mehr als die normale und kostet eine einmalige Lizenzgebühr von €40,6.

QT (entwickelt ab 1989, 1.0 veröffentlicht 1991) war das erste Verfahren, mit dem Videos ohne aufwändige Hardwarezusätze auf Computern (zunächst nur Apple Macintosh) dargestellt werden konnten. Dazu waren auf der Produzentenseite für die Kompression gute Codecs nötig, die auf der Anwenderseite ruckelfreie Videos von 156x116px möglich machten. (Zu dieser Zeit arbeiteten Windowsbenutzer an monochromen grünen oder bernsteinfarbenen Schirmen, oder wenn die Ausstattung luxuriös war, mit 16 Farben. Ab QT3, 1998, konnten auch Windows95 user QT verwenden. In diesem Jahr erschien auch die erste interaktive Gitarrenschule, Hyperguitar, auf CD-ROM für Mac und Windows, die eine Vielzahl von QT-movies einschloss).

Seit etwa 2003 ist Quicktime der Standard für das professionelle Abspielen von Filmen im Netz und der Ausgangspunkt für das Dateiformat MPEG-4, das auch von Handhelds und UMTS verwendet wird. QT ist aber auch die Basis von MultiMediaProduktionen auf CD-ROM- geworden. QuickTime läuft heute auf Windows, Linux und Mac-Plattformen praktisch identisch. (www.apple.com/de/quicktime/ und Dokumentation von Apple als .pdf)

Office für Windows hat mitunter Schwierigkeiten QT-Filme wiederzugeben, die in Office für Mac erzeugt wurden und klaglos laufen, da das QT-Format über viele weitere Möglichkeiten verfügt, mit denen das Windows-Betriebssystem nicht umgehen kann. Man muss dann den Film (ev. unter Verlust einiger Funktionalitäten) auf .avi oder ähnliches umwandeln.

Ein relativ umfangreiches QT-Tutorial findet man auf der Apple-Site unter "QuickTime".

Unter Windows XP findet man die Einstellungen für QT- (und den RealPlayer) in SYSTEMSTEUERUNG am linken Abschnitt unter SIEHE AUCH>WEITERE SYSTEMSTEUERUNGSOPTIONEN

Zum Problem eines brocken Plug-In Icon mit Internet Explorer 5.5 SP2 und 6.0 für Windows siehe hier.

Derzeit gibt es 3 Programme um Video- und Audioinhalte auf einem Computer wiederzugeben. Einen umfassenden Vergleich findet man bei Retiarius Enterprises. Hier eine Übersicht:

QuickTime Player (Apple) Media Player (Microsoft) Real Player (RealNetworks)
Bearbeitungsfunktionen wie Import, Export, viele Codecs, Kopieren/Einfügen, Trimmen etc.
keinerlei Bearbeitungsfunktionen
Weitere Bearbeitungsfunktionen in der Pro-Version (Freischaltung kostet 3/2004 €42.- )
Unterstützt die Formate: Video, Midi, Audio, Mpeg, Animation, Grafik, Texte
Unterstützt zusätzlich die Formate 3-D Animation, Flash und Virtual Reality
keine 3-D Animationen-, Flash- und VR-Formate
Compositing mit Hilfe von Ebenen
kein Compositing möglich
Programmierumgebung in MacroMedia Director
von Director nicht unterstützt
QT öffnet keine .ram files. RealPlayer 8/2003 für OSX €25.-
kann .ram abspielen
Sonderformat .ram Files, die von wichtigen Programmen wie SoundForge 5.0 nicht unterstützt werden.

 

QT ist also nicht vornehmlich ein Abspielprogramm, sondern eine ganze Architektur aus diversen möglichen Tracks (auch eigene sind definierbar) und einige Metadaten, was man stark vereinfacht so darstellen kann:

QuickTime Datenstruktur

Eine Filmdatei kann viele Ton und Videospuren enthalten, viele Textspuren (können nicht nur für wählbare mehrsprachige Untertitel, sondern auch zur Filmsteuerung eingesetzt werden), Animationsspuren und und und. Jede Spur verweist auf einen Medientyp und hat ihre Definition zu ihrem Abspielmodus (z. B. Pixelgröße, Grafikmodus, Kompression und Metadaten)

Jede Spur enthält die Pfadangabe zu den abzuspielenden Daten. Die Daten können (was meist der Fall ist) in derselben Spur liegen, aber auch von außen herkommen, entweder von der gleichen oder einer anderen lokalen (oder remote, aber nicht IP-) Platte mit dem Protokoll FILE, oder auch aus dem Netz über IP mit den Protokollen FTP, HTTP oder RTP.

Neben den Spuren gibt es Informationsangaben wie über den Vorführmodus, Copyright, Veröffentlichungsdatum etc.

Die Leistungen von QT sind:

Authoring: QT-Filme können Audio, Midi, Video, Grafik, Bilder, Animation, Text und QTVR, die sowohl auf der Bildfläche, als auch auf der Zeitachse frei kombinierbar sind. Dazu gibt es Interaktivität mit über 100 eingebauten Aktionen und Media Skins, bei denen nicht das Programm mit einem Skin versehen wird, sondern der Film, was viel mehr Flexibilität erlaubt. Es gibt daneben noch Komponenten von Drittanbietern (wie z. B. für neue Bildformate wie Dicom oder DivX, Medienformate wie Ipix und BeHere) und man kann, wenn man kann, seine eigenen Komponenten programmieren.

Wiedergabe: Im QT-Player, auf einer Webseite, oder in Standardapplikationen wie Excel, Filemaker, Word (nur am Mac) oder Adobe Acrobat, oder komplexer mit interaktiven Programmierungen in einem MacroMedia Director-Film. Für die Darstellung im Internet gibt es ein Browser-Plug-In, mit einem Active X-Control (siehe hier) kann man QT in PowerPoint Präsentationen verwenden.

5.3.1 QT konfigurieren

Es werden hier nur Punkte erläutert, die sich nicht von selbst verstehen. Da wäre zunächst einmal das Medienkennwort: Mit dem Sorenson-Codec komprimierte QT-Filme können passwortgeschützt sein. Um sie spielen zu können, muss man hier das passende Passwort eingeben.

Unter windows gibt es eine Einstellung Video. Dabei ist der zuverlässige Modus (Nur GDI) der langsamste, aber dafür mit den meisten grafikkarten kompatibel

5.3.2 QT-Film Info

Es gibt zwei Fenster. Das eine findet sich im Get-Info-Fenster, das andere, das neben der Information auch Möglichkeiten zur Bearbeitung bietet im Menü FILM>FILMEIGENSCHAFTEN EINBLENDEN.

5.3.3 Arbeiten im QT Player

eine Selektion erstellt man, indem man den linken und rechten Auswahlmarker in der Zeitleiste verschiebt. Alternativ kann man den Zeitmarker an den in-point bewegen und dann mit gedrückter Umschalttaste zum out-point ziehen oder spielen lassen. Jeder Marker kann bildgenau mit den Pfeiltasten bewegt werden. Mit dem ausgewählten Bereich kann mit Einfügen, Kopieren, Ausschneiden und Löschen im Prinzip wie in einer Textverabeitung verfahren werden. Dabei ist jedoch zu beachten, dass beim Einsetzen von Movies unterschiedlicher Größe und Eigenschaft jedes in seiner eigenen Größe verwendet wird und die Spuren der Zwischenablage zusätzlich zu den vorhandenen kommen, also nicht Eingefügt, sondern hinzugefügt wird (siehe unten). Will man also nicht ein Bild im Bild, so muss man entweder schon bei der Erstellung des Films die px-Größen entsprechend abstimmen oder man muss die Filmspur skalieren und positionieren. Auch die Spuren sollte man schon vorher so bezeichnet haben, dass man sich beim Hinzufügen nachher noch auskennt welche welche ist. Setzt man hingegen Szenen eines Films in ihn selbst, so wird bei Einfügen die Anzahl der Spuren nicht erhöht.

Fügt man eine Grafik ein, so wird ihr als Default ein Zeitwert von 2 sek. gegeben.

Hinzufügen bedeutet, im Unterschied zu Einfügen, dass das eingefügte Movie über das andere gesetzt wird, ohne dass der Bereich, so wie bei Einfügen, gelöscht wird. Im Prinzip sieht man das gut, wenn das eingesetzte Movie kleiner als das ist, in das es eingesetzt wird.

Skaliert hinzufügen bedeutet dasselbe wie hinzufügen, ausser dass der einzusetzende Teil auf die Länge der Auswahl im Zielfilm skaliert wird.

Bei Ersetzen wird entweder der gesamte Film, oder eine in ihm getroffene Auswahl durch die Zwischenablage ersetzt, es werden ebenfalls Spuren hinzugefügt. Damit kann man - gewollt oder ungewollt - Zeitraffer und Zeitlupeneffekte erzielen.

Mit Trimmen löscht man alles außer der momentanen Auswahl.

Skalieren, positionieren und rotieren der Filmspur ist dann nötig, wenn beim Hinzufügen die Größen der beiden Filmkader anschließend verändert werden sollen. Dazu wählt man eine Videospur aus, und wählt GRÖßE aus dem rechten Pop-Up. Dann kann man an jedem Eckpunkt verschieben und außerdem drehen.

Spuren können in BEARBEITEN>SPUREN EIN/AUS... geschaltet werden.

Mit BEARBEITEN>SPUREN EXTRAHIEREN erstellt man einen neuen QT-Film, der nur die extrahierte(n) Spur(en) enthält. Mehrere Spuren wählt man mit gedrückter strg-Taste.

Masken setzt man, indem man ein 1-bit Bitmap (also s/w) in der zum Film passenden Größe vorbereitet (z.B. in FireWorks oder PS) und dann über die Filmeigenschaften eine Videospur wählt und im Pop-up »Maske« die Maske setzt. Dargestellt wird auf den schwarzen px, außer man setzt »Maske invertieren«, dann ist es umgekehrt. Allerdings haben Masken harte Kanten im Gegensatz zu Alpha-Kanälen.

Alpha-Kanal: ein Objekt mit einem Alphakanal (hergestellt in MMFW oder PS) kann skaliert zu einem Film hinzugefügt werden. Anschließend stellt man in den Filmeigenschaften den Grafikmodus für diese Spur auf Alpha.

Beim Import eines .pct mit Alphainformatin kann am Mac unter OSX (Stand August 2003, QT 6.1) das Problem auftreten, dass das Resultat kein .mov ist, sondern ein QT.pct im QuickDraw Format. Es ist dann kein Setzen von Alphakanaleigenschaften möglich. Obwohl nämlich der Alpha-Kanal mitimportiert wird, wird er bei einer Farbtiefe des Bildschirms von 16-Bit nicht angezeigt. Durch Umschalten auf 24-Bit ist der Alpha-Kanal wie erwartet zu sehen. Das Problem liegt daran, dass mit den QuickTime Playern auf Mac OS X die importierten Dateien " in-place" konvertiert werden. Damit ist gemeint, dass die konvertierten Dateien nicht zuerst auf die Festplatte gespeichert werden müssen bevor sie angezeigt werden können. Dadurch wird dem Anwender jedoch jede Möglichkeit genommen Einstellungen vorzunehmen.

Das Problem tritt mit der Windows Version, und mit Mac OS 9 nicht auf. Der Unterschied ist der, dass nach dem Import-Dialog ein Speichern-Dialog angezeigt wird, in dem über ein Taste «Optionen» die gewünschten Einstellungen vorgenommen werden können.  In diesem Fall den Codec none (Keinen) und Millionen+ Farben auswählen.

Details zu den einzelnen Grafikmodi siehe [1], S. 213

5.3.4 Export des fertigen QT-Films

ABLAGE>EXPORTIEREN

Es gibt hunderte Export-, wie auch Importformate. Deshalb eignet sich QT auch ideal zur Konvertierung von Formaten. Die wichtigsten Exportformate sind:

Film => Bild: Das im Player momentan angezeigte Bild wird als Pict-Format exportiert, nach Wahl unkomprimiert, in Photo-JPEG oder PNG). Eher für Mac

Film => BMP: Analog zu Film=>Bild, nur dass hier das auf Win eher verbreitete .bmp verwendet wird.

Film=>DV Stream: .dv für Videoplayer, aber auch für den Import in iMovie!

Film=>MPEG-4: erzeugt .mp4-Datei.

Film=>QT-Film: Alle Bild- und Videospuren werden zu einer Spur zusammengefasst, Sprite- und MIDI-Spuren gehen verloren.

FILM=>QT Media Link: erzeugt .xml, das eine URL zu einem QT-Film und Wiedergabeoptionen enthält. Versieht man die Datei mit dem Suffix .qtl, so kann sie von einem normalen HTML-Link aufgerufen werden und wird im Player dargestellt. Funktioniert unter MacOS 10.2.6+IE5.2 oder Netscape, nicht unter Safari, das nur den Ordner mit dem enthaltenen .qtl darstellt.

Film=>AIFF: Export der Tonspur im universellen Interchange Format

Film=>AVI: veraltet

Spielt man QT-Dateien direkt vom Computer auf einen Fernseher, so hat man im allgemeinen keine Probleme. Erzeugt man jedoch mit Programmen wie iMovie, Final Cut usw. eine DVD, so muss man beachten, dass manche Fernsehgeräte das Bild beschneiden. Das passiert natürlich auch dann, wenn man etwa einen HD-Film auf der DVD hat, der DVD-Spieler jedoch auf 4:3 eingestellt ist. Das lässt sich dann leicht beheben. Kritischer ist das Safe Area Problem. Damit sich das Beschneiden des Bildes durch das Overscan mancher Fernsehgeräte nicht störend auswirkt, ist es sinnvoll, besonders Schaltflächen und Texteinfügungen nicht zu nahe an den Bildrand zu setzen.

5.4 QT-Blenden und Effekte mittels Hilfsprogramm

Das Werkzeug, MakeEffectMovie (für Mac Classic und Win) ist kostenlos runterzuladen am VersionTracker. Man kann mit seiner Hilfe die Videospuren zweier Filme nehmen und daraus einen neuen Film mit einer Effektspur erzeugen. Natürlich geht so etwas in einer richtigen Compositing Software wie Shake leichter und besser und ist für MacOS 10 auch die Alternative, kostet aber.

5.5 Movies im Netz

Neben der Veröffentlichung auf der eigenen Website (siehe QT-Movies im Netz in den Dreamweaver lecture notes) gibt es eine Reihe von Plattformen, auf denen man gratis seine Movies hosten kann. Am bekanntesten ist wohl Youtube. Daneben gibt es aber auch noch andere Plattformen wie Pixorial, das ein Upload oder Senden alter VHS oder Betamaxbänder, sowie die Bearbeitung im Netz und anschließendes Download oder DVD-Brennen gegen eine relativ bescheidene Gebühr erlaubt. Auch Viddler verlangt eine kleine Gebühr und Vimeo ist eher eine Sozialplattform wie Twitter, die aber auch HD mit 1280*720 mit selbst bestimmter Privacy erlaubt.

5.6 QT-Streams

Streaming Server einrichten

Die Übertragungsdaten eines Streams kann man in QT unter FENSTER>FILMEIGENSCHAFTEN>STREAMING-SPUR>TRANSFERRATE finden. Es zeigt Datenrate, verlorene Pakete und Puffergröße.

Beim normalen, dem sogenannten TrueStreaming, wird ein Teil der AV-Daten erst in einem Buffer zwischengespeichert. Ab QT6 gibt es die Option Sofortige Wiedergabe. Dabei wird nicht zwischengespeichert und man kann Filme aus dem Netz ohne Zeitverzögerung ansehen.Conditio sine qua non ist aber eine hohe Bandbreite der Übertragung.Weitere Erörterungen zu diesem Thema.

5.7 Sonderformate

Computer Lehrvideos können gut als RLE gesichert werden, wenn die Capturing Software dies zulässt. RLE heißt run length encoded und besteht aus einem einzigen Keyframe und einem Stream.

5.8 Hardware

5.8.1 Kameras

Aufnahmegeräte beginnen bereits beim Computer, gehen über das Handy, weiter zu Spiegelreflexfotokameras, die bereits (12/2010) recht gut filmen können (wenn man sie stabil halten kann) und reichen bis hin zu teuersten Profikameras. Auch sind bereits (12/2010) erste 3D-Videokameras am Markt. Wenn man schnell etwas dokumentieren will, kann man z.B. bequem die eingebaute Kamera eines MacBooks zusammen mit dem Quicktimeplayer verwenden. Die nötigen Aussteuerungen erfolgen über die entsprechenden Werkzeuge in den Systemeinstellungen.

5.8.2 Projektion

Um hochwertigen Projektoren und Displays ein optimales Ausgangssignal zur Verfügung zu stellen bedient man sich sogenannter Scaler. Man kann mit ihnen Halbbilder einer DVD mit einer Auflösung von 720 x 576 Pixeln in digitale Vollbilder in HDTV-Qualität (1280 x 720 Pixel) umrechnen. Dabei kann natürlich keine Information dargestellt werden, die nicht schon von vornherein da war. Es wird also nur extrapoliert. Analoge Bildsignale können in digitale Signale umgewandelt werden, die HDCP-konform (High Bandwidth Digital Content Protection) sind. Mögliche Bildquellen reichen von der DVD über das VHS-Band, Spielkonsole usw. bis zum Computer.

6. Brennen von CDs und DVDs

6.1 Programme

Das Brennen von CDs und DVDs geschieht entweder explizit mittels bestimmter Programme (z.B. Toast oder Nero) respektive implizit unter MacOS 10 indem man Daten auf das Symbol einer leeren Scheibe am Desktop zieht. Das gleicht dem Kopiervorgang zwischen unetrschiedlichen Datenträgern, ruft aber intern, für den Benutzer nicht sichtbar, die Apple-eigene Brennsoftware Burn auf.  Etwas Komfortabler ist die Erstellung einer DVD mittels iDVD

6.1.1 iDVD

Das Appleprogramm iDVD erlaubt die problemlose Erstellung einer DVD, sogar direkt aus iMovie heraus. Aus verschiedenen Themen heraus kann man eine Gestaltung für die Menüseite wählen und per Drag and Drop Bilder für die Titelseite aussuchen. Ein Problem ergibt sich dabei aber, dass aus Bildern, z.B. aus iPhoto nur ein Ausschnitt dargetsellt wird, wenn man das Photo einfach aus dem iPhotofenster auf den Dropbereich von iDVD zieht.

Obwohl das Programm das Ausgangsmaterial kommentarlos in das für eine Standard-DVD notwendige MPEG-2 Format verwandelt, ist es doch gelegentlich sinnvoll zu checken, welche Auslastung das Projekt bei welchem Typ von Rohling ergibt. Dazu öffnet man Projekt>Projektinfo... Natürlich erhöht sich die Qualität großer Projekte, wenn man sie auf eine dl-DVD (doppelseitig) brennt!

6.2 Geräte

Das Lesen erfolgt auf allen Geräten theoretisch gleich schnell mit maximal 22,16MB/s von DVD und rund 7MB/s von CD (Stand 12/2005). Jedoch gibt es Unterschiede darin, welche Geschwindigkeit vom System noch als möglich erkannt wird, sowie andere softwaremäßige Parameter, die im Endeffekt deutliche Geschwindigkeitsunterschiede in der praktischen Arbeit ergeben.

Übersicht DVD-Brenner für Mac in MacUp 1/2006 S. 34ff

 

7. Webcam

Beispiel Econ-Technologies-Software

8. Materialien und Links

Mediamanual des Bundesministerum für Wissenschaft und Kunst (leider sind die Sounddaten im .ram Format)
(animierte) Gifs downloaden
gratis Gifs und Clipart
Texturen: Tierhaut

9. Anhang

Verzeichnis der Abkürzungen

CCIR Consultive Committee of International Radio (veraltet)
cmd command (in Verbindung mit dem Begriff Taste am Mac die Taste mit dem Apfelzeichen)
FCE Final Cut Express
FCP Final Cut Pro
FH MacroMedia FreeHand
FW FireWire (=iLink, =IEEE 1394)
HW Hardware
IE Microsoft Internet Explorer
IP Internetprotokoll
ITU International Telecommunications Union
MMD MacroMediaDirector, mittlerweile Adobe Director
MMFW MacroMedia FireWorks
PS Adobe Photoshop; PS CS: Version 8 des Programms
PS Photoshop
px Pixel
QT Apple Quicktime
RLE Run length encoded
SMPTE Society of Motion Picture & Television Engineers (Standardisierungsorganisation)
s/w schwarz-weiß
SW Software

 

Literaturverzeichnis

[1] Frank Kastenholz, Michael Vogt: QuickTime 6, Galileo Press GmbH, Bonn 2003; ISBN 3-89842-127-9
[2] Rob Young; The Midi Files, Prentice Hall Europe 1996; ISBN 0-13-262403-6
--------