X.medi a.press
(8)
Hans Jorg Friedrich
Tontechnik fiir Mediengestalter Tone horen - Technik verstehen Medien gestal...
149 downloads
857 Views
11MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
X.medi a.press
(8)
Hans Jorg Friedrich
Tontechnik fiir Mediengestalter Tone horen - Technik verstehen Medien gestalten
^ Spri ringer
Hans Jorg Friedrich Durrbachstr. 14 70329 Stuttgart Deutschland bans .friedrich @d-mo .de
ISBN 978-3-540-71869-7
e-ISBN 978-3-540-71870-3
DOI 10.1007/978-3-540-71870-3 ISSN 1439-3107 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet these Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet iiber http://dnb.d-nb.de abrufbar © 2008 Springer-Verlag Berlin Heidelberg Dieses Werk ist urheberrechtlich geschiitzt. Die dadurch begriindeten Rechte, insbesondere die der tjbersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfaltigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Fine Vervielfaltigung dieses Werkes oder von Teilen dieses Werkes ist auch im Finzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulassig. Sie ist grundsatzlich vergiitungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten waren und daher von jedermann benutzt werden diirften. Einbandgestaltung: KiinkelLopka, Heidelberg Printed on acid-free paper 987654321 springercom
Vorwort
Ein Beruf in den Medien, nah dran am Geschehen, kreativ Tone gestalten... Es gibt viele Griinde - auch viele gute - sich fiir die Laufbahn als Mediengestalter zu entscheiden. Der Wandel vom klassischen Tontechniker zum Mediengestalter hat das Potential und die Attraktivitat des Berufs gesteigert. Gleichzeitig miissen aber auch die kreativen Chaoten die geradhnigen und wenig beugsamen technischen Gesetze akzeptieren und beherrschen lernen, miissen die Technikverhebten ihre Aufmerksamkeit auf die Akteure richten, mit denen sie arbeiten und ihrem Geist die Entfahung erlauben, die die Gestaltung von Tonen von ihnen verlangt. Die Aufgabe ist zweifeUos reizvoU, aber ebenso anspruchsvoh. Dieses Buch mochte den Beruf des Mediengestahers in seiner Breite beschreiben und Impulse setzen auch iiber die Randgebiete nachzudenken. Ich mochte mich bei alien Menschen bedanken, die mich bei diesem Buch unterstiitzt haben. Ich danke Herrn Urs Ehm von der d&b audiotechnik AG, Dagobert Schafer von der Firma Schalltechnik Dr.-Ing. Schoeps GmbH, Frank Meder von der SAE Stuttgart, Herrn Johannes Hiidepohl von der Berufsgenossenschaft der Feinmechanik und Elektrotechnik. Vielen Dank an Claudia Peycke, Michael Speer, Hans-Peter Jahn, Alex Renz, Jorg Aichele und Boris Kellenbenz.
Stuttgart, September 2007
Hans Jorg Friedrich
Inhaltsverzeichnis
1
Tontechnik im Wandel 1.1 Tone im Wandel - Vom Porzellan zum Plastikgeschirr 1.2 Technik im Wandel - Vom Skalpell zum Scliweizer Taschenmesser 1.3 Berufsbilder im Wandel - Vom Techniker zum Gestalter
1 1 2 3
Teil I Schall - D e r R o h s t o f f 2
Schall i n d e r P h y s i k 2.1 Die Schallwelle 2.2 Schallausbreitung 2.3 Schallbesclireibung 2.3.1 Schalldruck 2.3.2 Schalldruckpegel 2.3.3 Schallleistung 2.3.4 Scliallleistungspegel 2.3.5 Spektrum
7 7 9 10 11 11 12 12 12
3
Schall i n d e r E l e k t r o t e c h n i k 3.1 Elektrische Gr6£en 3.1.1 Strom 3.1.2 Spannung 3.1.3 Widerstand 3.1.4 Das Ohmsche Gesetz 3.2 Elektronisclie Bauteile 3.2.1 Widerstand 3.2.2 Kondensator 3.2.2.1 Kondensatoren im Gleiclistromkreis 3.2.2.2 Kondensatoren im Wechselstromkreis 3.2.3 Spulen
13 13 13 14 14 14 14 15 15 16 18 18
VIII
Inhaltsverzeichnis 3.2.3.1 Spulen im Gleichstromkreis 3.2.3.2 Spulen im Wechselstromkreis 3.2.4 Operationsverstarker Elektronische Grundschaltungen 3.3.1 Reihenschaltung 3.3.2 Parallelschaltung 3.3.3 Gemischte Schaltungen 3.3.4 Anpassung 3.3.4.1 Spannungsanpassung 3.3.4.2 Stromanpassung 3.3.4.3 Leistungsanpassung 3.3.5 Verstarkerschaltungen 3.3.5.1 Impedanzwandler 3.3.5.2 Nichtinvertierender Verstarker 3.3.5.3 Invertierender Verstarker 3.3.6 Filterschaltungen 3.3.6.1 Passive Filter 3.3.6.2 Aktive Filter
19 19 19 20 21 21 21 22 23 23 24 24 24 25 25 25 26 27
4
Schall in d e r W a h r n e h m u n g 4.1 Das menscliliche Gehor 4.1.1 Das aufiere Ohr 4.1.2 Das Mittelohr 4.1.3 Das Innenolir 4.1.4 Gehorschutz 4.2 Psychoakustik 4.2.1 Das Horfeld 4.2.2 Lautstarke horen 4.2.2.1 Schalldruck und Sclialldruckpegel 4.2.2.2 Kurven gleicher Lautstarke 4.2.2.3 Bewertungskurven 4.2.2.4 Lautheit 4.2.3 Tonhohen horen 4.2.3.1 Das critical band 4.2.3.2 Verdeckung 4.2.4 Kombinationstone 4.2.5 Grundtonhoren - Residualeffekt 4.2.6 Haas-Effekt - Gesetz der ersten Wellenfront
29 29 30 30 31 31 32 32 32 33 34 34 35 35 36 37 39 39 39
5
Schall in s e i n e n F o r m e n 5.1 Sprache oder Musik 5.2 Sprache oder Gerausch 5.3 Musik oder Gerausch
41 41 42 42
3.3
Inhaltsverzeichnis
IX
Sprache 6.1 Sprachquellen 6.1.1 Wer spricht? 6.1.1.1 Sprecher und Schauspieler 6.1.1.2 Reporter 6.1.1.3 Promis und Passanten 6.1.2 Was wird gesprochen? 6.1.2.1 Kiinstlerisches Wort 6.1.2.2 Informatives Wort 6.1.2.3 Konversation 6.1.3 Wo wird gesprochen? 6.1.4 Bei welcher Gelegenheit wird gesprochen? 6.1.5 Auditive und audiovisueUe Medien 6.2 Stimme 6.2.1 Physiologic 6.2.2 Akustik 6.2.2.1 Formanten 6.2.2.2 Frequenzgang 6.2.2.3 Abstrahlverhalten 6.3 Texte 6.3.1 Syntax 6.3.2 Semantik 6.3.3 Pragmatik 6.4 Sprechen 6.4.1 Atmung, Tonung und Lautung - Worter sprechen . . . . 6.4.2 Rhythmus, Melodic, Klang und Dynamik - Texte sprechen 6.4.2.1 Rhythmus 6.4.2.2 Melodic 6.4.2.3 Klang 6.4.2.4 Dynamik
43 43 43 43 44 44 45 45 45 45 45 46 47 47 47 48 49 50 50 51 51 51 52 52 52
Musik 7.1 E-Musik und U-Musik 7.1.1 E-Musik 7.1.2 U-Musik 7.1.3 F-Musik 7.2 Andere Unterscheidungskriterien 7.2.1 Vokal - Instrumental 7.2.2 Grofie der Besetzung 7.3 Instrumente 7.3.1 Blasinstrumente 7.3.1.1 Schwingung 7.3.1.2 Erregung 7.3.1.3 Anpassung
57 57 58 58 58 59 59 59 59 60 60 62 63
54 54 54 54 55
X
Inhaltsverzeichnis
7.4
7.5
8
7.3.1.4 Floten 7.3.1.5 Rohrblattinstrumente 7.3.1.6 Doppelrohrblattinstruniente 7.3.1.7 Sonstige 7.3.2 Saiteninstrumente 7.3.2.1 Schwingung 7.3.2.2 Erregung 7.3.2.3 Anpassung 7.3.3 Schlaginstrumente 7.3.3.1 Schwingung 7.3.4 Elektronische Instrumente 7.3.4.1 Tonabnehmer 7.3.4.2 Klangsynthese 7.3.5 Gesang Musikalische Struktur 7.4.1 Melodik 7.4.1.1 Tonleitern und Skalen 7.4.2 Harmonik 7.4.2.1 Akkord 7.4.2.2 Stufentheorie 7.4.2.3 Funktionstheorie 7.4.3 Rhythmik 7.4.3.1 Tempo 7.4.3.2 Takt 7.4.3.3 Rhythmus Musizieren 7.5.1 Intonation 7.5.2 Timbre 7.5.3 Timing 7.5.4 Balance 7.5.5 Interpretation
Gerausche 8.1 Atmospharen 8.2 EflFektklange (SFX)
63 64 64 64 65 65 66 67 68 68 70 70 71 76 76 77 77 77 78 80 81 81 82 83 83 83 83 84 85 85 86 89 89 90
Teil II T e c h n i k — D i e W e r k z e u g e 9
Schallwandler 9.1 Mikrofone 9.1.1 Wandlerprinzipien 9.1.1.1 Elektrodynamische Mikrofone 9.1.1.2 Elektrostatische Mikrofone 9.1.2 Richtcharakteristik
95 95 95 96 97 99
Inhaltsverzeichnis
9.2
9.3
9.4
9.5
9.1.2.1 Druckempfanger 9.1.2.2 Druckgradientenempfanger 9.1.2.3 Richtwirkung 9.1.3 Bauformen 9.1.3.1 Kleinnienibranniikrofone 9.1.3.2 Grofinienibranniikrofone 9.1.3.3 Doppelmembranmikrofone 9.1.3.4 Grenzflachenmikrofone 9.1.3.5 Ansteckmikrofone 9.1.3.6 Rohrenmikrofone 9.1.4 Technische Daten 9.1.4.1 Frequenzgang/Ubertragungsbereich 9.1.4.2 Empfindlichkeit 9.1.4.3 Ersatzgerauschpegel 9.1.4.4 Gerauschpegelabstand 9.1.4.5 Grenzschalldruckpegel Tonabnehmer 9.2.1 Moving Coil (MC)/Moving Magnet (MM) 9.2.2 Kristallsysteme Lautsprecher 9.3.1 Parameter 9.3.2 Chassis 9.3.2.1 Wandlerprinzipien 9.3.2.2 Membranausformungen 9.3.3 Lautsprecherbox 9.3.3.1 Akustische Phanomene 9.3.3.2 Mehrwegesysteme 9.3.3.3 Konstruktionsmuster 9.3.4 Elektronik 9.3.4.1 Endstufe 9.3.4.2 Frequenzweiche 9.3.4.3 Controller 9.3.4.4 Konnektivitat 9.3.5 Lautsprecheranordnungen 9.3.5.1 Mono 9.3.5.2 Stereo 9.3.5.3 Mehrkanal 9.3.5.4 Wellenfeldsynthese Kopfhorer 9.4.1 Geschlossene Kopfhorer 9.4.2 Offene Kopfhorer 9.4.3 Kopfhorerverstarker 9.4.4 Druckkanimerprinzip Analog-Digital-Wandler - AD-Wandler 9.5.1 Zahlensysteme
XI 99 100 101 105 105 105 106 106 106 107 107 107 108 108 108 108 108 109 109 109 109 110 110 Ill 113 113 114 114 115 115 116 116 117 117 117 117 119 120 121 121 122 122 122 123 123
XII
Inhaltsverzeichnis 9.5.2
9.6
Abtastung 9.5.2.1 Analoge Tiefpassfilterung 9.5.2.2 Aliasing 9.5.2.3 Oversampling 9.5.2.4 Tastung 9.5.3 Quantisierung 9.5.3.1 Quantisierungsrauschen 9.5.3.2 Dithering 9.5.3.3 Noise Shaping 9.5.4 Technische Umsetzung 9.5.4.1 Multibit-Wandler 9.5.4.2 1-Bit-Wandler Digital-Analog-Wandler - DA-Wandler 9.6.1 Multibit-Wandler 9.6.2 1-Bit-Wandler
10 Mischpulte 10.1 Signalflussplane und Prinzipschaltbilder 10.2 Eingangskanalziige 10.2.1 Eingangsstufe 10.2.1.1 Mikrofoneingang 10.2.1.2 Line-Eingang 10.2.1.3 Tape-Eingang 10.2.2 Ausgange 10.2.2.1 Inserts 10.2.2.2 Sammelschienen 10.2.2.3 Ausgangsstufe 10.2.2.4 Direct Out 10.2.3 Signalmanipulation 10.3 Mastersektion 10.3.1 Bedienelemente 10.3.2 Signaliiberwachung 10.3.2.1 Pegel 10.3.2.2 Phasenlage (Korrelation, Stereobild) 10.3.2.3 Frequenzgang 10.3.3 Automation 10.3.3.1 Mutegruppen 10.3.3.2 Snapshot-Automation 10.3.3.3 Total RecaU 10.3.3.4 (MIDI)-Mute-Automation 10.3.3.5 Dynamische Automation 10.3.4 Steckfeld 10.4 Mischpult-Bauformen 10.4.1 BeschaUungs- und Sendepulte 10.4.1.1 FOH - Front of House
125 125 126 126 127 127 127 128 128 129 129 130 130 131 132 133 133 134 136 136 136 136 137 137 138 140 141 142 142 142 142 143 145 147 147 148 148 148 149 150 150 151 151 151
Inhaltsverzeichnis 10.4.1.2 Monitorpulte 10.4.1.3 Sendepulte 10.4.2 Mehrspur-Recording-Pulte 10.4.2.1 Record-Status 10.4.2.2 Mixdown-Status 10.4.3 HardwarecontroUer und virtuelle Mischpulte 10.4.4 Sonstige Mischpultkonzepte 10.4.4.1 8-Bus 10.4.4.2 Channel Strips 11 Aufnahme- & Ubertragungstechnik 11.1 Profi- und Consunierformate 11.2 Analoge Audioaufzeichnung 11.2.1 Magnetton 11.2.1.1 Tonband 11.2.1.2 Bandmaschinen 11.2.2 Schallplatte 11.2.3 Lichtton 11.3 Analoge Audioiibertragung 11.3.1 Kabelverbindungen 11.3.2 Telefon 11.3.3 Modulationstecliniken 11.3.3.1 Amplitudenmodulation - AM 11.3.3.2 Frequenzmodulation- FM 11.3.4 Mittelwelle, Kurz- und Langwelle 11.3.5 UKW 11.3.6 UHF 11.4 Digitale Audioaufzeichnung 11.4.1 Informationstheorie 11.4.1.1 Nachricht, Signal, Alphabet 11.4.1.2 Information, Entscheidungsgehalt, Entropie 11.4.1.3 Relevanz, Irrelevanz, Redundanz 11.4.2 Codierung 11.4.2.1 Signalformcodierung 11.4.2.2 Quellencodierung 11.4.2.3 Kanalcodierung 11.4.2.4 Leitungscodierung 11.4.3 Medien 11.4.3.1 Magnetische Speichermedien 11.4.3.2 Optische Formate 11.4.3.3 Magnetooptische Formate 11.4.3.4 Elektronische Verfahren 11.5 Digitale Audioiibertragung 11.5.1 Schnittstellen 11.5.1.1 AES/EBU
XIII 152 153 154 155 156 156 158 158 158 159 159 160 160 160 161 165 166 167 167 168 169 169 171 172 173 173 174 174 175 . . 176 178 178 179 180 181 184 187 188 190 191 191 192 192 192
XIV
Inhaltsverzeichnis 11.5.1.2 S/PDIF 11.5.1.3 ADAT 11.5.1.4 MADI 11.5.2 ISDN 11.5.2.1 G.711 11.5.2.2 G.722 11.5.2.3 MPEG 11.5.2.4 Apt-XlOO 11.5.3 Audio over IP 11.5.4 Digitaler Rundfunk 11.6 Aufzeichnung von Steuerbefehlen 11.6.1 Das MIDI-Protokoll 11.6.1.1 Adressierung 11.6.1.2 Message-Aufbau 11.6.1.3 Channel Voice Messages 11.6.1.4 Channel Mode Messages 11.6.1.5 System Common Messages 11.6.1.6 System Real-Time Messages 11.6.2 Die MIDI-tibertragung 11.6.2.1 Der MIDI-Datenstrom 11.6.2.2 Die MIDI-Schnittstelle 11.6.3 Die MIDI-Daten-Speicherung 11.6.4 MIDI-Erweiterungen 11.6.4.1 MIDI Timecode 11.6.4.2 MMC - MIDI Machine Control 11.6.4.3 MIDI Show Control 11.6.4.4 General MIDI (GM) 11.6.4.5 Downloadable Sounds (DLS) 11.6.5 MIDI Sequencer 11.6.6 MIDI Setup
12 Synchronisation 12.1 Takt 12.1.1 Perforation 12.1.2 Biphase 12.1.3 Pilotton 12.1.4 Word Clock 12.1.5 MIDI Clock 12.1.6 Selbsttaktende Codierung 12.1.7 Taktfehler - Jitter 12.2 Song Position 12.3 Timecode 12.3.1 Bildraten 12.3.2 Die Timecodeaufzeichnung 12.3.2.1 LTC - Longitudinal Timecode
193 194 194 194 195 195 196 196 197 197 198 199 199 199 200 201 202 203 204 204 205 205 205 206 207 207 207 208 209 210 213 214 214 215 215 215 216 216 217 217 217 218 219 219
Inhaltsverzeichnis 12.3.2.2 V I T C - Vertical Interval Timecode 12.3.2.3 M T C - MIDI Timecode 12.3.3 SMPTE-Timecode 12.3.3.1 D a t a Bits 12.3.3.2 User Bits 12.3.3.3 Synchronwort
XV 219 220 220 220 221 221
Teil III A u f g a b e n — D i e B e a r b e i t u n g 13
Aufnahme 13.1 AuEenaufnalimen 13.1.1 Filmton 13.1.2 EB-Ton 13.1.3 Atmospharen 13.1.4 Live-Konzerte 13.2 Studioaufnahmen 13.2.1 Live Recording 13.2.2 Overdub Sessions 13.2.3 Melirspuraufnalimen 13.2.4 Zweispuraufnahmen 13.3 Aufnahnievorbereitungen 13.3.1 Der richtige Aufnalimeraum 13.3.2 Die richtige Position im R a u m 13.4 Mikrofonierung 13.4.1 Mikrofonauswahl 13.4.2 Mikrofonaufstellung 13.4.2.1 Position im Verhaltnis zur Scliallquelle 13.4.2.2 Position im R a u m 13.5 Stereoaufnalimen 13.5.1 Synthetische Stereofonie 13.5.2 Intensitatsstereofonie 13.5.2.1 XY-Technik 13.5.2.2 Blumlein-Technik 13.5.2.3 MS-Technik 13.5.3 Laufzeitstereofonie 13.5.3.1 AB-Technik 13.5.3.2 Mehrpunkt-Technik 13.5.4 Gemischte Tecliniken - Aquivalenzstereofonie 13.5.4.1 Oline Klangveranderung 13.5.4.2 O R T F 13.5.4.3 Mit Klangveranderung 13.5.4.4 OSS - Jecklin-Scheibe 13.5.4.5 Kunstkopf 13.5.4.6 Echtkopf
225 225 226 226 226 227 227 228 230 231 231 232 232 234 235 235 236 237 240 241 242 244 244 247 247 248 249 249 249 250 250 250 251 252 252
XVI
Inhaltsverzeichnis 13.5.4.7 Stereomikrofone 13.5.5 Surroundtechniken 13.5.5.1 Atmokreuz 13.5.5.2 Fukuda Tree 13.5.5.3 INA 5 13.5.5.4 OSIS 321 13.5.5.5 KFM 360 13.5.5.6 Schallfeldmikrofone 13.6 Der Aufnahmeablauf 13.6.1 Der Wohlfiihlfaktor 13.6.2 Wichtige Informationen 13.6.3 Technik - Die wichtigste Nebensache 13.6.4 Take fiir Take
252 253 253 254 254 255 256 257 257 257 258 259 259
14 Mischung 14.1 Qualitatskriterien fiir die Mischung 14.2 Klangmanipulation und EfFekte 14.2.1 Klangregelung 14.2.1.1 Filter 14.2.1.2 Entzerrer 14.2.2 Dynamikprozessoren 14.2.2.1 Dynamik 14.2.2.2 Kompressor 14.2.2.3 Limiter 14.2.2.4 Expander 14.2.2.5 Noise Gate 14.2.2.6 De-Esser 14.2.2.7 Kompandersysteme 14.2.3 Panorama 14.2.4 Hall 14.2.5 Delay 14.2.6 Chorus/Flanger/Phaser
263 263 264 264 265 268 271 272 272 278 279 279 281 282 283 285 288 288
15 Schnitt 15.1 Sprachschnitt 15.1.1 Kiirzungssclinitte 15.1.2 Korrekturen 15.1.3 Kosmetik 15.1.4 Montage 15.1.4.1 Umfragen 15.1.4.2 Collagen 15.2 Musikschnitt 15.2.1 Versionssclinitte 15.2.2 Korrekturen 15.2.3 Effektschnitte
291 296 296 296 297 298 299 299 300 301 302 303
Inhaltsverzeichnis 16
XVII
Beschallung 305 16.1 Vorbereitungen 305 16.1.1 Das P r o g r a m m 305 16.1.2 Die Halle 307 16.1.3 Sonstiges 309 16.1.4 Materialauswahl 310 16.1.5 Die Bescliallungsanlage 312 16.1.5.1 Stacks & Cluster 312 16.1.5.2 Fills 314 16.1.5.3 Delay Lines 315 16.1.5.4 Line Arrays 316 16.1.5.5 Installationen 318 16.2 Technisclie Einriclitung 319 16.2.1 Technische Aspekte 319 16.2.1.1 Strom 319 16.2.1.2 Pultplatz 320 16.2.1.3 Backline 321 16.2.1.4 PA 322 16.2.2 Sicherheitsaspekte 323 16.3 Soundcheck 325 16.3.1 Einmessen der PA 325 16.3.2 Der Monitor Soundcheck 326 16.3.3 Der F O H Soundcheck 327 16.3.4 Larmschutz 329 16.3.4.1 TA Larm 329 16.3.4.2 Larm- und Vibrations-Arbeitsschutzverordnung330 16.3.4.3 DIN 15905 Teil 5 331 16.4 Die Veranstaltung 331 16.4.1 Prazision 331 16.4.2 Balance 332 16.4.3 Klanggestaltung 332
Literaturverzeichnis
333
Sachverzeichnis
337
Tontechnik im Wandel
Worum es bei der Tontechnik geht erscheint schon beim blofien Anblick des Wortes augenfallig. Um Tone und um Technik. Umso erstaunlicher ist es, dass die Existenz der Tone und vielfach auch ihre Form scheinbar als gegeben angesehen werden und der Technik die gesamte Aufmerksamkeit zuteil wird. In diesem Buch soU die Tontechnik mehr sein, als die Lehre der Schallwandlung und -iibertragung. Deshalb bevorzuge ich eine weniger technische als vielmehr ganzheitliche Definition des Wortes Tontechnik: Tontechnik ist die Begleitung eines Schallereignisses von seiner Entstehung entlang einer Ubertragungskette bis zum Ort des Horens mit Hilfe von technischen Einrichtungen zur Manipulation, Speicherung und Ubertragung. Die etablierten Verfahrensweisen in der Produktion und Ubertragung von Sprache und Musik erfahren einen grundsatzlichen Wandel, seit der Computer Einzug in die Tonstudios, aber auch in die Wohnungen der Konsumenten gehalten hat. Dass sich die Produktionstechnik dadurch verandert ist offensichtlich, es gibt aber auch gravierende Auswirkungen auf die tontechnischen Berufsbilder und sogar auf das Horempfinden und damit die Form der produzierten Tone ansich.
1.1 Tone im Wandel — Vom Porzellan zum Plastikgeschirr Horen ist die Aufnahme eines meist wilden Gerausch- und Stimmengewirrs. Zuhoren bedeutet, daraus die jeweils relevanten Informationen zu extrahieren. Die Fahigkeit, selektiv zu horen, also aus dem von den Ohren empfangenen Klanggemisch die wichtigen Telle zu extrahieren lasst den Horer blind - oder besser taub - werden fiir die spezifischen Unzulanglichkeiten eines bestimmten Mediums. Anders ist kaum zu erklaren, dass sich die Menschen in den 1920er Jahren freiwillig vor einen Langwellenempfanger setzten, die Schallplatte trotz ihres Knisterns von vielen noch heute als der CD klanglich iiberlegen empfunden wird und die Musik-Kassette - die immerhin die Wahl zwischen rauschen
2
1 Tontechnik im Wandel
und pumpen lie£ - den Weg in jedes Auto fand. Nun hangt diese Toleranz sicher davon ab, dass der Benutzer einen Vorteil zu anderen Medien empfindet. Das kann im Falle der ersten Radiogerate ein Mangel an Alternativen sein, im Falle der Schallplatte ein oft als sinnlich empfundenes taktiles Erlebnis oder es stellt sich, wie die MC, einfach als praktisch heraus. Aucli die modernen Medien sind klanglicli alles andere als perfekt. Aber liier greifen dieselben Mechanisnien. In Kauf genomnien wird heute ein verzerrter Fernsehton, zugunsten der Verfiigbarkeit eines passenden Bildes - in vielen Hauslialten hat der Fernselier das Radio langst abgelost. MP3-Artefakte werden iiberhort, well sich damit akzeptable Download-Zeiten erkaufen lassen und am Ende 60 Stunden Musik auf den Player passen. Dass der Klang nicht unbedingt das wichtigste Qualitatsmerkmal ist fiihrt bereits in der Produktion dazu, dass man sich Gedanken iiber die spateren Abhorbedingungen des fertigen Produktes macht. Klangasthetik wird zugunsten der Lautheit aufgegeben und die Produktionsqualitat bleibt oft weit hinter ihren Moglichkeiten, well sich der Aufwand fiir ein minderwertiges Ausgabeformat nicht rechtfertigen lasst. Das hat auch Auswirkungen auf die technischen Anlagen, die fiir eine Produktion eingesetzt werden.
1.2 Technik im Wandel — Vom Skalpell zum Schweizer Taschenmesser Die Computertechnik hat sowohl die Seite der Produktion, als auch die Seite der Konsumenten verandert. Auf der Seite der Konsumenten sind die neuen Medien zu nennen, die CD hat die LP und die MC abgelost, digitale Formate sind heute Standard. Konventionelle, analoge Produktionstechnik stellt hohe Anforderungen an die Qualitat der Schaltungen und der Bauteile. Das macht die Technik aufwandig und teuer. Analoge tontechnische Cerate lassen sich nur fiir einen Zweck verwenden. Nicht nur die Anschaffung ist teuer, auch die Wartung und die permanente messtechnische Betreuung sind mit hohen Kosten verbunden. Canz anders verhalt es sich mit den digitalen Systemen. Moderne AudioWorkstations arbeiten heute ohne zusatzliche Hardware auf handelsiiblichen Computersystemen. Sie sind intuitiv zu bedienen und erwecken damit den Anschein, dass weniger Know How notig ist, als es bei analoger Ausriistung der Fall ware. Die virtuelle Studioumgebung stellt nicht so hohe Platzanforderungen wie ihre analogen Pendants, so dass auch kleinere Raume bei Bedarf als Studio dienen konnen. Diese Faktoren haben dazu gefiihrt, dass eine grofie Menge an semiprofessioneUen Studios entstanden sind, die mit wesentlich geringeren Kosten eine akzeptable Qualitat produzieren konnen. Qualitatsunterschiede zwischen den Studios sind heute haufig nicht in den Produktionssystemen zu suchen sondern in baulichen Gegebenheiten, der Peripherie und vor allem den Kenntnissen und Fahigkeiten des Personals. Eine
1.3 Berufsbilder im Wandel - Vom Techniker zum Gestalter
3
gute Raumakustik ist ein gro£er Kostenfaktor, allein schon well dafiir eine gewisse MindestgroEe erforderlich ist. Auch wenn erschwingliche digitale AudioWorkstations den giinstigen Einstieg ermoglichen, benotigt man fiir sehr gute Aufnahmen imnier noch sehr gute Mikrofone, die zudem noch zum jeweiligen Anwendungsfall passen miissen. Eine groi^e Auswahl guter Mikrofone vorzuhalten ist teuer. Der letzte Qualitatsfaktor - und sicher einer der wichtigsten - ist der Mensch. Um die Berufe in der Tontechnik geht es im folgenden Abschnitt.
1.3 Berufsbilder im Wandel — Vom Techniker zum Gestalter Die klassische Rollenverteilung in der tontechnischen Produktion besteht aus drei Personen. Zustandig fiir die kiinstlerischen Aspekte ist je nach Programm der Regisseur, Spielleiter oder Tonmeister, die technische Umsetzung der Vorgaben obliegt dem Toningenieur und der Tontechniker ist als Tape-Operator fiir die Aufzeichnungsgerate zustandig. Die Digitalisierung der Produktionsmittel vereinfachte die Handhabung, so dass mehrere Aufgaben nunmehr von einer Person wahrgenommen werden konnte. Mit der zunehmend auch giinstigen Verfiigbarkeit von Produktionstechnik hat sich die vormals strenge funktionale Trennung der Berufe voneinander verandert. Heute wickeln sowohl Tonmeister und Toningenieure, als auch Mediengestalter eigenverantworthch komplette Produktionen ab. Als Unterscheidungskriterium gilt vielleicht anfangs noch eine andere Wertigkeit der Produktionen. Die Wertigkeit der Produktion hat dabei nichts mit dem Wert zu tun. Eine gute Low-BudgetProduktion eines Mediengestalters kann durchaus wertvoller sein, als eine schwache Opern-Produktion eines Tonmeisters. Die Wertigkeit meint hier die materiellen Werte, die an der Produktion hangen. Geht bei Produktion eines Demo-Bandes fiir eine neu gegriindete Schul-Band etwas schief, dann lasst sich der Fehler giinstiger korrigieren, als wenn ein hochbezahltes Sinfonieorchester zu Nachaufnahmen ins Studio beordert wird. Je teurer die Produktionen sind, desto hoher sind die Anforderungen an die Erfahrung des tontechnischen Personals und auch an deren Kompetenz, die, sofern man die Person nicht kennt, oft allein durch die formale Qualifikation beurteilt werden muss. Gerade fiir Mediengestalter bieten sich durch die Aufweichung der althergebrachten, starren Strukturen sehr interessante Perspektiven. Die Arbeit wird von Anfang an vielseitiger und verantwortungsvoller. Die Option kreativ zu sein, lost indes das Handwerk nicht ab. Die Technik zu beherrschen ist essentieUe Voraussetzung fiir die Schaffung eines Gestaltungsspielraums. Erfahrungen werden auch durch geringwertige Produktionen gesammelt. Und sie sind in Form der erstellten Tontrager nachweisbar. So lassen sich die Tiiren zu den hoherwertigen Produktionen durch Talent und Einsatz aufstoEen, auch ohne die bisher geforderte formale Qualifikation eines Hochschulstudiums.
4
1 Tontechnik im Wandel
Dieser Prozess hat vor einigen Jahren erst begonnen, so dass gerade von lange existierenden Unternehnien - ich denke hier zuni Beispiel an den offentlich-rechtlichen Rundfunk - keine Wunder erwartet werden diirfen. Aber die mittelfristigen Perspektiven fiir Mediengestalter gehen weit iiber das hinaus, was ein Tontechniker noch vor einem Jahrzehnt von seinem Arbeitsleben erwarten konnte.
Teil I
Schall - Der Rohstoff
Schall in der Physik
Fiir den Mediengestalter sind Grundlagen unerlasslich. Wie tief man sich in die Physik - beziehungsweise in den Teilbereich der Akustik - einarbeiten muss, hangt von den gestellten Anforderungen ab. Wer Medien produzieren und gestalten mochte, der soUte iiber die grundlegenden BegriflFe Bescheid wissen, die es ermoglichen, ein Datenblatt zu lesen. Er sollte eine Vorstellung davon haben, was Schall eigentlich ist. Fiir die tagliche Arbeit ist das Verstandnis und der Umgang mit Pegeln auEerst wichtig. Schall besteht aus Schwingungen im horbaren Frequenzbereich, die sich wellenformig in einem Tragermaterial ausbreiten. Das fiir die Tontechnik relevante Tragermaterial ist die Luft. Man spricht bei der Schallwellenausbreitung in Gasen deswegen auch von Luftschall. Schall kann sich aber auch in Fliissigkeiten oder in FeststofFen ausbreiten. Letzteres ist unter dem Begriff Korperschall bekannt. Korperschallphanomene sind in der Regel unerwiinscht^. Eine Schallausbreitung ohne Tragermaterial ist nicht moglich.
2.1 Die Schallwelle Schall ist in der realen Welt fast immer ein Gemisch vieler Schwingungen. Fiir die Erarbeitung der Parameter einer Schwingung ist es jedoch sinnvoU, von einer einzelnen Schwingung auszugehen. Das ist insofern legitim, als alle komplexen Schwingungen Uberlagerungen vieler einfacher Schwingungen sind. Die zweite Vereinfachung, die zunachst gelten soil, ist dass es keine Reibungsverluste gibt. Eine Schwingung erfordert ein elastisches Tragermedium. Elastizitat erlaubt die Bewegung in einem bestimmten Bereich. Die RiicksteUkraft, also der Widerstand, der der Schwingung entgegensteht, ist umso grower, je grofier die Auslenkung ist. Um einen Schwinger zum Schwingen anzuregen, bedarf Davon ausgenommen sind natiirlich die Schwingungen von Saiten und Klangstaben zur Klangerzeugung.
8
2 Schall in der Physik
es eines Impulses. Der Schwinger muss also aktiv aus seiner Ruhelage bewegt warden. Die dadurcli aufgenommene Energie treibt die Scliwingung an. Die Form einer solclien idealen Schwingung ist sinusformig. Visualisieren lasst sich so etwas durcli ein Masse-Feder-Pendel, das auf und ab scliwingt. Befestigt man einen Stift an der Unterseite, der die momentane Auslenkung auf ein Blatt Papier zeiclinet, das mit konstanter Geschwindigkeit vorbeilauft, ergibt sich die Sinuskurve.
y=sin(2nx) Abb. 2.1. Einfache Sinusschwingung. Der Schwingungsverlauf wiederholt sich periodisch, solange die Schwingung nicht gebremst wird. Die Zeit, in der eine solche Schwingungsperiode durchlaufen wird, nennt man Periodendauer. Die Anzahl Schwingungen pro Sekunde ist die Frequenz. Die Einheit der Frequenz ist das Hertz (Hz), fiir die Audiotechnik wichtig sind Frequenzen im horbaren Bereich zwischen 20 Hz und 20000Hertz, das entspricht 20Kilohertz (kHz). Der Takt digitaler Aufzeichnungsgerate liegt bei derzeit 96 kHz. Hohere Frequenzen im MegahertzBereich findet der Mediengestalter bei den Tragerfrequenzen fiir die Rundfunkiibertragung. Frequenz und Periodendauer lassen sich iiber den Kehrwert auseinander ableiten. Neben der Frequenz ist auch das Ma£ der Auslenkung fiir die Beschreibung der Schwingung wichtig. Man spricht von der Amplitude. Die Amplitude ist das Ma£ fiir die Starke der Schwingung. In der Horwelt klingen starke Schwingungen gleicher Frequenz lauter als schwache. Die Amplitude hat keinen Einfluss auf die Frequenz.
Periodendauer (T)
Abb. 2.2. Periodendauer und Amplitude.
2.2 Schallausbreitung
9
Der dritte Parameter einer Schwingung ist die Phasenlage. Sie ist interessant im Zusammenhang mit anderen Schwingungen und gibt an, um welchen Grad die Schwingungen gegeneinander verschoben sind. Zwei Schwingungen sind in Phase, wenn der Kurvenverlauf iibereinstimmt, also die Maxima und die NuUdurchgange zum selben Zeitpunkt stattfinden. Gegenphasige Signale haben zur selben Zeit NuUdurchgange, wahrend am Scheitelpunkt die eine Schwingung ihren positiven Maximalwert, die andere ihren negativen erreicht. Angegeben wird die Phasenlage in Grad. 0° bedeutet gleichphasige, 180° gegenphasige Signale. Eine Phasenverschiebung von 90° weist auf unkorrelierte - das hei£t voneinander unabhangige - Signale hin. Die Phasenlage ist entscheidend, wenn es um Uberlagerungen von Schallwellen, die sogenannten Interferenzen geht. Uberlagert man Schallwellen gleichphasig, dann kommt es zu einer groEeren Amplitude, bei gegenphasigen Wellen sinkt die Amplitude ab. In der realen Welt sind Schwingungen gedampft. Das bedeutet, dass die Amplitude mit der Zeit abnimmt, bis die Schwingung schliefilich zum Stillstand kommt. Hier zeigt sich sehr gut, dass die Amplitude keinen Einfluss auf die Frequenz hat. Ansonsten wiirden ausklingende Tone kontinuierlich tiefer werden.
Abb. 2.3. Die Frequenz einer gedampften Schwingung ist konstant.
2.2 Schallausbreitung Je nach Medium breitet sich der Schall unterschiedlich schneU aus. Die Schallgeschwindigkeit c in Luft liegt fiir normale Temperaturen bei etwa 343 m/s. Aus der Schallgeschwindigkeit lasst sich die Wellenlange A (sprich lambda) ableiten. Die WeUenlange ist der Weg, den der Schall wahrend einer Periodendauer zuriicklegt. In der Luft liegen die Wellenlangen der horbaren Frequenzen zwischen 17 m und 17 mm. Dieser Unterschied weist bereits auf die Schwierig-
10
2 Schall in der Physik
keiten hin, niit denen Raumakustiker zu kampfen haben, die einen homogenen Rauniklang erreichen niochten.
Es gibt zwei Arten von Schallwellen. Longitudinalwellen und Transversalwellen. Longitudinal bedeutet eine Schwingung in Ausbreitungsrichtung, transversal eine Schwingung quer zur Ausbreitungsrichtung. Die Art der Schwingung ist abhangig vom schwingenden Material. Die Schallausbreitung in Luft erfolgt longitudinal. Schwingungen in Festkorpern konnen transversal erfolgen. Bei einer Longitudinalwelle bewegt sich eine Druckwelle durch den Raum. Die Luftteilchen schwingen in der Frequenz um ihre Ruhelage. So kommt es zu Druckverdichtungen und Ausdiinnungen, die sich periodisch abwechseln. Die niittlere Geschwindigkeit, niit der sich die Luftmolekiile um ihren Ruhepol bewegen ist die Schallschnelle v. Sie hat nichts mit der Schallgeschwindigkeit zu tun sondern liegt bei unter einem Millimeter pro Sekunde. Sie steigt mit zunehmender Lautstarke an. Man unterscheidet Kugelwellen von ebenen Wellen. Kugelwellen werden von Punktschallquellen erzeugt, ebene Wellen von Flachenstrahlern, die aber in der realen Welt kaum und wenn dann nur fiir hohe Frequenzen vorkommen. Statt dessen nahert sich eine Kugelwelle mit steigender Entfernung einer ebenen Welle an. Nahe der Schallquelle ist die Kriimmung der Kugelwelle noch sehr stark, mit steigendem Durchmesser wird sie aber immer schwacher, so dass man in einiger Entfernung von einer ebenen Wellenfront sprechen kann. Das Nahfeld bezeichnet einen Abstand zur Schallquelle bis etwa zur halben Wellenlange. Dariiberhinaus gelten Fernfeldbedingungen. Im Fernfeld sind Schalldruck und Schallschnelle gleichphasig. Die Schallausbreitung erfolgt in der Realitat immer gerichtet. Die PunktschaUquelle und ihre kugelformige Schallabstrahlung ist ein ideahsiertes, theoretisches Modell. Angegeben wird die gerichtete Schallabstrahlung und auch die gerichtete Schallaufnahme bei Mikrofonen mit dem Biindelungsgrad 7 (sprich gamma) beziehungsweise dem logarithmischen Biindelungsmafi. Die Biindelung ist immer frequenzabhangig, sie nimmt mit steigender Frequenz zu.
2.3 Schallbeschreibung Die wichtigsten Gr6£en, mit denen Schall beschrieben werden kann, sind in den folgenden Abschnitten aufgefiihrt. In der Tontechnik arbeitet man meist nicht mit absoluten Werten, sondern man verwendet die logarithmische DarsteUung, den Pegel.
2.3 Schallbeschreibung
11
2.3.1 Schalldruck Unser Gehor reagiert auf Luftdruckunterschiede. Damit ist der Schalldruck ein wichtiger Parameter fiir die Beurteilung der Lautstarke eines Schallereignisses. Er tragt das Formelzeiclien p von pressure und wird in Pascal (Pa) angegeben. Der horbare Bereich ist nach unten durch die frequenzabhangige Horscliwelle, nacli oben durch die Schnierzgrenze eingeschrankt. Die Horschwelle ist definiert als 2 • 10^^ Pa bei 1 kHz, die Schnierzgrenze bei etwa 100 Pa. Der Schalldruck ist ortsabhangig. Je weiter man sich von der Schallquelle entfernt, desto geringer ist der Schalldruck. Er halbiert sich mit jeder Verdopplung der Entfernung. Der Schalldruck ist durch die Schwingung nicht konstant. Deshalb wird auch nicht sein Spitzenwert verwendet, sondern der Effektivwert. Der Effektivwert entspricht dem Wert, den ein unveranderliches Signal mit denselben Eigenschaften - in diesem Fall denselben Druck - hatte. Bei Sinusschwingungen berechnet man den Effektivwert, indem man den Spitzenwert durch \/2 dividiert. Das Verhaltnis von Spitzen zu Effektivwert nennt man auch den Crest-Faktor. 2.3.2 Schalldruckpegel Der grof^e Wertebereich der horbaren Schalldriicke ist fiir die tagliche Arbeit zu uniibersichtlich. AuEerdem wird sie dem Gehor nicht gerecht. Das Weber-Fechnersche Gesetz besagt, dass die Wahrnehmungsorgane eine Reizverstarkung nicht linear, sondern nur logarithmisch iibertragen^. Daher bietet sich ein logarithmisches Verhaltnismafi an, um Schalldruckdifferenzen auszudriicken. Das ist der Schalldruckpegel. Der absolute Schalldruckpegel ist das Verhaltnis des momentanen Schalldrucks zur Horschwelle. Er wird folgendermafien berechnet: L =
20lg{^) Po
Die Einheit des absoluten SchaUdruckpegels ist dBspL- SPL steht fiir Sound Pressure Level. f>o ist die Horschwelle und f> der zu bewertende Schalldruck. Die HorschweUe entspricht also OdBspL, die Schmerzgrenze hegt bei durchschnitthch 134dBspLUm zwei Schalldriicke miteinander in Beziehung zu setzen, kann anstelle der Horschwelle auch jeder andere Schalldruck als Referenzwert f>o verwendet werden. Die Einheit dieses relativen SchaUdruckpegels ist das Dezibel (dB). 6dB entsprechen einer Verdopplung oder Halbierung des Schalldrucks, 20 dB dem Zehnfachen. Durch die Ortsabhangigkeit des Schalldrucks sinkt der Schalldruckpegel um 6 dB mit jeder Verdopplung der Entfernung.
Fiir das Gehor gilt das fiir mittlere und hohe Schalldriicke.
12
2 Schall in der Physik
2.3.3 SchalUeistung Im Gegensatz zum Schalldruck ist die SchalUeistung ortsunabhangig. Sie beschreibt eine Eigenschaft der Schallquelle, namlich die Menge an Schallenergie, die pro Zeiteinheit abgestrahlt wird. Diese akustische Leistung Pak hat die Einheit Watt (W). 2.3.4 SchalUeistungspegel Der Schahleistungspegel ist ein logarithmisches Mai^ zur Beurteilung von Schahleistungen im Verhaltnis zur Referenz von PQ = 10^^'^W. Seine Einheit ist das DezibeL Er wird wie folgt berechnet: Lw =
lOlgi^) -TO
2.3.5 Spektrum Nur sehen hat man es in der realen Welt mit reinen Schwingungen zu tun. Meist arbeitet man mit Frequenz- und damit Klanggemischen. Diese Klanggemische lassen sich zerlegen in einzelne reine Schallwellen unterschiedlicher Phase, Amplitude und Frequenz. Die Zusammensetzung der Frequenzen ist das Spektrum. Das Spektrum wird in einem Diagramm dargestellt, das fiir jede Einzelschwingung den Pegel anzeigt. Gerate, die das leisten, hei£en Spectrum Analyzer oder kurz Analyzer. Zerlegt wird das Signal mittels der Schnellen Fourier Transformation, kurz EFT. So sieht man die Pegel pro Frequenzband, nicht den momentanen Gesamtpegel.
Abb. 2.4. Spektrum einer einzelnen Frequenz.
Schall in der Elektrotechnik
In der Tontechnik wird der gewandelte Schall mit Hilfe elektronischer Cerate gespeicliert und verarbeitet. In dieser Form kann man eigentlich nicht von Schall sprechen. Auch wenn man nicht plant, selbst ein Mischpult zu bauen - obwohl die meisten Tontechniker diese Phase durchleben - benotigt der Mediengestalter Grundkenntnisse der Elektrotechnik. Im Folgenden soil deshalb kurz auf die wichtigsten Gr6£en, die passiven Bauteile, Operationsverstarker und die Grundschaltungen eingegangen werden. Im Rahmen dieses Buches kann kein tiefgehendes elektronisches Wissen vermittelt werden. Nach der Lektiire der folgenden Abschnitte sollte ein Mediengestalter in der Lage sein, die elektrischen Vorgange an den Ein- und Ausgangen seiner Gerate zu begreifen und analoge Filterschaltungen verstehen.
3.1 Elektrische Grofien Die Elektrotechnik beschaftigt sich mit den elektrischen Effekten, die auftreten, wenn Stromkreise aufgebaut werden. Um einen solchen Stromkreis zu beschreiben, geniigen drei Parameter. Der Strom, die Spannung und der Widerstand. Die Erklarungen sind bewusst knapp gehalten. Sie werden nicht ausreichen, um selbstandig elektronische Schaltungen aufzubauen. Aber das ist auch nicht die Aufgabe eines Mediengestalters. Wer sich tiefer in die Materie einarbeiten mochte, der sei auf die vielfaltige Literatur zum Thema verwiesen. 3.1.1 Strom Der Strom beschreibt den Ladungstransport. Seine Einheit ist das Ampere (A). Bezeichnet wird der Strom mit dem Buchstaben / . Je mehr Ladung pro Zeiteinheit durch den Stromkreis flie£t, desto hoher ist der Strom.
14
3 Schall in der Elektrotechnik
3.1.2 Spannung Die Spannung oder auch das Potential beschreibt die Kraft, mit der der Ladungstransport vorangetrieben wird. Erzeugt wird Spannung durch eine Spannungsquelle. Eine Spannungsquelle hat zwei Pole. Zwisclien diesen beiden Polen bestelit ein Ladungsunterschied. Dieser Unterscliied strebt nach einem Ausgleich. Sobald der Stromkreis gesclilossen wird, also beide Pole miteinander verbunden werden, kommt es zu diesem Ladungsausgleicli. Je grower die Ladungsdifferenz ist, desto hoher ist die Spannung. Eine Spannung gilt immer gegeniiber einem Bezugspotential. Dieses (spannungsfreie) Bezugspotential ist die Masse oder die Erde. Die Einheit der Spannung heifit Volt (V). Das Fornielzeiclien der Spannung ist U. 3.1.3 W i d e r s t a n d Der Widerstand ist die Kraft, die dem Ladungstransport entgegensteht. Der Widerstand wird mit dem Buclistaben R bezeiclmet und hat die Einheit Ohm (i7). Jeder Verbraucher hat einen Widerstand. Der Widerstand eines elektrischen Leiters richtet sich nach dem materialabhangigen, spezifischen Widerstand (p, sprich rho), dem Leiterquerschnitt (q) und der Leiterlange (/).
3.1.4 Das Ohmsche Gesetz Das ohmsche Gesetz beschreibt die Zusammenhange zwischen Strom, Spannung und Widerstand. Charakteristisch fiir den ohmschen Widerstand ist der lineare Zusammenhang zwischen Strom und Spannung.
• •
Je hoher der Antrieb (U) ist, desto grofier wird der Strom bei gegebenem Widerstand Je hoher der Widerstand ist, desto geringer wird der Strom bei gegebener Spannung
3.2 Elektronische Bauteile Zum Aufbau elektronischer Schaltungen stehen diverse Bauteile zur Verfiigung. Das beginnt bei einfachen Bauteilen wie dem Widerstand, dem Kondensator oder der Spule, geht iiber Halbleiterbauteile wie Dioden und Transistoren bis hin zu komplexen Bauteilen wie Operationsverstarkern und anderen
3.2 Elektronische Bauteile
15
integrierten Schaltkreisen. Man unterscheidet passive und aktive Bauteile. Aktive Bauteile verstarken, passive Bauteile niclit. An dieser Stelle sollen nur der Widerstand, der Kondensator, die Spule und der Operationsverstarker erwahnt werden. Diese werden hier, gerade auch im Hinblick auf ilir Verhalten bei anliegenden Wechselspannungen betrachtet. Alle genannten Bauteile, bis auf den Operationsverstarker sind passive Bauelemente. 3.2.1 Widerstand Ein Widerstand als Bauteil erzeugt einen elektrisclien Widerstand. Es handelt sicli also um einen Verbrauclier. Die Verlustleistung eines Widerstands wird in Form von Warme abgegeben. Widerstande werden unter anderem als Kohle- oder Metallscliiclitwiderstande gebaut. Da der spezifisclie Widerstand der Materialien bekannt ist, kann iiber die Lange und den Durclimesser der gewiinsclite Widerstand hergestellt werden. Der Leiter ist von einem isolierenden Korper umgeben. Auf diesem zeigen farbige Ringe den Widerstandswert an. In Sclialtplanen wird ein Widerstand als leeres Recliteck eingetragen. Trimm- oder regelbare Widerstande (Potentiometer) zeigen zusatzlich das Regelelement an. ^
^
^
^
Abb. 3.1. Festwiderstand, Trimmer und Potentiometer. In Wechselstromkreisen - und diese sind in der Tonteclmik ja besonders interessant - verhalt sich ein Widerstand frequenzunabhangig. 3.2.2 Kondensator Ein Kondensator gehort zur Gruppe der Kapazitaten. Der Begriff Kapazitat zeigt an, dass Kondensatoren etwas speicliern konnen. Ahnlicli wie eine andere Kapazitat, die Batterie, speichern sie Ladung. Die Kapazitat (C) besclireibt die Ladungsmenge, die ein Kondensator speichern kann. Sie wird in Farad {F) angegeben. Eine fiir Wechselspannungsanwendungen liaufig verwendete Bauart ist der Plattenkondensator. Dabei werden zwei Flatten von einem niclitleitenden Stoff - dem Dielektrikum - getrennt. Die beiden Fole des Kondensators liaben keine elektriscli leitende Verbindung. Damit ergibt sich theoretisch ein unendlich hoher Widerstand. Dennoch flie£t durch einen Kondensator unter bestimmten Umstanden Strom. Doch darum geht es spater. Bei Flattenkondensatoren ist die Folung egal. Bei der zweiten Bauform, den Elektrolytkondensatoren, ist
16
3 Schall in der Elektrotechnik
das anders. Sie zeichnen sich durch eine hohere Kapazitat aus. Im Netzteil erfiillen sie die Aufgabe, die gleichgerichtete Wechselspannung zu glatten. Das Schaltzeichen sind zwei voneinander getrennte, senkrecht zur Leitung verlaufende Linien. Sie symbolisieren die beiden Flatten des Kondensators.
Abb. 3.2. Schaltzeichen eines Flatten- und eines Elektrolytkondensators. Die Kapazitat ist abliangig von der Flaclie der beiden Flatten (A), deren Abstand (d) und der Bescliaffenheit des Dielektrikums (e, spricli epsilon). Sie ist umso grofier, je grofier die Flache der beiden Flatten ist und umso kleiner, je grofier der Abstand ist.
3.2.2.1 Kondensatoren im Gleichstromkreis Um zu verstehen, was in einem Kondensator passiert, empfiehlt es sich, ihn zunaclist zu beobacliten, wahrend man eine Gleiclispannung anlegt. Dabei konnen zwei grundsatzliche Fliasen erkannt werden: Die Ladungsphase und die Entladungsphase. Ladungsphase Der entladene Kondensator weist zwischen seinen Flatten keinen Fotentialunterscliied auf. Der Kondensator wird aufgeladen, indem man eine Spannung anlegt. Die Betraclitung erfolgt zunachst bei Gleichspannung. Einer Flatte des Kondensators werden Elektronen zugefiihrt, auf der anderen Seite werden sie durch die Spannung abgezogen. Das sieht zunachst genauso aus, als gabe es eine leitende Verbindung zwischen den beiden Flatten. Strom flie£t. Tatsachhch aber entsteht an der einen Flatte eine negative Ladung durch den Elektroneniiberschuss, auf der anderen eine positive durch den Elektronenmangel. Es entsteht ein Fotentialunterschied, der dem der urspriinglichen Spannung entgegengesetzt wirkt. Der Stromfluss kommt zum Erliegen wenn die Spannung am Kondensator der Quellenspannung entspricht. Spannungsquelle und Kondensator befinden sich im Gleichgewicht. Da die Spannung nicht ausreicht, weitere Ladung zum Kondensator zu transportieren, wirkt der Kondensator wie ein unendlich hoher Widerstand. Der Widerstand des entladenen Kondensators ist zunachst sehr gering. Deshalb fliefit zunachst ein sehr hoher Strom, es herrschen Kurzschlussverhaltnisse. Um diesen Kurzschluss zu verhindern, wird ein Kondensator imnier liber einen Vorwiderstand geladen, der den Ladestrom begrenzt. Dieser Widerstand bestinimt nicht nur den niaxinialen Ladestrom, er ist zusanimen niit
3.2 Elektronische Bauteile
17
der Kapazitat des Kondensators auch dafiir verantwortlich, wie lange es dauert, bis der Kondensator aufgeladen ist. Diese Dauer ist als Zeitkonstante T (sprich tau) definiert. Ein tau ist die Zeit, in der ein entladener Kondensator auf 63% seiner Kapazitat aufgeladen wird. Nach 5 T ist der Kondensator nahezu vollig aufgeladen. Je grower der Widerstand ist, desto geringer ist der Ladestrom, desto langer dauert der Ladevorgang. Je geringer die Kapazitat, desto sclineller kann der Kondensator aufgeladen werden. R-C Entladungsphase Sclialtet man die urspriingliche Spannungsquelle eines geladenen Kondensators ab, dann fliefit der Strom plotzlich in die andere Richtung, da der Potentialunterscliied der Kondensatorplatten nach einem Ausgleich strebt. So konnen Verbrauclier angetrieben werden. Der Kondensator wirkt als Spannungsquelle.
laden
entladen
Abb. 3.3. Ladungs- und Entladungsphase.
Verhdltnis von Strom und Spannung Am ungeladenen Kondensator flie£t sofort nach dem Anlegen der Spannungsquelle ein sehr hoher Strom. Der entladene Kondensator hat einen sehr kleinen Widerstand. Damit ist der Spannungsabfall am ungeladenen Kondensator zunachst minimal. Widerstand und damit auch der Spannungsabfall nehmen im Verlauf der Ladungsphase kontinuierlich zu. Am geladenen Kondensator besteht das umgekehrte Verhaltnis: Es flie£t kein Strom, aber der Spannungsabfall ist maximal. Damit man sich diesen zeitlichen Zusammenhang nicht jedes Mai neu herleiten muss, kann man auf einen Merksatz zuriickgreifen: Im Kondensator geht der Strom vor, in Induktivitdten tut er sich verspdten. Bei den Induktivitaten handelt es sich um Spulen. Diese werden im Abschnitt 3.2.3 beschrieben.
18
3 Schall in der Elektrotechnik
3.2.2.2 Kondensatoren i m Wechselstromkreis Im Wechselstromkreis andern sich die Spannungsverhaltnisse standig. Solange die Wechselspannung dieselbe Polaritat hat, verhalt sich der Kondensator wie im Gleichstromkreis. Man kann also dadurch, dass m a n den Betrachtungszeitraum kurz genug wahlt, auch im Wechselstromkreis das aus dem Gleichstromkreis bekannte Verhalten wiederfinden. Andert sich die Polaritat der Wechselspannung, dann andert sich auch der Zustand des Kondensators. So wechseln sich Lade- und Entladephase standig ab. Welche Auswirkung das auf den Widerstand des Kondensators hat, ist abhangig von der Frequenz. 1st die Periodendauer hoch im Vergleich zur Zeitkonstante, dann kommt der Kondensator an die Sattigungsgrenze und hat einen dementsprechend hohen Widerstand. Ist die Periodendauer jedoch niedrig im Vergleich zur Kapazitat, wechselt der Zustand so schneU, dass der Kondensator kaum aufgeladen wird. Damit bleibt sein Widerstand die ganze Zeit iiber gering. Dieser frequenzabhangige Widerstand wird in Filterschaltungen genutzt, die im Abschnitt 3.3.6 thematisiert werden.
3.2.3 Spulen Eine Spule ist ein gewickelter Draht. Flie£t Strom durch diesen Draht, dann entsteht ein Magnetfeld. Bei Spulen spricht m a n auch von Induktivitaten. Das Prinzip der Induktion besagt, dass in einem stromdurchflossenen Leiter, der in einem Magnetfeld bewegt wird, eine Spannung induziert wird. Das Formelzeichen der Induktivitat ist L, gemessen wird sie in Henry (H). Elektronisch wirksam ist eine Spule im Wechselstromkreis. Dort wirkt sie wie ein frequenzabhangiger Widerstand. Dabei verhalten sich Spannung und Strom allerdings anders, als beim Kondensator.
_rvw^_
A b b . 3.4. Schaltzeichen einer Spule. Flie£t Strom durch eine Spule, dann existiert kein aufieres Magnetfeld und der Leiter bewegt sich darin auch nicht. Dennoch wird in einer Spule eine Spannung induziert. Diesen Effekt nennt m a n Selbstinduktion. Das Magnetfeld entsteht dadurch, dass Strom durch die Spule fliefit. Andert sich der Strom, dann andert sich auch das Magnetfeld. Es wird eine Spannung induziert, die dem Strom entgegenwirkt. Die folgende Formel zeigt den Zusammenhang.
3.2 Elektronische Bauteile
19
3.2.3.1 Spulen im Gleichstromkreis Legt m a n eine Gleichspannung an eine Spule an, dann fliefit ein Strom durch sie hindurch. Dieser Strom sorgt dafiir, dass sich ein Magnetfeld aufbaut. Anfangs ist die Magnetfeldanderung besonders stark. Deshalb ist auch zunachst die Induktionsspannung sehr groi^. Dieser groi^e Widerstand fiihrt dazu, dass nur ein geringer Strom fliei^t. Bis sich das Magnetfeld vollstandig aufgebaut hat, nimmt die Induktionsspannung kontinuierhch ab. Schhei^hch andert sich das Magnetfeld gar nicht mehr. Es fallt keine Induktionsspannung mehr ab und der Strom kann die Spule ungehindert passieren. Das zeigt, dass der Strom und die Spannung in ihrer Phase verschoben sind und es deutet bereits die Frequenzabhangigkeit einer Spule an. 3.2.3.2 Spulen im Wechselstromkreis Liegt eine Wechselspannung an einer Spule an, so fiihrt das zu einer standigen Anderung des Magnetfelds. Damit wird auch standig eine Spannung induziert. Diese ist umso hoher, je schneller sich das Magnetfeld andert. Das bedeutet, dass die Spule fiir hohe Frequenzen einen gro£en Widerstand hat, fiir niedrige Frequenzen einen geringen. Auch der frequenzabhangige Widerstand einer Spule lasst sich fiir Filterschaltungen benutzen. AUerdings werden fiir Audiofilterschaltungen vorwiegend Kondensatoren eingesetzt, da die benotigten Spulen grower waren, teurer und anfalliger fiir Storeinstreuungen. 3.2.4
Operationsverstarker
Operationsverstarker sind aktive Bauteile. Sie benotigen eine Spannungsversorgung, um arbeiten zu konnen. Ein O P ist kein einzelnes Bauteil, sondern eine integrierte Schaltung, die in einem Gehause als Operationsverstarker die gewiinschte Funktionalitat bereitstellt. Der Name lasst vermuten, dass die gewiinschte Funktion in der Verstarkung besteht. Tatsachlich werden sie in Vorverstarkerschaltungen eingesetzt, aber auch in aktiven Filterschaltungen, bei denen es ebenfalls um eine Verstarkung, nur eben eine frequenzabhangige geht. Daneben hat der Operationsverstarker aber noch eine weitere Eigenschaft, die in kombinierten Schaltungen sehr niitzlich ist. Er hat einen sehr hohen Eingangswiderstand und einen niedrigen Ausgangswiderstand. Dadurch lassen sich Schaltungsteile voneinander entkoppeln. Denn wenn m a n Schaltungsteile miteinander verbindet, dann addieren sich nicht nur die Wirkungen der beiden Einzelschaltungen, sondern die Schaltungsteile beeinflussen sich gegenseitig. Das schafft haufig Probleme und lasst sich durch den Einsatz von Operationsverstarkern verhindern. Der Operationsverstarker hat zwei Signaleingange und einen Ausgang. Ein Signaleingang ist invertierend und wird mit einem Minuszeichen gekennzeichnet, der andere ist nicht invertierend und an einem Pluszeichen zu erkennen. Hinzu kommen noch zwei Pole, an der die Spannungsversorgung anliegt. Die
20
3 Schall in der Elektrotechnik
Spannungsversorgung ist symmetrisch, zum Beispiel ±15 V. Das Massepotential liegt bei OV. +15V nichtinvertierender Eingang — invertierender Eingang
1
Ausgang
-15V Abb. 3.5. Schaltzeichen eines Operationsverstarkers. Die Signale, die an den beiden Eingangen anliegen, werden miteinander verglichen. Ist die Spannung am nichtinvertierenden Eingang hoher als die am invertierenden Eingang, dann springt die Spannung am Ausgang auf die positive Versorgungsspannung. Umgekehrt gibt der Verstarker die negative Versorgungsspannung am Ausgang aus, wenn die Spannung am invertierenden Eingang hoher ist. Da die Ausgangsspannung nicht hoher sein kann als die Versorgungsspannung, kann man dieses Verhalten auch als maximale Verstarkung interpretieren. Um die Verstarkung des Operationsverstarkers zu begrenzen nutzt man die Gegenkopplung. Dabei wird das Ausgangssignal wieder auf den invertierenden Eingang zuriickgegeben. Abschnitt 3.3.5 zeigt die Grundschaltungen mit Operationsverstarkern.
3.3 Elektronische Grundschaltungen Der Sinn elektronischer Schaltungen ist der Antrieb eines Verbrauchers durch eine Spannungsquelle. Dazu verbindet man die Bauteile durch Leitungen miteinander.
Abb. 3.6. Schaltzeichen fiir Gleich- und Wechselspannungsquellen. Eine Spannungsquelle kann eine Batterie oder eine Steckdose sein, aber auch die Wechselspannung des Audiosignals treibt die nachgeschalteten Verbraucher an. So konnen Schaltungen in verschiedene Abschnitte unterteilt werden, bei denen man Spannungsquelle und Verbraucher in Verbindung setzt. Verbraucher konnen unabhangig von ihrer tatsachlichen Wirkung als Widerstande im Schaltkreis betrachtet werden. Es konnen aber auch mehrere Verbraucher in einer Schaltung vorkommen. Je nachdem, wie diese untereinander verbunden sind, ergeben sich unterschiedhche Effekte.
3.3 Elektronische Grundschaltungen
21
3.3.1 Reihenschaltung Bei der Reihenschaltung von Widerstanden fliefit der gesamte Strom durch jeden Widerstand. Nach dem ohmschen Gesetz ergibt sich damit ein widerstandsabhangiger SpannungsabfaU an jedem Verbraucher. Spannung und Widerstand verhalten sich zueinander p r o p o r t i o n a l Die Einzelspannungen addieren sich zur QueUenspannung.
t/„
Rn • I, I i=l
U,
U,
Ur, Rn
U,
A b b . 3.7. Reihenschaltung von Widerstanden.
3.3.2 Parallelschaltung Werden Widerstande paraUel geschaltet, teilt sich der Strom zwischen den Widerstanden auf. Dabei verhalt sich der Strom umgekehrt proportional zum Widerstand. Die Spannung an alien Widerstanden ist gleich. Der Gesamtwiderstand einer ParaUelschaltung von Widerstanden ist kleiner als der kleinste Einzelwiderstand. Das kann m a n sich erklaren, wenn m a n sich vorstellt, dass eine Menge FuEballfans ins Stadion drangt. An jedem Eingang steht ein KontroUeur. Er wirkt als Widerstand und bremst den Zulauf. Werden mehrere Eingange parallel geoffnet, dann konnen die Zuschauer das Stadion schneller betreten, als es der schneUste Kontrolleur (und damit der kleinste Einzelwiderstand) h a t t e bewerkstelligen konnen. Der grofie Besucherstrom trennt sich in mehrere kleinere Strome auf.
h.
J-ges —
i=l
1 R.ges
E
1 Tin
1 =
u.
ges
Rn
3.3.3 Gemischte Schaltungen Die meisten Schaltungen sind eine Kombination aus Parallel- und Reihenschaltung. Um Spannungen, Strome und Widerstande zu berechnen, miissen die Schaltungen in einzelne Segmente reiner Schaltungen aufgeteilt werden.
22
3 Schall in der Elektrotechnik
"••(- iji'- iji- ijiA b b . 3.8. Parallelschaltung von Widerstanden.
Diese Einzelteile werden zunachst berechnet und das Ergebnis gilt dann als einzelner Widerstand fiir das iibergeordnete Segment. Abbildung 3.9 zeigt die Kombinationen aus einer Reihen und einer Parallelschaltung. Zunachst muss der Ersatzwiderstand der ,inneren' Schaltung berechnet werden. Dieser Ersatzwiderstand geht dann als Einzelwiderstand in die ,aufiere' Schaltung ein.
A b b . 3.9. Ersatzwiderstande gemischter Schaltungen.
3.3.4 A n p a s s u n g Die elektronischen Eigenschaften von Ein- und Ausgangen werden definiert, damit die gewiinschten Effekte auftreten, wenn m a n sie miteinander verbindet. Man spricht dabei von Anpassung. In der Tonstudiotechnik werden zwei Anpassungen verwendet. Besonders haufig bei analogen Ein- und Ausgangen ist die Spannungsanpassung. In der friiheren Rundfunktechnik und in der Digitaltechnik arbeitet m a n hingegen mit der Leistungsanpassung. Um es noch einmal deutlich zu sagen: Moderne Rundfunkstudios verwenden Spannungsanpassung. Bevor die beiden Anpassungen beschrieben werden, gilt es zu klaren, was passiert, wenn zwei Gerate miteinander verbunden werden^. Ausgangs- und Eingangswiderstand bilden zusammen einen Spannungsteiler. ein Spannungsteiler ist eine Reihenschaltung von Widerstanden. Im idealen Stromkreis entspricht die Summe der Einzelspannungen der Quellenspannung. Das bedeutet, dass nur ein Teil der Spannung am Gerateausgang verfiigbar ist, sobald eine Last - also ein anderes Gerat - angeschlossen wird. Drei grundlegende Falle sollen betrachtet werden: ^ Das gilt auch fiir Schaltungsteile, aber als Mediengestalter arbeitet man meistens mit in sich geschlossenen Schaltungen.
3.3 Elektronische Grundschaltungen
23
Der Eingangswiderstand ist grower als der Ausgangswiderstand: Da die Spannungen proportional zu den Widerstanden sind, fallt der groi^te Teil der Ausgangsspannung am Eingangswiderstand des folgenden Gerats ab. Der Strom nimmt durch den gestiegenen Gesamtwiderstand ab. Der Eingangswiderstand ist kleiner als der Ausgangswiderstand: Auch in diesem Fall steigt der Gesamtwiderstand, allerdings flie£t ein holierer Strom als im ersten Fall. Der Spannungsabfall am Eingang ist niedrig. Eingangs- und Ausgangswiderstand sind gleicli: Die Spannung am Eingang entspricht der lialben Quellenspannung. Der Strom vermindert sicli wie in den anderen Beispielen. Das P r o d u k t aus Spannung und Strom - also die Leistung - wird bei dieser Besclialtung maximal. 3.3.4.1
Spannungsanpassung
Bei der Spannungsanpassung soil die Spannung am Eingang maximal sein. Je hoher der Eingangswiderstand wird, desto hoher ist die Spannung am Eingang. Sind die beiden Widerstande gleicli, dann kann m a n die Halfte der Spannung nutzen, ist der Eingangswiderstand zehn Mai so hoch wie der Ausgangswiderstand, dann ist der Nutzpegel deutlich hoher. Neben der Weitergabe eines Signals muss m a n auch an seine Verteilung denken. Dabei kommt es haufig vor, dass ein Signal vervielfacht wird, um es unterschiedlich zu bearbeiten. Jeder angeschlossene Verbraucher wirkt als parallel geschalteter Eingangswiderstand. Der Ersatzwiderstand einer Parallelschaltung ist immer geringer als der geringste Einzelwiderstand. Damit sinkt die Ausgangsspannung immer weiter ab. Um zu verhindern, dass das Signal am Ausgang zusammenbricht, wahlt m a n einen Eingangswiderstand, der um eine Vielfaches hoher ist, als es bei der Verschaltung von nur zwei Geraten notwendig ware. Diese Mafinahme nennt m a n Uberanpassung. Das stellt sicher, dass auch dann der Ausgangspegel grofi genug ist, wenn mehrere Gerate parallel mit dem Ausgang verbunden werden. Anders sieht es aus, wenn zwei Ausgange auf einen Eingang geschaltet werden. Hier wirkt ein Ausgang aufgrund seiner geringen Ausgangsimpedanz als Last fiir den anderen Ausgang. Summierungen miissen deshalb immer iiber Summierer vorgenommen werden. Y-Kabel diirfen nur einen Ausgang auf zwei Eingange verteilen, nie umgekehrt. 3.3.4.2
Stromanpassung
Ein geringer Eingangswiderstand im Vergleich zum Ausgangswiderstand wird dann verwendet, wenn ein konstanter Strom gefordert wird, zum Beispiel zum Laden von Akkus, die einen konstanten Ladestrom benotigen. In der Tonstudiotechnik spielt die Stromanpassung keine Rolle.
24
3 Schall in der Elektrotechnik
3.3.4.3 Leistungsanpassung Bei der Leistungsanpassung soil das P r o d u k t aus Spannung und Strom maximal iibertragen werden. Senkt m a n den Eingangswiderstand ab, dann erholit sich zwar der Strom, aber die Spannung vermindert sicli. Genauso kann m a n durcli einen hohen Eingangswiderstand die Spannung maximieren, der Stromfluss vermindert sich aber. Die groEte Leistung erlialt man, wenn Eingangsund Ausgangsimpedanz gleicli sind. In der Rundfunkteclinik hat m a n lange mit Leistungsanpassung gearbeitet. 3.3.5 Verstarkerschaltungen Aktive Schaltungen sind Verstarkerschaltungen. In der Audiotechnik werden oft Operationsverstarker eingesetzt. Die drei Grundschaltungen des Operationsverstarkers werden zunachst erklart. 3.3.5.1 Impedanzwandler Der Operationsverstarker vergleicht die Signale, die an beiden Eingangen anliegen und gibt entweder die positive oder die negative Versorgungsspannung aus. Er verstarkt also immer maximal. Um die Verstarkung zu begrenzen, wird ein Teil des Ausgangssignals an den invertierenden Eingang zuriickgegeben. Gibt m a n das gesamte Ausgangssignal auf den Eingang zuriick, dann entspricht das Signal am Ausgang dem Eingangssignal. Diese Schaltung wird Impedanzwandler genannt. Was passiert bei der Gegenkopplung? Das Signal am Eingang sei positiv. Damit ist die Spannung am nichtinvertierenden Eingang grower als die am invertierenden Eingang. Der Ausgang regelt auf die positive Versorgungsspannung. Diese liegt dann am invertierenden Eingang an. Die Ausgangsspannung kann deshalb nur so lange ansteigen, solange die Spannung am nichtinvertierenden Eingang genauso hoch ist, wie die am invertierenden Eingang. So sind invertierender und nichtinvertierender Eingang immer im Gleichgewicht. Das Ausgangssignal entspricht dem Eingangssignal. Verwendet wird der Impedanzwandler, um Schaltungsteile miteinander zu verbinden. Durch den hohen Eingangswiderstand wird der vorhergehende Schaltungsteil nur wenig belastet und ist unabhangig vom nachfolgenden Schaltungsteil.
A b b . 3.10. Impedanzwandler.
3.3 Elektronische Grundschaltungen
25
3.3.5.2 Nichtinvertierender Verstarker
A b b . 3.11. Der nichtinvertierende Verstarker.
Abbildung 3.11 zeigt das Schaltbild des nichtinvertierenden Verstarkers. Die Verstarkung entspricht hier dem Verhaltnis der Widerstande zueinander plus 1: i?i + i?2 Mit dem nichtinvertierenden Verstarker lasst sich also keine Dampfung erreichen. Das gelingt nur mit dem invertierenden Verstarker 3.3.5.3 Invertierender Verstarker
A b b . 3.12. Der invertierende Verstarker.
Die Signalspannung wird iiber den Widerstand i?2 auf den invertierenden Eingang des Operationsverstarkers gelegt. Die Gegenkopplung geschieht iiber i?i. Die Ausgangsspannung ist gegeniiber der Eingangsspannung invertiert. Die resultierende Verstarkung entspricht der folgenden Formel.
V„ =
"i?2
3.3.6 Filterschaltungen Hochpass, Tiefpass, Bandpass und Bandsperre konnen sowohl passiv als auch aktiv realisiert werden. Die einfachen passiven Filter sind elektronisch an-
26
3 Schall in der Elektrotechnik
spruchslos, Filter hoherer Ordnung^ werden schaltungstechnisch aber schnell aufwandig. Aktive Filter verwenden Operationsverstarker und benotigen entsprecliend eine Spannungsversorgung. Digitale Filter errechnen aus dem Eingangssignal und ihrer Ubertragungsfunktion den Ausgangswert. Praktisch realisiert wird das iiber Logikbausteine. An dieser Stelle sollen nur passive und aktive Filterschaltungen besprochen werden. 3.3.6.1 Passive Filter Passive Filter werden aus Spannungsteilern aufgebaut. Die einzelnen Widerstande sind dabei zumindest teilweise frequenzabliangig. Die Einfiihrung in die Welt der elektronisclien Bauteile im Abschnitt 3.2 auf Seite 14 hat bereits zwei passive Bauteile mit einem frequenzabliangigen Widerstandsverhalten genannt: Spulen und Kondensatoren. Im ersten Scliritt soil ein Hoclipassfilter erster Ordnung aufgebaut werden. Dazu verwendet man einen Widerstand und einen Kondensator. Daher kommt auch der Begriff RC-Glied. Abbildung 3.13 zeigt einen Hoch- und einen Tiefpassfilter erster Ordnung. o-
u —1—o
U aus
Abb. 3.13. Tief- und Hochpassfilter erster Ordnung. Die Schaltung ist ein Spannungsteiler. Die Last soil an dieser Stelle unberiicksiclitigt bleiben. Es soil angenommen werden, dass der Lastwiderstand hoch genug ist, die Schaltung nicht zu beeinflussen. Die Spannungen im Spannungsteiler verhalten sich proportional zu den Widerstanden. Das bedeutet, dass das Signal am Ausgang umso grofier wird, je grofier der Widerstand ist, an dem die Spannung abgegriffen wird. Betrachtet man das Verhalten des Tiefpassfilters bei einer sehr niedrigen und bei einer sehr hohen Frequenz, dann ergibt sich folgendes Bild: Eine niedrige Frequenz fiihrt dazu, dass der Kondensator voUstandig aufgeladen wird. Damit wirkt er wie ein sehr hoher Widerstand. Je tiefer die Frequenz ist, desto grofier ist der Widerstand im Verhaltnis zum ohmschen Widerstand in der Schaltung. Die Spannung am Kondensator steigt und damit der Pegel am Ausgang. Fiir hohe Frequenzen gilt entsprechend das Gegenteil. Beim Hochpassfilter greift man das Signal am Widerstand ab. Der Widerstandswert bleibt zwar konstant, die Spannung hangt aber vom Gesamtwiderstand der Schaltung ab. Bei tiefen Frequenzen fallt daher am Widerstand nur eine geringe, bei hohen eine hohe Spannung ab.
^ Die Ordnung eines Filters gibt an, mit welcher Flankensteilheit das Signal gedampft wird. Filter erster Ordnung dampfen mit 6 dB/Oktave.
3.3 Elektronische Grundschaltungen
27
Einfach nur einen Filter zu bauen ist natiirlich nicht das Ziel. Er soil in seinen Arbeitsbereichen definiert sein. Dazu muss man die Dimensionen berechnen konnen. Der entscheidende Parameter ist die Grenzfrequenz. Die Grenzfrequenz ist die Frequenz, bei der das Ausgangssignal gegeniiber dem Eingangssignal um 3dB gedampft ist. 2-nR-C Die Ubertragungsfunktion zeigt, wie sich das Signal iiber den Frequenzgang verandert. Bei gleiclier Grenzfrequenz sind voUig unterscliiedliche Ubertragungsfunktionen moglicli. Verscliiedene Standardfiltertypen liaben sich herauskristallisiert. Sie liaben jeweils eigene Eigenschaften. Drei bekannte Vertreter sind der Butterworth-, der Bessel- und der Tschebyschefffilter. Butterworthfilter werden fiir Audioschaltungen haufig eingesetzt, da er einen weitgehend linearen Frequenzgang bis nahe an die Grenzfrequenz hat und einen homogenen Pegelabfall jenseits der Grenzfrequenz. Tschebyschefffilter besitzen eine Restwelligkeit im Frequenzgang, zeigen aber eine starke Flankensteilheit. Im Tschebyschefffilter Typ II ist aufierdem die Welligkeit im Sperrbereich angesiedelt. Er empfiehlt sich, wenn eine frequenzabhangige Restdurchlassigkeit akzeptabel ist. Der Besselfilter legt besonders grofien Wert auf einen hnearen Phasengang. 3.3.6.2 Aktive Filter Bei einem aktiven Filter wird ein passiver Filter in eine Verstarkerschaltung integriert. Die einfachste Moglichkeit ist, den Ausgang eines herkommlichen passiven Filters auf den nichtinvertierenden Eingang eines Operationsverstarkers zu schalten. Die andere Moglichkeit ist, durch die frequenzabhangigen Bauteile die Widerstandsverhaltnisse im Gegenkopplungszweig zu beeinflussen. Abbildung 3.14 zeigt die entsprechenden Schaltungen. Neben der Filterung muss iiber die Gegenkopplung auch die Verstarkung eingestellt werden. Die maximale Verstarkung wird durch den zusatzlichen Widerstand bestimmt. Beim Tiefpassfilter ergibt sich der Ersatzwiderstand aus der ParaUelschaltung von Ri und C. Es gilt: ,^
V —
RETS
r,
Ri
• Re
^^ , J^Ers — Rl + Re i?2
Beim Hochpassfilter besteht der Ersatzwiderstand aus der Reihenschaltung aus i?iund ReEntsprechend gilt: V = ———,
t^Ers
RETS = Re
+
Ri
28
3 Schall in der Elektrotechnik
A b b . 3.14. Aktiver invertierender Tief- und Hochpassfilter 1. Ordnung.
Schall in der Wahrnehmung
Die physikalischen Parameter helfen dabei, die Entstehung und die Verbreitung von Schall zu erklaren, aber sie sind niclit geeignet, das zu besclireiben, was wir lioren. Der unterscliiedliche Musikgeschmack von Mutter und Tochter lasst sicli vielleicht nocli mathematiscli, statistiscli erfassen, geholfen ist damit aber aufier den Statistikern niemandem. Das Horen hangt davon ab, welclie Schallereignisse auf unser Ohr treffen. Wie das Ohr sie verarbeitet und das Nervensystem sie interpretiert ist ebenso wichtig. Diese Interpretation ist niclit willkiirlich und kann auch nicht gesteuert werden. Sie ist am ehesten vergleichbar mit der Charakteristik eines Mikrofons. Sie ist von Mensch zu Mensch unterschiedlich und hangt von physiologischen, also korperlichen Faktoren ab. Erreicht das Empfinden des Schalls unser Bewusstsein, dann wird in einem weiteren Interpretationsschritt das Gehorte bewusst bewertet. Hier spielt das geschulte Ohr eine gro£e Rolle, genauso Erinnerungen an bereits Gehortes. Im ersten Schritt geht es um den ,Bauplan' des menschhchen Ohrs. Der Mediengestalter wird keinen Horsturz behandeln, so dass es bei einer prinzipiellen Betrachtung bleiben wird. Diese ist aber die Voraussetzung dafiir, die Grenzen des menschhchen Gehors zu erkennen. Die wiederum muss man kennen, um Gefahren fiir sich und andere zu verhindern. Anschliefiend werden die wichtigsten psychoakustischen Effekte angesprochen, die es einmal zu verhindern, ein andermal gezielt einzusetzen gilt. Wie Schall bewusst erlebt wird, ist das Thema der Kapitel iiber Sprache, Musik und Gerausche und wird uns spater beschaftigen.
4.1 Das menschliche Gehor Das menschliche Ohr ist ein Sinnesorgan. Es ermoglicht die Unterscheidung von Lautstdrke, Frequenz und Einfallsrichtung des horbaren Schalls. Dabei erfiillt das Ohr mehrere Funktionen. Der Schall muss zunachst aus der Umwelt
30
4 Schall in der Wahrnehmung
aufgenomnien werden. Anschlie£end erfolgt eine Anpassung auf den komnienden Ubertragungsweg. Der Schall, wie er in der Umwelt vorkommt, wird in eine Form gewandelt, aus der die Sinneszellen die Informationen ableiten konnen. Zuletzt muss der Sinneseindruck an das Geliirn zur weiteren Verarbeitung weitergeleitet werden. 4 . 1 . 1 D a s aufiere O h r Fiir die Aufnalime des Schalls aus der Umwelt ist das aufiere Ohr verantwortlich. Es besteht aus der Ohrmuschel, dem aufieren Gehorgang und dem Trommelfell. Die Ohrmuschel optimiert den Ubergang zwischen der Luft und dem Gehorgang, so dass moglichst wenig Schallenergie verloren geht. Aufierdem sorgt sie dafiir, dass spater festgestellt werden kann, aus welcher Richt u n g ein Schallsignal kommt. Erreicht wird die Vorne-Hinten-Ortung iiber den Frequenzgang, der fiir seitlich oder riickwartig einfallenden Schall anders ist, als fiir frontal einfallenden Schall. An dieser Ubertragungsfunktion hat auch der Kopf einen entscheidenden Anteil. Zwischen rechts und links unterscheidet m a n mit Hilfe der Laufzeitdifferenzen zwischen beiden Ohren. Das ist sehr vereinfacht dargestellt und beriicksichtigt noch keine nachgelagerten Interpretations- oder Korrekturmechanismen und keine Erfahrungswerte. Der Gehorgang verbindet die Ohrmuschel mit dem Trommelfell. Dadurch, dass das eigenthche Hororgan tiefer im Kopf sitzt, ist es besser geschiitzt. Das passiert durch Harchen im Gehorgang und eine Kriimmung, die keine direkte Verbindung von aufien auf das Trommelfell zulasst. So kann Wind zum Beispiel nicht direkt auf das Trommelfell driicken. Das Trommelfell selbst wandelt die Luftdruckschwankungen in mechanische Schwingungen und trennt gleichzeitig das au£ere Ohr vom Mittelohr. 4.1.2 D a s Mittelohr Im Mittelohr wird die Erregung des Trommelfells iiber elastisch miteinander verbundene Knochelchen weitergeleitet. Der erste dieser Knochen, der Hammer ist mit dem Trommelfell verwachsen und iibernimmt so dessen Schwingung. Er gibt sie an den Amboss weiter und der wiederum an den Steigbiigel. Der Steigbiigel verbindet das Mittelohr mit dem Innenohr iiber das sogenannte Ovale Fenster. Die Gehorknochen sind nicht nur aneinander befestigt, sondern werden auch von Muskeln gehalten. Diese Muskeln konnen die Beweglichkeit der Knochen einschranken. Das passiert unwillkiirlich bei hohen Lautstarken. Das Mittelohr erfiillt also eine Schutzfunktion vor ,Ubersteuerung' des Innenohrs. Den Effekt kennt m a n von Besuchen lauter Konzerte oder Diskotheken. Verlasst m a n den Schauplatz, dann hort m a n zunachst alles leiser. Diese Dampfung nimmt im Laufe der Zeit wieder ab. Neben dieser Schutzfunktion findet auch wieder eine Anpassung s t a t t , die fiir geringe Lautstarken den Schall sogar verstarkt und an das Ovale Fenster, den Eingang des Innenohrs weitergibt.
4.1 Das menschliche Gehor
31
Das Mittelohr bildet einen abgeschlossenen R a u m . Luftdruckanderungen konnten so nicht ausgeglichen werden. Deshalb besteht eine Verbindung in den oberen Rachenraum. Diese Verbindung ofFnet sich beim Gahnen oder Schlucken und ermoglicht so den Druckausgleich. Jeder kennt das aus eigener Erfahrung, wenn beispielsweise im Flugzeug groi^e Hohenunterschiede durchflogen werden. Der Verbindungsgang wird O h r t r o m p e t e oder Eustach'sche Rohre genannt. 4.1.3 Das Innenohr Bisher wurde der Schall nur weitergeleitet und an die jeweils neuen Gegebenheiten angepasst. Im Innenohr sitzen die Rezeptoren, die Sinneszellen, mit denen die Schallreize aufgenommen und an das Nervensystem iibermittelt werden. Das Innenohr beherbergt nicht nur das Hor- sondern auch das Gleichgewichtsorgan. Auf dieses soil hier aber nicht eingegangen werden. Untergebracht ist das Hororgan in der sogenannten Schnecke, einem knochernen Korper der Windungen ahnlich einem Schneckenhaus aufweist. Darin liegt das fiir den Horvorgang zustandige Corti-Organ. Das Corti-Organ ist mit Lymphfliissigkeit gefiillt und von Lymphfliissigkeit umgeben. Die umgebende Fliissigkeit transportiert die SchaUwelle, die iiber das ovale Fenster in das Innenohr eintritt. Sie lauft durch die Schnecke hin und zuriick und endet am Runden Fenster wieder im Mittelohr. Das Runde Fenster iibernimmt den Druckausgleich. Durch die Schwingung wird auch die Fliissigkeit im CortiOrgan zum Schwingen gebracht. Innerhalb des Corti-Organs sitzen die Horzellen auf der Basilarmembran. Die Form der Basilarmembran sorgt dafiir, dass jede Stelle durch eine andere Frequenz zum Schwingen angeregt wird. So findet eine Abbildung der Frequenz auf einen P u n k t auf der Basilarmembran und damit auf bestimmte Horzellen statt. Diese Horzellen melden die Erregung an die Nervenbahnen welter. Je nach Starke der Erregung erfolgt die Aussendung der Nervenimpulse schneller oder langsamer. 4.1.4 Gehorschutz Das Gehor ist so leistungsfahig und dabei so anpassungsfahig, dass m a n oft sorglos damit umgeht. Dabei muss gerade der Mediengestalter d a r u m bemiiht sein, sein Gehor und damit seine Arbeitsfahigkeit fiir einen langen Zeitraum zu erhalten. Das widerspricht einerseits der Neigung auditiv arbeitender Menschen, sich gerne mit Schall zu umgeben und andererseits auch dem beruflichen Zwang, sich in einer Umgebung aufzuhalten, in der Schall - auch in eigener Verantwortung - erzeugt wird. Larm- oder besser Gehorschutz ist auf individueller Ebene der Schutz vor Immission, also vor der Aufnahme von Schall, auf breiterer Ebene geht es um die Reduktion der Emission, also des Ausbringens von SchaU. Fiir den Immissionsschutz stehen einfache Ohrstopsel zur Verfiigung, die den Larm auf ein ertraghches Mafi reduzieren. Das ist sicher besser als nichts, es ist aber
32
4 Schall in der Wahrnehmung
nicht dazu geeignet, den Frequenzgang des Gehors iiber lange Zeit zu erhalten. Solche einfachen Ohrstopsel dampfen einige Frequenzen sehr gut, wahrend andere nur schwacher gedampft werden. Besser geeignet sind Mafianfertigungen - sogenannte Otoplastiken - mit denen eine lineare Absenkung bis zu 25 dB erreicht werden kann. Sie sind recht teuer, aber fiir einen Mediengestalter, der oft in lauter Umgebung arbeiten muss, eine lohnende Investition. Bei Beschallungen ist neben dem Selbstschutz auch immer das Schutzbediirfnis des Publikums zu beachten. Auch dann, wenn es dem erklarten Wunsch nach grofierer Lautstarke entgegen steht. Fiir die Ausbringung von Schall gibt es Grenzwerte, die man im Blick behalten muss, wenn man als BeschaUer bei offenthchen Veranstaltungen tatig ist. Sie sind Thema des Abschnitts 16.3.4 auf Seite 329.
4.2 Psychoakustik Was das Ohr hort ist nicht das, was vom Horenden empfunden wird. Deshalb definiert die Psychoakustik eigene Grofien, die die Horempfindung beschreiben. So ist fiir Georg Eska die Psychoakustik das Delta zwischen Stimulus (Erregung) und der Wahrnehmung. Stimulus und Wahrnehmung stehen in keinem linearen sondern in einem logarithmischen Zusammenhang. Je grower die Erregung ist, desto grower muss der Erregungswechsel sein, um zu einer Anderung der Wahrnehmung zu fiihren. Das Weber-Fechnersche Gesetz besagt, dass eine lineare ReizgroEenzunahme lediglich eine logarithmische Zunahme der Wahrnehmung zur Folge hat. 4.2.1 Das Horfeld Das Horfeld begrenzt den Lautstarke- und den Frequenzbereich, der vom Ohr verarbeitet werden kann. Die horbaren Frequenzen liegen im Bereich zwischen 16 Hz und 20 kHz, wobei das Gehor hohe Frequenzen mit steigendem Alter immer schlechter wahrnimmt. Eine obere Horgrenze von 16 kHz ist deshalb durchaus normal. Was die Lautstarke angeht, so ist sie nach unten durch die Horschwelle begrenzt, nach oben durch die Schmerzgrenze. Die Horschwelle ist stark frequenzabhangig. Deshalb wurde der Schalldruckpegel fiir eine Frequenz von IkHz definiert. OdB entsprechen einem Schalldruck von 20 i^Pa = 2 • 10^^ Pa. Die Schmerzschwelle ist von Mensch zu Mensch unterschiedlich und wird mit einem Schalldruckpegel zwischen 120 und 140 dB angegeben. 4.2.2 Lautstarke horen Ausgehend vom Schalldruckpegel als Ma£ fiir die im Ubertragungsmedium vorherrschenden Druckschwankungen unterscheidet sich die wahrgenommene
4.2 Psychoakustik Schmerzgrenze
140
0,02
33
0,05 0,1
0,2
0,5 1 2 Frequenz (kHz)
10
20
A b b . 4 . 1 . Das Horfeld. Lautstarke frequenzabhangig. Diese Frequenzabhangigkeit kann m a n auch an der Horschwelle ini Horfeld erkennen. Das Ohr ist fiir verschiedene Frequenzen unterschiedlich empfindlich. Um eine frequenzunabhangige Aussage iiber die Lautstarke treffen zu konnen, hat m a n die Einheit Phon entwickelt. Die Lautstarke kann jetzt frequenzunabhangig bewertet werden, der Charakter des Signals fliefit nocli niclit in die Bewertung ein. Er ist aber in der Frage, wie laut Scliall empfunden wird, sehr wiclitig. Deshalb definiert die Psychoakustik eine weitere Grofie: Das Sone. 4 . 2 . 2 . 1 Schalldruck u n d S c h a l l d r u c k p e g e l Schalldruck und Schalldruckpegel wurden bereits bei den physikalischen Parametern des Schalls eingefiihrt. Die fiir das Horen relevanten Grenzen werden an dieser Stelle nachgereicht. Das Ohr kann SchaUdriicke von 2 0 / i P a bis zu 200 P a verarbeiten. Zur Verdeutlichung der Dimension: Zwischen dem leisesten und dem lautesten schmerzfrei wahrnehmbaren Gerausch liegt der Schalldruckfaktor Zehnmillionen. Der SchaUdruckpegelbereich des Horfelds entspricht 0-140 dBspL- Als Referenzschalldruck wird die Horschwelle bei 1 kHz verwendet, die mit 20yU,Pa angenommen wurde. Dieser Schalldruck entspricht OdBspL- Relative Pegel, bei denen zwei beliebige Pegel miteinander ins Verhaltnis gesetzt werden, tragen keinen Zusatz. Sie werden einfach mit dB gekennzeichnet. Das Formelzeichen ist wie fiir alle Pegel L (level), erganzt um den Index p . Mit der folgenden Formel lasst sich der Schalldruckpegel aus dem momentanen Schalldruck pi und dem Referenzschalldruck po bestimmen. L.
20 •
lg{^) Po
34
4 Schall in der Wahrnehmung
4.2.2.2 Kurven gleicher Lautstarke Die Kurven gleicher Lautstarke zeigen den Frequenzgang des Gehors fiir verschiedene Lautstarken. Die Einheit ist das Phon. Ein Phon entspricht bei 1 kHz einem Schalldruckpegel von 1 dB. Oder anders ausgedriickt: Hort man einen Ton, der mit einem Kilohertz schwingt und einen Schalldruckpegel von GOdBspL hat, dann entspricht das einer Lautstarke von 60 phon. Jetzt ist das Ohr nicht fiir alle Frequenzen gleich empfindlich. Zwischen zwei und drei Kilohertz ist das Ohr am empfindlichsten. Ein 3-kHz-Ton mit einem Schalldruckpegel von 60 dBspL wird deshalb lauter empfunden als der 1-kHz-Ton. Umgekehrt sinkt die Empfindlichkeit des Gehors zu den Randbereichen des Frequenzgangs stark ab. Ein Ton mit einer Frequenz von 200 Hertz klingt bei gleichem Schalldruckpegel deutlich leiser. Ermittelt man fiir alle Frequenzen die Lautstarke fiir einen bestimmten Schalldruckpegel, dann hat man eine Kurve gleicher Lautstarke. Mehrere Kurven gleicher Lautstarke gibt es deshalb, well sich der Frequenzgang des Ohrs bei unterschiedlichen Lautstarken verandert. Grundsatzlich kann man sagen, dass das Ohr bei hohen Lautstarken linearer arbeitet, als bei niedrigen.
0,02
0,05 0,1
0,2
0,5 1 2 Frequenz (kHz)
10
20
Abb. 4.2. Kurven gleicher Lautstarke.
4.2.2.3 Bewertungskurven Fiir die Larmbeurteilung gibt es verschiedene Bewertungskurven. Bei diesen Bewertungskurven handelt es sich um Filter, die fiir verschiedene Schalldruckpegel den Frequenzgang eines Signals an das menschliche Gehor anpassen. Das hat den Zweck, dass anhand des SchaUdruckpegels eine Aussage iiber die Lautstarke getroffen werden kann, die vom Horer empfunden wird. Am haufigsten begegnet dem Mediengestalter die A-Bewertung. Sie ist zwar nur fiir Pegel zwischen 20 und 40 dB vorgesehen, wird aber in nahezu alien Bereichen der Tontechnik, also auch bei den BeschaUungen eingesetzt. Bewertete Schalldriicke sind mit der Kurve (A-D) gekennzeichnet: Zum Beispiel 96dB(A).
4.2 Psychoakustik
35
4.2.2.4 Lautheit Die Frequenzabhangigkeit des Gehors ist ein wesentlicher Faktor in der Beurteilung, wie laut ein Schallereignis empfunden wird. Aber auch die zeitliche Struktur hat einen Anteil daran. Um zu erfassen, definiert die Psychoakustik die Grofie Lautheit mit der Einheit sone. Die Lautheit von einem sone ist definiert fiir ein Schallereignis, das genauso laut empfunden wird, wie ein Ton mit 40 phon. Fine empfundene Verdopplung der Lautstarke fiihrt zu einer Verdopplung des Lautheitswertes. Oberhalb von 40 phon existiert ein linearer Zusammenhang zwischen Lautstarke und Lautheit. Darunter geniigt ein geringerer Lautstarkeanstieg, um als doppelt so laut empfunden zu werden. Kurze und impulshafte Tone werden leiser empfunden, als sie sind. Der Crest-Faktor beschreibt die Impulshaftigkeit als ein Verhaltnis von Spitzen- zu Effektivwert. Gleichformige sinusartige Signale haben einen hohen Fffektivwert, impulshafte einen niedrigen. Die Bandbreite des Signals ist ein weiterer Aspekt fiir die empfundene Lautheit. Je breitbandiger das Signal ist, je grofier also der Bereich ist, der im Innenohr angeregt wird, desto lauter wirkt das Signal. Fiir den Mediengestalter ist die Lautheit eine der wichtigsten Kriterien zur akustischen Beurteilung des richtigen Mischungsverhaltnisses. Das entspricht aber nur bedingt den messtechnischen Informationen, die die Messgerate im Studio zur Verfiigung stellen. VU-Meter sind in gewissen Grenzen geeignet, die Lautheit abzubilden, man soUte sich allerdings starker auf sein Gehor konzentrieren. Ein Beispiel soil die Problematik der Lautheit illustrieren: Fiir eine Horfunksendung soil ein Telefongesprach aufgezeichnet werden. Der Moderator wird technisch optimal eingepegelt und oft auch entsprechend der Sound-Design-Vorgaben des Senders komprimiert. Die Kompression sorgt letztendlich dafiir, dass die niederpegeligen Signalbestandteile angehoben werden. Dadurch steigt der Effektivwert und mit ihm die Lautheit. Jetzt wird das Telefonsignal dazugemischt. Telefonaufnahmen zeichnen sich durch hohe Pegelspitzen aber eine ansonsten wenig dichte Zusammensetzung aus. Der Crest-Faktor ist sehr hoch. Die Bandbreitenbegrenzung auf den Bereich zwischen 300 und 3000 Hertz sorgt auEerdem fiir eine geringe Lautheit. Durch die Pegelspitzen kann die Verstarkung nicht stark genug linear angehoben werden, ohne dass das Aufnahmesystem iibersteuert. Fiir die Mischung muss man also den Pegel des Moderators reduzieren und das Telefonsignal stark komprimieren. Am Ausgang kann die gesamte Mischung dann noch einmal komprimiert werden, um den Lautheitsverlust gegeniiber dem sonstigen Programm auszugleichen. Das ist ein gutes Beispiel dafiir, wie die Augen (Pegel) und das Ohr (Lautheit) zusammenspielen miissen. 4.2.3 Tonhohen horen Die Projektion der Frequenz auf bestimmte Horzellen hat verschiedene Konsequenzen. Zum Einen ist die Anzahl der Horzellen begrenzt. Daher ist auch
36
4 Schall in der Wahrnehmung
die Anzahl der horbaren Frequenzen limitiert. Die Ausbreitung der Schwingung erfolgt in einer Fliissigkeit, die eine Masse hat und deshalb trage ist. Auch die Harchen der Sinneszellen haben gewisse Stellzeiten. Deshalb wird ein unscharfer Bereich erregt, nicht eine einzelne SinneszeUe. Man hort also in gewissen Frequenzbandern, auch critical band genannt. 4.2.3.1 Das critical band Die Breite eines solchen Frequenzbandes entspricht 150 hintereinanderliegenden Haarzellen. Die Einheit dafiir ist das Bark. Unterhalb von 500Hz entspricht ein Bark einer Frequenzdifferenz von etwa 100 Hz, dariiber deni Intervall einer Terz. Das hat Auswirkungen auf die Wahrnehmung des Zusammenklangs zweier Tone mit ahnlichen Frequenzen. Pegeladdition
h=h Gehort wird ein einzelner Ton. Seine Lautstarke hangt von der Phasenlage der beiden Tone zueinander ab. Die Schwingungen konnen sich unterstiitzen, wenn sie in Phase schwingen oder sich gegenseitig storen, wenn sie gegeneinander schwingen. Die Phasenlage zueinander bleibt aber wahrend die Schwingungen anhalten konstant. Schwebung
h
+ i5Hz
Bei einer Differenz bis etwa 15 Hz hort man immernoch einen einzelnen Ton mit der Durchschnittsfrequenz 2 • Zusatzlich ist ein An- und Abschwellen zu horen. Das bezeichnet man als Schwebung. Dieses Tremolo schwingt mit dem Abstand der beiden Frequenzen zueinander (Af = f^ — /i)- Den Effekt kann man sich aus dem ersten Beispiel herleiten. Da derselbe Bereich auf der Basilarmembran erregt wird, wirkt die zweite Frequenz wie dieselbe Frequenz mit kontinuierlich wechselnder Phasenlage. Das hat einen Wechsel der Lautstarke zur Folge. Rauigkeit / i + IbHz < /2 < / i + kl. Terz Wird die Frequenzdifferenz grofier, dann hort man einen, spater zwei Tone, die zusammen einen rauen Horeindruck erzeugen. In diesen Frequenzabstand fallen die Intervalle der kleinen und der grofien Sekunde. Bei etwa einer kleinen Terz Abstand werden zwei verschiedene Frequenzbander angesprochen und der gegenseitige Einfluss der beiden Tone aufeinander verschwindet.
4.2 Psychoakustik
37
4.2.3.2 Verdeckung Verdeckung beschreibt einen Prozess, bei deni ein Ton durch einen anderen unhorbar gemacht wird. Unterschieden wird dabei die zeitliche Verdeckung von der spektralen Verdeckung. Zeitliche Verdeckung Die zeitliche Verdeckung konimt zum Tragen, wenn auf ein lautes ein leises Ereignis folgt. Das Gehor hat sich an den hohen Pegel gewohnt und registriert den leisen erst nach einer kurzen Verzogerung. Spektrale Verdeckung Fiir den Mediengestalter viel problematischer ist die spektrale Verdeckung. Mit ihr muss man sich bei jeder Beschallung und auch bei jeder Musikmischung beschaftigen. Die spektrale Verdeckung tritt bei gleichzeitigen Schallereignissen auf, deren Frequenzen nahe beieinander liegen. Das ist immer dann der Fall, wenn das Schallereignis eine Erregung in einem bereits erregten Gebiet auf der Basilarmembran auslosen wiirde. Das leisere Signal wird vom lauteren verdeckt. Ob es dazu kommt, ist abhangig vom Frequenzabstand der beiden Tone und der Lautstarkedifferenz. Tone werden umso eher verdeckt, je geringer die Frequenzdifferenz und je kleiner der Pegel ist. Das Ma£, wie laut ein Ton sein muss, damit er bei einem gegebenen Storsignal gerade nicht mehr verdeckt wird, beschreibt die Mithorschwelle.
£• 80 D) 60
0,02
0,05 0,1
0,2
0,5 1 2 Frequenz (kHz)
10
20
Abb. 4.3. Prinzipschaubild der Mithorschwelle. An der Kurve kann man erkennen, dass Frequenzen, die hoher sind, als das Storsignal starker verdeckt werden, als tiefe. Je lauter das Storsignal ist, desto breiter ist der Frequenzbereich, auf den es verdeckend wirkt. Sanger nutzen gezielt den Verdeckungseffekt aus, wenn sie einen ausgepragten Sangerformanten haben. Dabei handelt es sich um eine Uberhohung
38
4 Schall in der Wahrnehmung
ini Frequenzgang des Sangers ini Bereich um 3 kHz, bei deni das Ohr sehr empfindlich ist. Die groi^e Lautstarke verdeckt das Orchester in diesem Frequenzbereich. Fiir den Mediengestalter ist die Verdeckung vor allem bei zwei Anwendungsfallen von groi^er Bedeutung. Bei Musikmischungen und bei Beschallungen. Bei einer Beschallung tritt man unter Umstanden gegen eine recht Starke Gerauschkulisse an. Im Publikum wird geredet, die Menschen bewegen sich, Gegenstande reiben aneinander. Das alles erzeugt einen breitbandigen Gerauschteppich, der das zu beschallende Signal verdeckt. Das muss bei der Dimensionierung der Anlage beriicksichtigt werden. Bei Musikmischungen treten Instrumente kurzzeitig auf, die wahrenddessen andere Instrumente und vor allem aucli Effekte verdecken konnen. Deshalb ist es wichtig, jedem Instrument seinen Platz in der Mischung zuzuweisen. Oft sind Instrumente nicht in ilirer gesamten spektralen Breite notwendig, um als Instrument erkannt zu werden und den gewiinscliten Effekt zu transportieren. Nicht benotigte Bestandteile konnen iiber den Entzerrer reduziert werden, um Verdeckungseffekte bei anderen Instrumenten zu vermeiden, die auf die verdeckten Frequenzen moghcherweise angewiesen sind. Dieses Vorgehen ist wesenthch sinnvoller, als das Nachziehen des Kanals iiber den Fader. Auch die Dynamik muss kontrolliert werden, um Verdeckungseffekte zu begrenzen. Sehr dynamisch gespielte Instrumente maskieren andere Instrumente, wahrend sie laut spielen und in den leisen Momenten werden sie moglicherweise selbst verdeckt. Hier muss der Mediengestalter entscheiden, ob ihm die Dynamik wichtiger ist, oder die Transparenz und ob die Verdeckung wie bei Orchestermusik dem Wesen des Materials entspricht oder ob man ihr mit technischen Mafinahmen begegnen muss. Nachverdeckung Die Verdeckung findet nicht nur statt wahrend das Storsignal andauert. Auch danach wird der Ton noch eine Zeit lang maskiert. Sie bleibt iiber wenige Millisekunden konstant und fallt dann innerhalb von etwa 200 ms linear ab. Vorverdeckung Wahrend die Nachverdeckung noch relativ einfach nachzuvollziehen ist, fallt das bei der Vorverdeckung schon schwerer. Sie ist auch nicht so deutlich ausgepragt wie die Nachverdeckung, soil hier aber der VoUstandigkeit halber genannt werden. Sie spielt sich in einem Zeitfenster von weniger als 20 Millisekunden ab. Bei der Vorverdeckung handelt es sich um einen Vorgang, der sich im Gehirn, also bei der Verarbeitung des Gehorten, abspielt. Lauteren Ereignissen wird dabei eine grofiere Bedeutung beigemessen, so dass diese zuerst verarbeitet werden, selbst wenn kurz davor ein leiseres Ereignis begonnen oder stattgefunden hat.
4.2 Psychoakustik
39
4.2.4 Kombinationstone Das Ohr ist kein lineares Organ. Neben den tatsachlich im Schallereignis vorhandenen Frequenzen, werden als Folge der nichtlinearen Verzerrungen im Ohr weitere Frequenzen wahrgenommen. Sie lassen sich iiber Summen- und DifFerenzbildung aus den Originalfrequenzen ableiten. Deshalb hei£en sie auch Summen- und Differenztone. Die einfachsten Kombinationstone sind / i + /2 und |/i — /2|• 4.2.5 Grundtonhoren — ResidualefFekt Der ResidualefFekt besagt, dass der Zusammenklang zweier beliebiger aufeinanderfolgender Obertone die Empfindung des Grundtons erzeugt, auch wenn dieser im Signal nicht vorhanden ist. Dass die Grundtonfrequenz (fg) durch zwei beliebige aufeinanderfolgende Obertone (/„ und fn+i) eindeutig definiert ist, lasst sich mathematisch leicht nachweisen. fn+l
-
fn
=
{n
+
1)
• fg
-
n
• fg
=
n
• fg
+
1 • fg
-
n
• fg
=
1 •
fg
Das Ganze sieht aus wie ein einfacher Differenzton. Aber Versuche haben gezeigt, dass dieser Ton auch dann gehort wird, wenn er eigentlich verdeckt werden miisste. Das bedeutet, dass dieser Ton erst auf neuronaler Ebene also hinter dem Innenohr entsteht, wahrend Kombinationstone in der Schnecke nachweisbar sind.^ 4.2.6 Haas-EfFekt — Gesetz der ersten Wellenfront Ein weiterer wichtiger Effekt ist das Gesetz der ersten Wellenfront. Es besagt, dass von zwei identischen Schallereignissen, die im Abstand von 10-30 ms auf das Ohr treffen, auch dann das friiher eintreffende als Ursprung erkannt wird, wenn das zweite um bis zu 10 dB lauter ist. Geometrisch betrachtet ist das vollkommen logisch. Bei gegebener Ausbreitungsgeschwindigkeit muss das zuerst eintreffende Signal den kiirzesten Weg zuriickgelegt haben. Der kiirzeste Weg ist immer der direkte. AUe spateren Signale haben einen langeren Weg und sind daher auf Reflexionen zuriickzufiihren. Solche Reflexionen konnen sich iiberlagern und Interferenzen bilden. Diese Interferenzen konnen an verschiedenen Stellen zu einer erhohten Lautstarke fiihren, wenn sich die Phasenlage entspricht und sich so die Pegel erhohen. Der Mensch nimmt hier keine bewusste Bewertung vor. Aber es ist anzunehmen, dass sich dieses Vorgehen in der Vergangenheit gut bewahrt hat, wenn es um die Frage ging, von wo „der Bar briillt". Fiir den Mediengestalter ergibt sich eine andere Fragestellung. Wo sich die Schallquelle befindet, die 1 vgl. [4, 26]
40
4 Schall in der Wahrnehmung
er aufnehnien mochte, wird er in den meisten Fallen wissen. Der Haas-Effekt ermogliclit es, Beschallungsanlagen dezentral aufzubauen. Beim Einsatz sogenannter Delay Lines werden zusatzlich zu den Lautsprecliern neben der Biihne welter hlnten im Zuschauerraum weltere Lautspreclier Installlert. So lasst sicli liinten die Lautstarke steigern, ohne dass die Grenzschallpegel in den vorderen Reilien iiberscliritten werden. Melir zu Delay Lines steht im gleiclinamigen Absclinitt auf Seite 315.
Schall in seinen Formen Der Tontechniker spricht gerne vom Signal. Ganz so, ah ware es egal, woher es kommt, woraus es besteht und was es bedeutet. In einem italienischen Kochbuch schreibt Sante de Santis iiber Nudelteig: „mit der Zeit werdet ihr ein reges Zwiegesprach mit dem Teig fiihren und ihn immer wieder danach befragen, ob er noch ein bisschen Mehl benotigt, oder noch etwas geknetet werden mochte". Wer als Mediengestalter ein so inniges Verhaltnis zu seinem Rohstoff ,SchaU' entwickeln kann, wie dieser Koch zu seinem Teig, der ist auf einem guten Weg.
Bevor Klange sinnvoll und ansprechend gestaltet sowie technisch einwandfrei iibertragen werden konnen, ist es notig, sich die verschiedenen nioglichen Schallquellen in ihren jeweiligen Auspragungen bewusst zu machen. Jedes Schallereignis hat eigene Anforderungen an eine optimale Abbildung. Auch die Einflussmoglichkeiten des Tontechnikers variieren. Der Begriff Mediengestaltung zeigt besser als Tontechnik, dass es d a r u m geht, das Wesen der Schallquelle zu erfassen. Grundsatzlich unterscheiden lassen sich drei Kategorien. Bei der Kategorie Sprache handelt es sich um das von Menschen gesprochene Wort. Sprache zeichnet sich dadurch aus, dass die Laute sinnbehaftet sind - eine Aussage haben. Musik besteht dagegen aus gesungenen Lauten oder Gerauschen von Musikinstrumenten, die einer rhythniischen, melodischen oder harnionischen Ordnung folgen. Fehlt diese Ordnung, dann handelt es sich um Gerausche. Gerdusche sind unwillkiirlich und frei von Aussagen. Sprache, Musik und Gerausche lassen sich haufig nicht voUig voneinander trennen, die Grenzen sind flie£end und es gibt Uberschneidungen. Singt m a n ein Lied, kann der Text einen Sinn im Sinne der Sprache haben obwohl es sich um Musik handelt. Sammelt m a n Gerausche und montiert sie in einem musikalischen Kontext, dann entsteht Musik. Bei solchen Vermischungen muss der Tontechniker alien spezifischen Eigenheiten der Bestandteile gerecht werden.
5.1 Sprache oder Musik Die Sprache spielt in der Musik eine grofie RoUe. Lieder sind musikalisch vorgetragene Texte. Aber auch wenn die Texte nicht verstandlich sind, bleibt die
42
5 Schall in seinen Formen
Musik unterhaltend. Die meisten Pop-Songs werden in englischer Sprache gesungen und auch von Menschen gekauft und gerne konsumiert, die die Sprache nicht verstehen. Und oft genug verpasst man auch nichts dabei. Es gibt aber auch den umgekehrten FaU, zuni Beispiel bei kirchlichen Liturgien oder bei Rezitativen in der Oper, wo der Text den Schwerpunkt und die Musik nur den Rahnien bildet. Auch iiber kompositorische Mittel kann die Bedeutung des Textes variiert werden. Die beiden Stichworte heii^en hier Syllabik und Melismatik. Bei der SyUabik wird praktisch jedem Ton eine Textsilbe zugeordnet, wohingegen mehsmatische Musik einzelne Silben iiber mehrere Tone ausdehnt. Pop-Musik ist meist syUabisch angelegt, Beispiele fiir Mehsmatik finden sich in groi^er Zahl in der Kirchenmusik, zum Beispiel in der Gregorianik.
5.2 Sprache oder Gerausch Die menschhche Stinime kann auch Gerausche machen, sei es durch kreischen - nicht das Schreien von Wortern -, husten, schnarchen oder weinen. Sie haben zwar eine Bedeutung, aber keinen Inhalt im Sinne der Sprache. In der modernen Dichtung wird zum Teil nur mit Lauten gearbeitet. Auch wenn es sich dabei nicht um Worter einer bekannten Sprache handelt, kann man dem Dichter nicht pauschal die Sinnhaftigkeit seiner Werke absprechen - Gerausche werden Sprache.
5.3 Musik oder Gerausch Streng genommen sind die Laute, die Musikinstrumente hervorbringen nichts anderes als Gerausche, die erst durch die Komposition, also die bereits angesprochene rhythmische, melodische oder harmonische Ordnung zu Musik werden. Demnach ware ein einzelner Ton, der auf einer Trompete gespielt wird nicht unbedingt Musik, es sei denn die Hohe, die Lange und die Lautstarke sind bewusst gewahlt. Weshalb instrumentale Gerausche oft dennoch als musikalisch empfunden werden ist darauf zuriickzufiihren, dass Musikinstrumente konstruktionsbedingt geeignet sind, wohlklingende und tonhafte Laute hervorzubringen. In der neuen Musik wird aber haufig die Schonheit der Klange bewusst vermieden. In diesem Zusammenhang erinnere ich mich an eine Aufnahme, bei der mit einem metallenen Plektrum eine Harfensaite so stark angerissen wurde, dass nur ein raues Schnarren zu horen war.
6 Sprache
Sprache wurde oben definiert als sinnbehaftete, vom Menschen gesprochene Laute. Das bedeutet nicht, dass die Worte fiir den Tontechniker sinnhaft oder verstandlich sein niiissen. Auch Fremdsprachen und Texte zu Thenien, die dem Tontechniker nicht vertraut sind, gehoren dazu. Dass Sprache mit Lauten verbunden wird, ist allerdings die beschrankte, tontechnische Sicht auf die Sprache, die sich ja auch in der Schriftform voUwertig entfalten kann. Die Grundvoraussetzung fiir das Sprechen ist die Stimme. Ihre Parameter werden ini Abschnitt 6.2 beschrieben. Um die formalen Kriterien der Sprache, den Text geht es im Abschnitt 6.3. Das Sprechen, also die Darbietung eines Textes mit Hilfe der Stimme hat der Abschnitt 6.4 zum Inhalt. Vorher soh es jedoch darum gehen, unter welchen Umstanden der Mediengestalter auf Sprache trifft und wie der umhiihende Kontext sich auf das Produkt auswirkt.
6.1 Sprachquellen Gesprochen wird fast iiberaU und ebenso vielfaltig sind die Einsatze, in denen ein Tontechniker mit der Sprache als Schallereignis konfrontiert wird. Doch neben der reinen Sprache miissen auch die umgebenden Faktoren vom Tontechniker beriicksichtigt werden. 6.1.1 Wer spricht? Je nachdem wer spricht hat der Tontechniker mehr oder weniger Einfluss auf das Ergebnis. Der Schwerpunkt der Arbeit andert sich genauso wie die Rahmenbedingungen. 6.1.1.1 Sprecher und Schauspieler Ein ausgebildeter Sprecher wird dann eingesetzt, wenn es darum geht, Texte qualitativ hochwertig sprechen zu lassen. Solche Produktionen zeichnen sich
44
6 Sprache
giinstigerweise durch ein angemessenes Zeitbudget aus. Vielfach handelt es sich um kiinstlerische Arbeiten. Die Umsetzung wird oft von eineni Regisseur begleitet, der fiir die kiinstlerischen Aspekte verantwortlich zeichnet. In diesem Fall liegt die Hauptaufgabe des Tonteclinikers tatsaclilich in der Technik. Die szenischen Telle eines Horspiels werden bei der Produktion von Scliauspielern nicht nur gesprochen, sondern gespielt. So konnen bereits bei der Aufnalime Bewegungen, Gerausclie und die passende Raumliclikeit aufgezeichnet werden. Wiclitig hierbei ist, dass die Texte aucli natiirlich gesprochen werden und nicht abgelesen wirken. Auch wenn professionelle Sprecher und Schauspieler gelernt haben, ihre Stimme variabel einzusetzen und Texte zu interpretieren, macht das die Arbeit nicht leichter. Im Gegenteil. Der Techniker muss dem hohen Niveau der Produktion folgen konnen und auch kleinste Fehler entdecken - ein etwas zu lang gedehnter Vokal am Zeilensprung, ein bisschen wenig Luft am Ende der Phrase oder ein kurzes Zogern in einem Moment der Bestimmtheit. 6.1.1.2 R e p o r t e r In Rundfunkanstalten sprechen Journalisten viele ihrer Beitrage selbst. Gerade wenn es sich dabei um aktuelle Themen handelt ist die Zeit von der Produktion bis zur Sendung sehr knapp. Aber auch die Produktionszeiten selbst werden meist sehr kurz angesetzt. Auch wenn Horfunk- und Fernsehjournalisten ein gewisses Ma£ an Sprecherziehung genossen haben, muss m a n hier oft Abstriche machen. Die Grenzen des jeweiligen Sprechers zu kennen ist dabei sehr hilfreich. Je geringer die Verzogerungen durch die Arbeit des Technikers sind, desto mehr Zeit bleibt fiir die Optimierung des E n d p r o d u k t s . Als „Erster Horer" hat er auch die Aufgabe, inhaltliche und sprachliche Fehler sowie Unklarheiten aufzuspiiren. 6.1.1.3 P r o m i s und Passanten Von den professionellen Beteiligten einer Tonproduktion kann m a n erwarten, dass sie ihre Aussagen so oft wiederholen, bis sie fehlerfrei „im Kasten" sind. Befragt m a n fiir einen Beitrag jedoch Sportier, Kiinstler, Politiker oder einfach nur einen Passanten auf der Strafie, sind die Einflussmoglichkeiten sowohl auf den Inhalt als auch auf die Form sehr begrenzt. Unzulangliche sprachliche und sprechtechnische Moglichkeiten, erstaunhcherweise auch oft bei Schauspielern und die fehlende Mikrofondisziplin erschweren die Aufnahme. Auch werden Takes nicht wiederholt, was Auswirkungen auf den Schnitt hat. Hier hilft nur ein ausreichendes Aussage-Angebot, aus dem m a n spater die besten Telle auswahlen kann. Bei Umfragen verschiedener Personen flie£en neben dem Inhalt auch die technischen und sprachlichen Aspekte in den Auswahlprozess ein. Hier kann m a n Aussagen einzelner komplett verwerfen. Fragt m a n aber gezielt eine bestimmte Person, geht das natiirlich nicht.
6.1 Sprachquellen
45
6.1.2 W a s w i r d g e s p r o c h e n ? Sprache ist nicht gleich Sprache. Je nach Textgattung sind die Schwerpunkte unterschiedlich verteilt. Diese bei der Aufnahme zu kennen und zu unterstiitzen ist die Aufgabe des Mediengestalters. 6.1.2.1 Kiinstlerisches Wort Sprache als Kunstform findet m a n bei Lesungen von Textkunst also Lyrik und Prosa und bei szenischen Werken im Theater, beim Film und im Horspiel. Bei Lesungen ist die Tonaufzeichnung nicht Teil des primaren Werkes. Dennoch beansprucht der Vortrag eine eigene kiinstlerische Dimension. Das Ziel des Tontechnikers muss es sein, sowohl den Text, als auch die Textinterpretation moglichst ohne Authentizitatsverlust zu verarbeiten. Theaterstiicke und in gewissen Grenzen auch andere szenische Werke haben eine raumliche Dimension. Die Herausforderung hier liegt in der Ubertragung der Raumlichkeit ohne die Sprachverstandlichkeit aufzugeben. Die Positionen der Akteure in der Szene und vor allem auch die Position der Akteure zueinander - das sogenannte Blocking - miissen durch eine geeignete Mikrofonierung aufgefangen werden. 6.1.2.2 Informatives Wort Ohne kiinstlerischen Anspruch dient die Sprache der Vermittlung von Inhalten, zum Beispiel in der aktuellen Berichterstattung. Auch Unterhaltungsprogramme ohne kiinstlerischen Anspruch zahlen hierzu. Damit ist die wichtigste Anforderung an die technische Umsetzung die Sprachverstandlichkeit. Die Pflicht ist ein verstandlicher und inhaltlich richtiger Text, alles andere ist die Kiir. 6.1.2.3 Konversation Meist dokumentarischen Charakter haben Mitschnitte von Alltagsszenen, im Gegensatz zu den Atmospharen geht es aber hier darum, die Sprache verstandlich abzubilden, auch wenn der Horer nicht direkt angesprochen wird. Da sich gestellte Szenen in Dokumentationen eigentlich verbieten, sind auch keine Wiederholungen moglich. Das ist umso schwieriger, als der Techniker das Geschehen durch seine Arbeit nicht storen darf. In der Praxis sind Dokumentationen ohne gestellte Szenen deshalb selten. 6.1.3 W o wird gesprochen? Je nachdem, an welchem Ort gesprochen wird, ergeben sich unter Umstanden eigene Anforderungen. Zuerst einmal ist danach zu Unterscheiden, ob offentlich - also vor Publikum - oder nichtoffentlich gesprochen wird. Im ersten Fall
46
6 Sprache
ist zu bedenken, dass auch die Reaktionen des Publikums als direkte Folge der Sprache abgebildet warden muss, beispielsweise durch die Aufstellung von Raummikrofonen. Eine weitere Unterscheidung ist die Frage, ob sich das Geschehen in einem Gebaude oder im Freien abspielt. Klinisch reine Sprachaufnahmen, also solche, bei denen keine Nebengerausche auftreten, gibt es nur im Studio. Sowohl im Freien, als auch in Raumen wie Kirchen, Sporthallen oder dem Plenarsaal eines Parlaments gibt es mehr oder weniger stark ausgepragte Storgerausche, die zwar einerseits die Authentizitat der Aufnahme unterstreichen, auf der anderen Seite aber auch immer die Verstandlichkeit der Sprache angreifen. Die Atmosphare ist dabei normalerweise ausdriicklich erwiinscht. Schliefilich wahlt man fiir die Aufnahme einen passenden Schauplatz aus. Oft muss man aber aus praktischen Griinden auf unpassende Raume ausweichen. Hier sollte der Raumeindruck weit in den Hintergrund gedrangt werden. Handelt es sich jedoch um einen adaquaten Ort, dann hat die Atmo durchaus ihren Platz in der Mischung. Haufig kann man den Gesprachspartner nicht aufsuchen und auch ein gemeinsamer Studiobesuch ist nicht moglich. Dann muss das Gesprach iiber Telekommunikationseinrichtungen erfolgen. Am giinstigsten sind digitale Leitungsverbindungen zwischen zwei Studios mit einer ausreichend hohen Bandbreite. Dazu gibt es ISDN-Audiocodecs in verschiedenen Qualitaten. Notbehelf ist das Telefon. Die ohnehin schlechte Qualitat verschlechtert sich bei der Ubertragung zusatzlich, so dass an ungiinstigen Abhorplatzen, zum Beispiel im Auto die Sprachverstandlichkeit nicht mehr ausreicht. Wenn aber ein Telefongesprach die einzige Moglichkeit ist, dann sollte man auf eine Festnetzleitung Wert legen. Mobilfunk und Voice-Over-IP-Telefonie sind qualitativ ungeniigend. 6.1.4 Bei welcher Gelegenheit wird gesprochen? Der Anwendungsfall fiir Sprache ist einer der wesentlichen Unterscheidungsmerkmale. Wer spricht zu wem konnte die erste Frage lauten. Die frontale Rede, zum Beispiel bei einem Vortrag, spricht eine in der Regel anonyme Menge an. Auch wenn der Horer nur eine Aufzeichnung hort und wahrend des Vortrags nicht anwesend war, kann er sich dennoch in gleicher Weise angesprochen fiihlen wie die Menge im Zuschauerraum. Ansprachen ohne direktes Publikum richten sich an die anonyme Masse aller Rezipienten des iibertragenden Mediums. Gar nicht angesprochen wird der Horer eines Dialogs - in einem Horspiel oder Theaterstiick. Hier belauscht der Horer sozusagen ein von ihm unabhangiges Gesprach. Bereits einen interaktiven Charakter, wenn auch eine hierarchische Ordnung haben Fragestunden und moderierte Podiumsdiskussionen, mit oder ohne Publikumsbeteihgung. Der Moderator steht hier an oberster Stelle und kann den anderen Teilnehmern das Wort erteilen oder entziehen. Danach kommen die Podiumsgaste, von denen jeder zu seiner Zeit zu Wort kommen sollte und schlie£lich das Publikum, das zwar die
6.2 Stimme
47
Moglichkeit der Wortmeldung hat, aber keine Garantie auch gehort zu werden. Fiir den Tontechniker bedeutet das, dass er den Akteuren zu jeder Zeit nach ihrem Rang Gehor verschaflFen muss. Gleichberechtigte Diskussionsrunden ohne Moderation sind selten und auch schwer zu iibertragen, well haufig niehrere Personen gleichzeitig reden. Einfacher ist es, wenn die Redner nacheinander sprechen oder gar nur ein Redner auftritt. Gleichzeitiges sprechen niehrerer Akteure kann durchaus geordnet sein, nanihch dann, wenn es einer Dramaturgie folgt, zum Beispiel in einem Theaterstiick. 6.1.5 Auditive und audiovisuelle M e d i e n Die groi^ere Freiheit der Tongestaltung bieten die nicht bildgebundenen Medien. Sobald fiir Film- und Fernsehen produziert wird oder offenthche Veranstaltungen. Theater und Konzerte beschaUt oder iibertragen werden, riickt das Bild in den Vordergrund. Die Arbeit des Tontechnikers muss dann quasi unsichtbar erfolgen. Das fangt schon mit der AufsteUung der Mikrofone an, die das Bild nicht storen soUen. Die Moglichkeit der Korrektur ist bei Live-Veranstaltungen nicht gegeben, bei Aufzeichnungen hingegen schon. Der Eindruck von Raumlichkeit ist fiir reine Sprachaufnahmen meist unerwiinscht, in einem Film muss der Horeindruck jedoch zum Bild passen. Je nach Budget muss das bereits bei der Aufnahme beriicksichtigt werden oder erfolgt in der Nachbearbeitung. Dabei lasst sich der Raumanteil jedoch nur noch vergroEern, aber nicht mehr reduzieren.
6.2 Stimme Sprache funktioniert iiber die Schrift, iiber Gebarden oder iiber die Stimme. In der Tontechnik ist natiirlich die Stimme zur Verbreitung der Sprache das Mittel der Wahl. Die Tone und Gerausche der Stimme formen die Sprache. Die folgenden Abschnitte beschreiben kurz, wie und wo sie gebildet werden. 6.2.1 Physiologie Tone, also die klingenden Bestandteile der Stimme - in der Sprache sind sie die Vokale und die stimmhaften Konsonanten - entstehen in den im Kehlkopf liegenden Stimmbandern. Sie werden von einem Luftstrom angeregt und so zum Schwingen gebracht. Damit das passiert, wird zum Sprechen die Stimmritze, also der Spalt den die Atemluft auf ihrem Weg nach aui^en passieren muss, verengt und damit werden die Stimmbander in den Luftweg verschoben. Wahrend des Atmens bleibt die Stimmritze weit und damit bleiben die Stimmbander passiv. Ansonsten wiirden die Stimmbander auch wahrend des Atmens schwingen und Tone produzieren. Der Ton oder besser die Tone, die von den
48
6 Sprache
Stinimbandern produziert werden, variieren in der Hohe, sind aber von ihrer relativen Frequenzzusamniensetzung inimer gleich. Die Hohe ist abhangig von der Lange, Dicke und der Spannung der Stimmbander. Die Lautstarke hangt aui^erdem von der Starke des Luftstroms ab. Aufier den Stimmbandern als Klangerzeuger spielen auch Hohlraume im Korper eine wichtige Rolle fiir die Klangformung. Veranderliche Hohlraume sind der Rachen, und die Mundhohle. Zusammen bilden sie das Ansatzrohr, das auch Vokaltrakt genannt wird. Unveranderhch sind dagegen die Stirnhohle und die Nasennebenhohlen. Um Gerausche, die stimmlosen Bestandteile der Sprache, zu erzeugen, wird der Luftstrom im Ansatzrohr am Gaumen, der Zunge oder den Lippen gebrochen. Dass die Gerausche unabhangig von den Tonen sind erklart, weshalb es mogUch ist, tonlos zu sprechen - gewoht, indem man fliistert oder ungewoUt bei Heiserkeit. Gerausche benotigen wie die Tone einen Luftstrom, die Stimmbander verhalten sich jedoch passiv. Die Variationsmoghchkeiten der Artikulationswerkzeuge, bestehend aus Kiefer, Zunge, Lippen, hinterem Gaumen und Rachenwanden, - sind enorm. Die Grofie, die Ausformung und die Lippenspannung beeinflussen den Klang und die Zunge kann die komplexesten Bewegungen ausfiihren. Diese Einstehmoghchkeiten sind so prazise, dass man das gleiche Wort mehrmals identisch aussprechen oder auch winzige Nuancen andern kann. Sprechen ist ein mechanischer SteUvorgang der Sprechwerkzeuge. Da zwischen zwei Lauten der Luftstrom in der Regel nicht unterbrochen wird, besteht die Sprache nicht nur aus den zu formenden Lauten selbst, sondern auch aus den Zwischenlauten, die wahrend der UmsteUung vom einen auf den nachsten Laut entstehen. Diese Umformungslaute werden normalerweise nicht wahrgenommen, sind aber bei der Schnittbearbeitung von groi^er Bedeutung. Sie sind der Grund dafiir, dass Laute nicht behebig ummontiert werden konnen. Die Anatomic des Kehlkopfes und Ansatzrohres bestimmt die Grenze des Machbaren eines Sprechers. Sprachfehler, die auf Defekte im Sprechapparat zuriickzufiihren sind, lassen sich durch Sprechtraining zwar meist deuthch verbessern, aber nie ganz ehminieren. Mediengestaher, die sich mit Sprachaufnahmen beschaftigen, miissen sich dariiber im Klaren sein und mit der Zeit lernen, wie viel von einem Sprecher erwartet werden kann. In der Praxis sind die Grenzen eines Sprechers aber meist nicht anatomischer Natur. In der Regel sind es Nachlassigkeiten, mangelnde Ubung oder Unwissenheit um die richtige Aussprache. 6.2.2 Akustik Die Tone, die von den Stimmbandern gebildet werden, bestehen aus einem Grundton und einer Obertonreihe, die alle ganzzahligen Vielfachen der Grundfrequenz enthalt. Der Grundton bestimmt die Tonhohe der Sprache. Die Obertone sind wichtig fiir den spezifischen Klang der verschiedenen Vokale und fiir den Charakter der Stimme. Die Resonanzraume im Korper wirken wie ein
6.2 Stimme
49
Filter auf die Obertone und verursachen eine Anhebung in bestinimten Frequenzbereichen. Bei den verstarkten Frequenzbandern spricht man von Formanten. 6.2.2.1 Formanten Die unveranderlichen Resonanzraume bilden den ebenfalls unveranderlichen Stimmcharakter wahrend der Tonfall und der Klang der Vokale durch die Veranderung der variablen Resonanzraume bestimmt werden. Vokale werden anhand ihres Klangs unterschieden. Damit unterscliiedliche Vokale aucli unterschiedlicli klingen, muss der von den Stimmbandern gelieferte Basisklang verandert werden. Damit ein Horer den Vokal als den gesproclienen identifizieren kann, muss jeder Mensch fiir denselben Vokal dieselben Formanten bilden. Daraus kann man schlie£en, dass die veranderlichen Resonanzraume fiir diese Formanten zustandig sind. Ansonsten konnte man nur einen einzigen Vokal artikulieren. Niclit alle Formanten sind fiir die Spracliverstandlichkeit von Belang. Ansonsten miissten sich alle Stimmen bis auf die Tonholie gleiclien. Das ist aber offensichtlicli nicht der Fall. Fiir die Sprachverstandlichkeit relevant sind die ersten beiden Formanten oberhalb der Grundfrequenz. In der Literatur werden fiir die Vokale der deutschen Sprache die in 6.1 angegebenen Richtwerte genannt. Auffallig ist beim ersten Formanten, die Parallelitat zwischen u und i sowie zwischen o und e. Um ein Gefiihl fiir die Klangvariation eines Vokals iiber das Ansatzrolir zu bekommen, kann man diese zusammengehorigen Vokale direkt hintereinander sprechen - also oooeeee. Man spiirt, dass die Klangveranderung vorwiegend durch die Lippenstellung erreicht wird. Die Kieferstellung und der Kehlkopf verandern sich nicht. Dass die Vokale nicht durch die Stimmbander gebildet werden, erkennt man daran, dass man die Vokale auch beim Fliistern unterscheidbar sind, also bei einer Art zu sprechen, die auf die Stimmbander verzichtet. Die Stimmbander liefern immer denselben Basisklang. Die Umformung geschieht im Ansatzrohr.
Tabelle 6.1. Erster und zweiter Formant der Stammvokale. /l
u 320 Hz 0 500 Hz a 1000 Hz e 500 Hz i 320 Hz
/2
800 Hz 1000 Hz 1400 Hz 2300 Hz 3200 Hz
50
6 Sprache
6.2.2.2 Frequenzgang In der gesprochenen Sprache liegt der tiefste Ton bei einem Mann im Durchschnitt bei 120 Hz, er kann aber im Einzelfall deutlich darunter liegen. Unterhalb von 80 Hz ist allerdings kaum noch mit Stimmanteilen zu rechnen. Die Obertonreihe ist akustisch grundsatzlich nicht beschrankt, sehr wohl aber physiologisch und sprechtechnisch. Je schneller die Stimmbander schwingen konnen, desto facettenreicher und brillanter klingt die Stimme. Stimmen mit nur wenigen Obertonen klingen dagegen matt und belegt. Gute Stimmen klingen bis zu 6 kHz. Noch hoher reichen die Konsonanten. Sie enthalten hochfrequente Rauschanteile, die bis 16 kHz reichen. 6.2.2.3 Abstrahlverhalten Die menschhche Stimme ist gerichtet. Das ist einerseits sehr praktisch, weil man fiir gewohnhch seine Sprache auch direkt an jemanden richtet, hat aber gerade in der Tontechnik auch seine Kehrseite. Es bleibt auf Dauer den wenigsten KlangschafFenden erspart, eine Beschallung zu machen, bei dem der unerfahrene Redner wild gestikuherend mal das Mikrofon iiber dem Kopf kreisen lasst, es mal drohend wie ein Schwert dem Publikum entgegenstreckt. Aber schon weniger dramatische Ereignisse, wie die Verwendung eines Ansteckmikrofons erfordern ein Wissen um diesen Sachverhalt. Zunachst jedoch das Wesentliche: Die Sprache tritt aus der Mundoffnung und der Nase aus. Ganz allgemein ist hochfrequenter Schall starker gerichtet, als tieffrequenter. Je weiter man aus dem Fokus, der Hauptabstrahlrichtung einer Schallquelle tritt, desto dumpfer wird der Schall. Die hochfrequenten Telle der Sprache sind in den Rauschanteilen der Konsonanten enthalten. Ohne die klare Differenzierung der Konsonanten verliert die Sprache sehr schnell ihre Verstandlichkeit. Innerhalb des Luftstroms kommt es hingegen zu einer Uberhohung der hohen Frequenzen und zu problematischen Gerauschen: Poppgerausche sind kurze, energiereiche und meist tieffrequente Explosivlaute. Luftverwirbelungen verursachen storende Windgerausche. Die Schallaustrittsoffnung ist der Mund. Auch wenn der Korper an sich ganz gut isoliert, dringen dennoch auch Laute durch Korperschalliibertragung vom Inneren des Korpers nach au£en. Am Auffalligsten machen sich die Resonanzen des Brustkorbs bemerkbar, ein Phanomen, dass bei der Verwendung von Ansteckmikrofonen beachtet werden muss. Die iibliche Mikrofonposition beim Sprechen ist unterhalb des Mundes. Das ist fiir bildgebundene Medien auch richtig, weil man nicht mochte, dass der Sprecher durch das Mikrofon verdeckt wird. AuEerdem sind Atemgerausche bei Nasenatmung reduziert. Es gibt aber auch Argumente dagegen. Die meisten Sprecher atmen ohnehin durch den Mund, wenn sie sprechen. Eine erhohte Mikrofonposition motiviert den Sprecher zu einer aufrechteren Haltung, was
6.3 Texte
51
sich positiv auf die Atmung auswirkt und Zischlaute und Windgerausche, die nach schrag unten abgestrahlt werden, werden reduziert.
6.3 Texte Texte sind das Material, das gesprochen wird. Dabei kommt es nicht darauf an, ob sie spontan entstehen oder schon schriftlich vorliegen. Texte sind charakterisiert durch den Inforniationsgehalt, den sie transportieren. Neben der Information haben Texte auch eine asthetische Koniponente. Bei der Arbeit niit Texten muss der Mediengestalter alle relevanten Parameter auf ihre Richtigkeit priifen und darauf, ob sie dem inhaltlichen wie asthetischen Anspruch geniigen. 6.3.1 Syntax Die kleinste Einheit einer Sprache ist das Zeichen. In der Schrift ist das ein Buchstabe oder eine Buchstabenkombination, gesprochen werden sie iibersetzt in Sprachlaute, sogenannte Phoneme. Zeichen werden zu Silben, dann zu Wortern und Satzen verkniipft. Geghedert werden sie durch Interpunktionszeichen, die beim Sprechen in Zasuren, Betonungen und Tonhohenveranderungen ihren Niederschlag finden konnen, oft aber auch weggelassen werden. Wie die Buchstaben korrekt aneinandergereiht werden, muss den Tontechniker nicht interessieren, ob die Laute korrekt aneinandergereiht werden dagegen schon. Neben der korrekten Zeichenfolge ist die Grammatik der zweite formale Parameter der Sprache. Sind also die Satze richtig gebaut, werden die Zeiten richtig verwendet und so weiter. Der Mediengestalter ist nicht originar fiir die Richtigkeit der Texte verantwortlich. Dennoch muss er ein gro£es Interesse daran haben, dass das Endergebnis in jeder Hinsicht fehlerfrei ist. Die KontroUfunktion wird gerade in der schnelllebigen aktuellen Produktion von den Mediengestaltern erwartet. Lyrik unterliegt oft einem Versma£. Ob sich die Gedichte reimen oder nicht, spielt dabei keine Rolle. Lyrik unterwirft sich haufig einer rhythmischen Ordnung die korrekt wiedergegeben und iibertragen werden muss. Sie muss auch den Schnitt iiberdauern. 6.3.2 Semantik Die Zusammensetzung einzelner Zeichen zu einem Text dient der Codierung von Informationen. Diese Informationen miissen beim Horen wieder aus dem Text extrahiert werden. Das geschieht mittels einer Interpretation durch den Empfanger. Selbst wenn dieser den Anspruch hat, den Text vollig neutral zu analysieren, kann er ihn nur im Kontext der eigenen Erfahrungen erfassen. An
52
6 Sprache
seinem Arbeitsplatz war es wie immer unangenehm laut. Ein Zimmermann in einem Sagewerks wird sicher eine genaue Vorstellung davon haben, worum es in deni Text geht. Moglicherweise handelt der Text aber nicht von kreischenden Sagen sondern von einem Mediengestalter, der Anstoi^ an den Liifter- und Festplattengerauschen seines Computers und dem Rauschen der Lautsprecher eines bekannten Herstellers nimmt, die dem Zimmermann moglicherweise nie auffallen wiirden. Diese Misinterpretationen wird es immer geben, vor allem, wenn Texte von Menschen aui^erhalb der Zielgruppe wahrgenommen werden. Eine moglichst klare Sprache, die wenig Interpretationsspielraum lasst, minimiert diese Verstandnisfehler. Dem Mediengestalter fallt auch hier die Rolle des „Ersten Horers" zu. Verstandnisprobleme sollten deshalb auf jeden Fall geaufiert werden. 6.3.3 Pragmatik Wie niitzlich ein Text ist, hangt ab vom Bediirfnis des Horers, aber auch vom Informations- und vom Wahrheitsgehalt. Der Wahrheitsgehalt soUte in jedem dokumentarischen Text moglichst hoch sein. Arbeitet der Sprecher mit einem Manuskript, dann muss der Mediengestalter sowohl darauf achten, dass das gelesen wird, was im Manuskript steht, als auch darauf, ob die Informationen im Manuskript richtig oder wenigstens plausibel sind. Die Informationsdichte muss im Zusammenhang mit der angepeilten Zielgruppe stehen. Den Bedarf der Horer zu erkennen ist die Aufgabe der Zielgruppenforschung und der Redaktion. Die Produktion muss sich aber an den Ergebnissen orientieren. Kiinstlerische Texte schaffen ihre eigene Wahrheit. Hier kann man statt vom Wahrheitsgehalt von der Wahrhaftigkeit oder der Glaubwiirdigkeit sprechen. Versteht man die Pragmatik als den Nutzwert, neigt man dazu, sie den kiinstlerischen Texten abzusprechen. Er kann aber dennoch ein Bediirfnis vieler Horer befriedigen.
6.4 Sprechen Das Sprechen ist der gezielte Einsatz der Stimme zur akustischen Presentation von Texten. Es ist das Material, das der Tontechniker aufnimmt, bearbeitet und iibertragt. 6.4.1 Atmung, Tonung und Lautung — Worter sprechen Im Abschnitt iiber die Stimme wurde bereits beschrieben, wie die Vokale und die Konsonanten gebildet werden. Der Grund weshalb ich es hier noch einmal aufgreife ist, dass es heute vielfach iiblich ist, die Atmung getrennt von der Sprache zu betrachten. In der Werbung wird sie sehr oft herausgeschnitten, mittlerweile aber auch immer ofter in Horfunkbeitragen. Zur Bildung der Tone
6.4 Sprechen
53
und Laute wird ein Luftstrom benotigt. Dieser Luftstrom wird aus den Lungen ausgeatmet. Damit Luft aus den Lungen ausgeatmet werden kann, muss sie in die Lunge hineingelangen. Deshalb muss ein Sprecher einatmen. Tut er es nicht, kann er nicht sprechen und mittelfristig nicht einmal iiberleben. Neben der lebenserhaltenden Funktion wird die Atmung aber auch verwendet, um Aussagen zu gliedern. Grundsatzlich kann das auch durch eine Zasur erfolgen, aber einen Atmer durch eine Zasur zu ersetzen bringt nicht den Zeitvorteil, den man sich durch das Entfernen der Atempausen meist erhofFt. Auch in der Musik, die ja nun sehr grofien Wert auf Klangasthetik legt, werden Atemgerausche im Gesang nicht grundsatzhch entfernt. Sie transportieren den Eindruck von Nahe. Der Atem eines Menschen ist ein sehr leises Gerausch und um es zu horen, muss man sich in die Nahe des Atmenden stellen. Die Momente, an denen Atemgerausche zu horen sind sind auch normalerweise nicht die analytisch konzentrierten - beim sogenannten Superlearning wird versucht, die Konzentration durch das Anhahen der Luft zu verstarken - sondern die emotionalen. Natiirhch gibt es auch Atemgerausche, die sich storend auswirken, zum Beispiel wenn die Stimmbander mitschwingen oder die Atmung der Situation unangemessen schwer ist, zum Beispiel wenn der Sprecher erst kurz vor der Aufnahme ins Studio geeih ist. Wenn es der Zeitplan hergibt soUte dann auf jeden Fah eine Weile mit der Aufnahme gewartet werden. Die richtige Aussprache von Silben und Wortern hangt davon ab, ob die einzelnen Laute korrekt gesprochen werden. Als Mediengestalter kann man gegen manifeste Fehler des Sprechers nicht viel ausrichten, bei einem S-Fehler zum BeispieL Hier hilft nur gezieltes iiben. Viel haufiger sind aber Fehler aufgrund von Nachlassigkeit und Unwissenheit. Diese miissen bei der Aufnahme korrigiert werden. Neben der korrekten Lautbildung muss ein Sprecher auch die richtigen Laute verwenden. Und die richtig aneinandergefiigten Phoneme miissen auch noch richtig betont werden, damit das korrekt gesprochene Wort herauskommt. Gute Kenntnisse, auch der phonetischen Regeln einer Sprache sind unerlasslich, wenn Sprachaufnahmen gemacht werden soUen. Ein bekanntes Beispiel, das immer wieder fiir Verwirrung sorgt ist das Wort Chemie. Es wird auf dreierlei Arten ausgesprochen - mit ch wie in ich, mit sch oder mit k. Schnell gewohnt man sich auch eine falsche Aussprache an, wenn man sie vorwiegend hort. Eine Aussprachelexikon auf dem Tisch ist hilfreich um die richtige Antwort zu finden. Schwieriger wird es schon, wenn hinter der Lautungsvorschrift komplexe Regeln stehen, wie bei der Buchstabenfolge ig. Innerhalb eines Wortes wird es ganz normal ig gesprochen (Enigma, Einigung). Auslautend spricht man es allerdings ich, wie in wichtig. Wie spricht man aber wichtiger und das Wichtigste. Und klingt das dann gleich wie bei den Beschdftigten? Es ist nicht einfach aber aus einer professionellen Perspektive dennoch erstaunlich, dass dieser Fehler auch in der Fernsehwerbung
54
6 Sprache
inimer wieder passiert - einer Branche in der traditionell sehr viel Geld auf den Tisch gelegt wird. 6.4.2 Rhythmus, Melodie, Klang und Dynamik — Texte sprechen Eine Schwalbe macht noch keinen Somnier und ein Wort noch keinen Text. Worter miissen zu Satzen und Absatzen zusammengefiigt werden, um eine Aussage zu formen. Auch in der Prosa werden die Parameter Rhythmus, Melodie, Klang und Dynamik eingesetzt, um sie verstandlich, glaubwiirdig und lebendig vorzutragen. Ziel des Mediengestalters muss es sein, daraus eine verstandliche, glaubwiirdige und lebendige Aufnahme zu machen. 6.4.2.1 Rhythmus Den Begriff Rhythmus kennt jeder aus der Musik als Beschreibung der Tonlangen. Jeder Mensch spricht, immer auch in Abhangigkeit der akuten Situation, in einem bestimmten Tempo. Dabei ist das gleichbleibende Metrum die mechanische Ordnung, der Rhythmus als veranderliches Element die organische.^ Der Rhythmus beschreibt den Wechsel zwischen Lauten und Pausen, zwischen lang und kurz und zwischen schnell und langsam. So ergibt sich ein abwechslungsreiches Gefiige von Spannung und Entspannung, eine klare Gliederung des Inhalts und falls es sich um lyrische Texte handelt auch eine dem Versmafi entsprechende Interpretation. 6.4.2.2 Melodie Die Sprachmelodie ist zum Einen eine sprachabhangige Gr6£e. Ein Englander spricht melodisch voUig anders als ein Deutscher oder ein Franzose. Zum Anderen ist sie aber auch ein individuelles Merkmal eines Sprechers. Sie transportiert den Gemiitszustand, das Temperament und die Intention. Der Tonfall gibt Auskunft iiber die Intention des Sprechers. Mochte er beschwichtigen oder provozieren, meint er was er sagt ironisch oder ernst? Auch die Position, die er zu seinem Gegeniiber einnimmt wird iiber den Tonfall transportiert. Behandelt er ihn von oben herab oder sieht er sich in der Defensive? Rollen diirfen nicht isoliert betrachtet werden. Sie stehen immer mit den anderen Rollen in Verbindung. Oft muss der innere Zustand eines Sprechers jedoch hinter die Erfordernisse des Anlasses zuriicktreten, zum Beispiel wenn es darum geht, in einem sachlichen Tonfall Nachrichten vorzulesen. 6.4.2.3 Klang Der Klang der Stimme transportiert wie die Sprachmelodie den emotionalen Status des Sprechers. Angst, Aufregung und Euphoric sorgt dafiir, dass der ' vgl. [12]
6.4 Sprechen
55
ganze Korper angespannt ist. Das wirkt sich auch auf den Klang der Stimme aus, der brillanter oder auch scharfer wird. Demgegeniiber sind energielose Zustande wie Langeweile oder Trauer durch einen eher dumpfen und matten Klang gekennzeichnet. 6.4.2.4 Dynamik Der Wechsel zwischen laut und leise ist ein wichtiges Instrument der Stimme um Akzente zu setzen. Betonungen sind nicht nur auf Wort, sondern auch auf Satzebene wichtig. Neben der Dynamik ist auch die Lange eines Lautes eine Moghchkeit, ihn hervorzuheben. Ebenso durch einen Tonhohenakzent, der meist mit einer dynamischen Betonung kombiniert ist.
Musik
Alle Parameter der Sprache gibt es in der Musik auch. Bedenkt man, dass unter Umstanden nur ein einzelner Sprecher spricht, auf der anderen Seite aber ein ganzes Sinfonieorchester zusammen spielt, dann erkennt man schnell, dass die Komplexitat der Musik der der Sprache in nichts nachsteht.
7.1 E-Musik und U-Musik Auch die Formen der Musik sind vielfaltig. Eine haufige, aber mittlerweile umstrittene Einteilung geschieht mittels der Bewertung der Ernsthaftigkeit eines Werkes. So wird zwischen der Unterhaltenden Musik (U-Musik, auch L-Musik fiir Leichte Musik) und der Ernsten Musik (E-Musik) unterschieden. Problematisch bei der Einteilung ist, dass populare Musik auch dann als Unterhaltung klassifiziert wird, wenn sie ernsthaften kiinstlerischen Anspriichen geniigt, wahrend Musik aus vergangenen Tagen, zum Beispiel die Lieder der romantischen Komponisten, zwar heute im Rahmen ernsthafter kiinstlerischer Darbietungen zelebriert werden, zu ihrer Zeit aber einen vorwiegend unterhaltenden Auftrag hatten. Kurz gesagt impliziert die Zuordnung zur UMusik einen Mangel an kiinstlerischer Tiefe und die Zuordnung zur E-Musik unterstellt einen Mangel an Unterhaltungswert. Der Klassifizierung fehlt es aufierdem an einer hinreichenden Trennscharfe. Die Grenzen verschwimmen. In der Grauzone befinden sich die Operetten, weniger ihre Nachfolger - die Musicals aber auch symphonische Werke mit stark popularer Anziehungskraft, wie es bei den Werken von George Gershwin haufig der Fall ist und der Jazz. Obwohl die Unterteilung offensichtliche Mangel hat, ist sie dennoch relevant. Einmal fiir Musiker, da Ernste Musik von den Verwertungsgesellschaften besser vergiitet wird, zum anderen aber auch fiir die Menschen, die mit der Produktion zu tun haben, denn die Produktionsweisen unterscheiden sich erheblich voneinander. Um die Abgrenzung von U- und E-Musik zu verbessern, ordne ich die Werke anhand ihrer obligaten formalen Ausgestaltung zu. Damit
58
7 Musik
verschiebt sich die Bedeutung der BegriflFe U- und E-Musik, diese Variation erscheint mir aber angebrachter, als eine eigene Klassifikation aufzustellen. 7.1.1 E-Musik E-Musik ist grundsatzlich in weiten Teilen festgelegt. Tempo, Artikulation und Dynamik stehen in der Partitur, die aufierdem auch bis auf wenige Ausnahmen alle Tone enthalt. Der verbleibende Spielraum wird nicht nur nach asthetischen Gesichtspunkten ausgefiillt, sondern auch immer im Kontext der musiktheoretischen Kenntnisse iiber den Komponisten, die Epoche oder das Stiick selbst. Entspricht die AufRihrungspraxis diesen Kriterien, dann fallen auch solche Stiicke unter den Begriff der E-Musik, die zu ihrer Zeit zur Unterhaltung geschrieben wurden. Nicht relevant ist meines Erachtens auch die Darbietung durch „ernsthafte Musiker", wie manchmal zu lesen ist. Dagegen spricht die Existenz von Laienorchestern ebenso, wie die musikalischen Fahigkeiten von Studiomusikern fiir U-Musik-Produktionen. 7.1.2 U-Musik Erlaubt ist, was gefallt, U-Musik zeichnet sich dadurch aus, dass der Schwerpunkt nicht auf den Formalien liegt - sie sind aber auch dort sehr wohl vorhanden - sondern auf der Asthetik, und im Bereich der Popmusik leider immer wieder auch auf der Markttauglichkeit. Es hilft aber nicht, dariiber zu klagen. U-Musik wird heute breit vermarktet und fiir den Mediengestalter liegt die Herausforderung auch darin, moglichst viel kiinstlerischen Gehalt in der Produktion zu bewahren. Zur E-Musik gehort damit fast die gesamte heute noch bekannte Musik bis zum Ende des Expressionismus in der Mitte des 20. Jahrhunderts. Hier trennen sich der Jazz und die Neue Musik. Beides sind Musikrichtungen, die nach der Auflosung der festen musikalischen Strukturen streben. Im Jazz wird das durch die Improvisation umgesetzt und durch die Reduktion der Vorgaben im Zusammenspiel. Telle der Neuen Musik gehen die Aufgabe streng formalistisch an, indem sie verbietet, was vorher erlaubt und damit strukturbildend war. 7.1.3 F-Musik Eine weitere Kategorie ist die sogenannte Funktionelle Musik. In dieser Kategorie werden Werke zusammengefasst, die fiir bestimmte Aufgaben komponiert wurden. Filmmusik zum Beispiel oder Kirchenmusik. Das zeigt, dass es hierbei nicht um eine eigene musikalische Gattung handelt, sondern um eine organisatorische Gr6£e, die fiir die Produktion zuerst einmal unerheblich ist^. Natiirlich ist es wichtig, dass Filmmusik im richtigen Tempo produziert wird, damit sie spater zum Bild passt, es gibt aber keinen eigenen, einheitlichen Produktionsprozess fiir F-Musik.
7.3 Instrumente
59
7.2 Andere Unterscheidungskriterien 7.2.1 Vokal — Instrumental Instrumentalmusik unterscheidet sich von Vokalmusik allein dadurch, dass nicht gesungen wird. Begreift man die Singstimme als Instrument ist der Unterschied eher marginal. Transportiert die Singstimme aber Inhalte, dann hat das gravierende Auswirkungen auf die restlichen Instrumente und die Komposition. Der oder die Sanger miissen sich zu jeder Zeit gegeniiber dem resthchen Ensemble durchsetzen konnen. Sie erhalten implizit eine solistische Funktion. Das Fagott zum Beispiel tragt in einem Orchester zum Gesamtklang bei, ohne dass es dem Zuhorer normalerweise als eigenstandiges Instrument auffallt. Der Singstimme muss jedoch ein so exponierter Platz eingeraumt werden, damit sie dem Zuhorer nicht verborgen bleibt. 7.2.2 GroRe der Besetzung Die Besetzungsgrofie ist in der Musik nicht festgelegt. Bereits ein einzelner Mensch kann sowohl Instrumental- als auch Vokalmusik spielen oder singen. Kunstlieder werden typischerweise von zwei Musikern prasentiert, von denen einer singt, der andere begleitet. Kleinbesetzungen sind nach der Anzahl ihrer Musiker benannt: Terzett, Quartett, Quintett... Typische feste Kleinbesetzungen sind das Streichquartett - bestehend aus 1. und 2. Violine, Viola und Cello - und die Jazz-Quintette, bestehend aus einer Rhythmusgruppe und Solisten. Im Bereich der Klassik ist es die Kammermusik und fast die gesamte U-Musik wird von kleinen Besetzungen gespielt. GroEere Besetzungen sind allein aufgrund der Kosten eher selten. Grofie Besetzungen sind Chore, Orchester und Big Bands.
7.3 Instrumente Musik wird mit akustischen oder elektronischen Instrumenten gemacht. Die elektronischen Instrumente unterscheiden sich darin, dass sie entweder Klange synthetisch erzeugen oder akustische Klange elektronisch iibertragen. Akustische Instrumente bilden jedoch die Hauptgruppe. Diese lassen sich weiter unterteilen. Fiir die Betrachtung der Klangeigenschaften ist die folgende Gruppierung sinnvoll: • • • •
Blasinstrumente Saiteninstrumente Schlaginstrumente elektronische Instrumente
60
7 Musik
Jedes Instrument hat charakteristische Eigenschaften. Das ist einmal der Tonumfang. Die Orgel ist das einzige Instrument, das iiber den gesamten Tonumfang gespielt werden kann. Alle anderen Instrumente bilden einen kleineren Ausschnitt ab. Verschieden hoch klingende Instrumente in einer Gruppe sorgen dann fiir eine breite Abdeckung des Tonraums der Musik. Die Klangcharakteristik eines Instruments ist abhangig von seiner Obertonstruktur, seinem Einschwingverhalten und den spezifischen Gerauschen, die beim Spielen des Instruments entstehen. Der tiefste Ton eines Instruments bildet die untere Grenze seines Frequenzgangs. Die Obertone konnen bis in hohe Frequenzregionen reichen. Obertone sind ganzzahlige Vielfache des Grundtons. Von Instrument zu Instrument verschieden ist die Starke einzelner Obertone. Einfluss auf die Obertonstruktur haben auch die Tonhohe und die Lautstarke, die gespieh werden. Damit ein Musikinstrument Tone von sich geben kann, werden drei Bestandteile benotigt. Ein Erregungsmechanismus gibt den Impuls fiir die tongebende Schwingung. Dieser Impuls soUte moghchst vielfaltig sein, damit er Schwingungen in einem breiten Frequenzbereich auslosen kann. Dieser Impuls regt eine Schwingvorrichtung an, mit den gewiinschten Parametern zu schwingen. Die akustisch meist schwache Schwingung wird schlie£lich an das Ausbreitungsmedium Luft angepasst. 7.3.1 Blasinstrumente Blasinstrumente werden in der Musik in Blech- und Holzblasinstrumente unterteilt. Allen gemeinsam ist die Tonerzeugung durch eine schwingende Luftsaule im Inneren einer Rohre. Zu den Holzblasinstrumenten gehoren Floten, Klarinetten, Oboen, Fagotte und das Saxophon. Querfloten konnen aus Holz, aber auch aus Metall sein. Saxophone sind immer aus Metall. Dennoch gehoren sie aufgrund ihrer Herkunft zu den Holzblasinstrumenten. Blechblasinstrumente sind Trompeten, Posaunen und Horner. 7.3.1.1 Schwingung Blasinstrumente zeichnen sich dadurch aus, dass im Inneren einer Rohre eine Luftsaule schwingt. Das ist das Prinzip einer Pfeife. Die Rohre des Instruments kann - vereinfacht - zylindrisch sein, wie bei einer Querflote, konisch wie bei einer Oboe, offen wie eine Blockflote oder an einem Ende geschlossen wie bei einer Panflote sein. Geschlossene Pfeifen hei£en gedackt. Grundton Die Frequenz der Schwingung hangt ab von der Lange der Luftsaule. Diese wird auf der einen Seite durch die Anblasoffnung, auf der anderen Seite durch
7.3 Instrumente
61
die Begrenzung der Rohre oder das erste offene GrifHoch niarkiert. An den Begrenzungen werden die Schallwellen reflektiert. Es entstehen stehende Wellen. Gemai^ dem Prinzip der stehenden Wellen, miissen diese genau in die Lange der Luftsaule passen. Damit ergibt sicli fiir offene, zylindrisclie Pfeifen als Grundton die Frequenz mit der Wellenlange, die der Lange der schwingenden Luftsaule entspriclit.
^max
Pmax
^max
Abb. 7.1. Die Lange der schwingenden Luftsaule bestimmt die Wellenlange. Typisch fiir offene zylindrische Instrumente sind Block- und Querfloten. Beini Ubergang von einem Medium zum anderen, bei dem der Widerstand geringer wird, also hier beim Austritt aus der gesclilossenen Rohre, entsteht ein Sclmellemaximum durch die plotzlicli wegfallende Bremswirkung. Die Schnellemaxima an den beiden Endpunkten wirken als Knoten der stehenden WeUe. Bei einer gedackten Pfeife stellt sich die Situation etwas anders dar. Am geschlossenen Ende herrscht ein Druckmaximum, am offenen Ende ein Schnellemaximum. Das bedeutet, dass nur die halbe Welle als Grundton in der Rohre ausbreitet, bevor sie reflektiert wird. Bei gleicher Lange klingt der Grundton einer geschlossenen Pfeife also eine Oktave tiefer.
Pmax
V^ax
Abb. 7.2. Gedackte Pfeifen klingen bei halber Lange genauso tief. Der Prototyp der geschlossenen Pfeife ist die Panflote, die aber als Orchesterinstrument keine Bedeutung hat. Aber auch Klarinetten, Fagotte und Blechblasinstrumente sind geschlossene Pfeifen. Hohere Grundtone werden durch Uberblasen gespielt. Dabei ,springt' der Grundton entlang der Obertonreihe auf ein hoheres Niveau. Bei Floten ist der iiberblasene Ton eine Oktave hoher, bei der Klarinette, der dieser zweite Oberton fehlt ist es die Quinte iiber der Oktave. Besonders weit werden Blechblasinstrumente iiberblasen. Trompeten lassen sich bis zum siebten, Horner sogar bis zum fiinfzehnten Oberton iiberblasen. Blasinstrumente sind anfallig fiir Temperaturanderungen. Steigt aufgrund von Reibungseffekten die Temperatur der schwingenden Luftsaule, dann an-
62
7 Musik
dert sich die Schallgeschwindigkeit und damit auch die Tonhohe des gespielten Tons. Blasinstrumente miissen deshalb warmgespielt und bei Bedarf nachgestimnit werden. Obertone In der Luftsaule einer Pfeife konnen sich stehende Wellen entwickeln, deren Wellenlange in die Begrenzung der Rohre passt. Die Begrenzung ist dieselbe wie fiir den Grundton. Fiir ofFene Pfeifen gilt das fiir alle ganzzahligen Vielfachen der Grundfrequenz.
Abb. 7.3. Obertone sind ganzzahlige Vielfache der Grundfrequenz. Fiir gedackte Pfeifen gilt es nur fiir die ungeradzahligen Vielfachen der Grundfrequenz. Das hat den Grund, dass sich am geschlossenen Ende der Pfeife zwingend ein Druckmaximum, am offenen Ende zwingend ein Schnellemaximum befinden muss. Das ist nur bei den ungeradzahligen Obertonen so.
Abb. 7.4. In gedackten Pfeifen konnen sich nur ungeradzahlige Vielfache der Grundfrequenz entfalten. Die Obertonstruktur ist auEerdem abhangig von der Ausformung der Rohre. In konischen Pfeifen werden alle Obertone erzeugt, auch wenn sie geschlossen sind, zum Beispiel bei Oboen. 7.3.1.2 Erregung Damit die Luftsaule im Inneren der Pfeife schwingen kann, muss sie dazu angeregt werden. AUen Blasinstrumenten gleich ist die Tatsache, dass die Schwingung der Luft im Instrument sehr schnell wieder zum stehen kommt, sobald die Erregung unterbrochen ist. Vorteilhaft daran ist, dass man keinen Dampfungsmechanismus braucht, um kurze Tone spielen zu konnen, negativ stellt sich dar, dass es einer permanenten Erregung bedarf, um lange Tone zu spielen. Um die Luftsaule zur Schwingung anzuregen, gibt es zwei unterschiedliche Verfahren. Das der Zungenpfeifen und das der Lippenpfeifen.
7.3 Instrumente
63
Lippenpfeifen Bei den Lippenpfeifen wird eine Kante angeblasen. Dort entstehen Verwirbelungen, die eine komplexe Schwingung in die Luftsaule der Pfeife einbringen. Typische Vertreter sind die Floten und viele Orgelpfeifen. Zungenpfeifen Bei Zungenpfeifen liegt eine bewegliche Lamelle, dicht am Durchlass zur Rohre des Instruments. Wird diese Zunge angeblasen, dann beginnt sie zu schwingen und verschliefit und offnet abwechselnd den Zugang zur Rohre. Es gibt einfache Zungenpfeifen, bei denen eine Zunge gegen eine feste Barriere schwingt und Doppelzungen, bei denen zwei bewegliche Zungen gegeneinander schwingen. Zur ersten Gruppe gehoren die Klarinetten, zur zweiten die Oboen und auch die Blechblaser. Ein Blechblaser bildet zwar den Erregungsmechanismus mit seinen Lippen, bei dem System handelt es ich aber dennoch um eine Doppelzungenpfeife. 7.3.1.3 Anpassung Die Anpassung an das Ausbreitungsmedium Luft am Ausgang des Instruments geschieht bei den meisten Blasinstrumenten iiber einen unterschiedlich geformten Schalltrichter. So wird mehr Schwingungsenergie fiir die Schallabstrahlung genutzt. Der Wirkungsgrad steigt. Instrumente, die keinen Schalltrichter haben, klingen dementsprechend leiser, zum Beispiel Querfloten. 7.3.1.4 Floten Als Floten werden die Panfloten, als gedackte Lippenpfeife und Blockfloten und Querfloten als offene Lippenpfeifen unterschieden. Blockfloten gibt es in verschiedenen Tonlagen, die in der Orchestermusik wichtigste Gattung der Querfloten unterteilt sich in Quer- und Piccolo-Flote. Bei der Panflote sind viele verschiedene Rohren zusammengefiigt, die alle unterschiedlich lang sind. Jede Rohre erzeugt Tone einer bestimmten Tonhohe. Andere Floten haben eine einzige Rohre, in die verschiedene Locher gebohrt sind. Um die Lange der schwingenden Luftsaule und damit die Tonhohe zu verandern werden die Locher dann mit Klappen oder den Fingern verschlossen. Die SchaUabstrahlung erfolgt iiber die Anblaskante und iiber das erste geoffnete Griffloch. Am Ausgang der Rohre wird nur ausnahmsweise Schall abgestrahlt. Charakteristische Nebengerausche sind das Anblasgerausch und bei Querfloten auch Klappengerausche.
64
7 Musik Tabelle 7 . 1 . Floteii und ihre Arbeitsbereiche. Instrument Grundtonunifang Grundtonfrequenzbereich
7.3.1.5
Piccoloflote c^-d^
500-4700 Hz
Querflote
250-2350 Hz
c^-d^
Rohrblattinstrumente
Die bekanntesten Vertreter sind die Klarinette und das Saxophon. Saxophone werden in Sopran, Alt, Tenor und Bass-Lage gebaut. Die Schallabstrahlung erfolgt einerseits iiber den Trichter, andererseits aber auch iiber die Grifflocher. Vor allem beini Saxophon wird iiber die Mikrofonposition zwischen zwei grundlegenden Klangvarianten ausgewahlt. Die Abnahme am SchaUtrichter sorgt fiir einen rauen, aggressiven und druckvoUen Klang, was fiir Soul- und Funkmusik gewiinscht wird. Jazz-Musiker und im Bereich der Klassik wird der Ton nieist oberhalb der Klappen abgenonimen, der Klangcharakter wird weich und ahnelt einer Klarinette. Luftgerausche sind vorwiegend bei leisen Passagen wahrnehmbar.
Tabelle 7.2. Rohrblattinstrumente und ihre Arbeitsbereiche. Instrument
Grundtonumfang Grundtonfrequenzbereich
Klarinette
d-a^
Sopran-Saxophon b-f^
7.3.1.6
150-1800 Hz 200-1400 Hz
Alt-Saxophon
es-b^
150-950 Hz
Tenor-Saxophon
B-f^
100-700 Hz
Bass-Saxophon
Asi-e^
50-350 Hz
Doppelrohrblattinstrumente
Die Oboe sowie das Fagott und das Kontrafagott sind die Holzblasinstrumente dieser Instrunientengattung. Dazu komnien alle Blechblasinstruniente. Charakteristisch fiir Doppelrohrblattinstrumente ist, dass der Musiker nur wenig Luft in das Instrument einbringt. So lassen sich sehr lange Tone spielen, vor dem Einatmen muss der Musiker jedoch die iiberfliissige Luft ausatmen. Dadurch sind Atempausen langer als bei anderen Blasinstrumenten. Da die Rohre einer Oboe konisch geformt ist, werden in ihr alle Obertone produziert, obwohl sie zu den gedackten Pfeifen gehort. 7.3.1.7 Sonstige Es gibt noch einige andere Instrumente, deren Klangerzeugung durch einen Luftstrom zum Schwingen gebracht werden. Dieser Luftstrom kann nicht nur
7.3 Instrumente
65
Tabelle 7.3. Doppelrohrblattinstrumente und ihre Arbeitsbereiche. Instrument
Grundtonumfang Grundtonfrequenzbereich
Oboe
b-a^
200-1800 Hz
Fagott
Bi-f
50-700 Hz
Kontrafagott C2-h
16-250 Hz
Tabelle 7.4. Blechblasinstrumente und ihre Arbeitsbereiche. Instrument Grundtonumfang Grundtonfrequenzbereich B-Trompete es-d^
150-1200 Hz
Posaune
Ci-es^
32-650 Hz
Horn
Bi-b^
50-1000 Hz
Tuba
Desi-h^
35-500 Hz
durch das Anblasen mit dem Mund erzeugt werden, sondern auch durch einen Blasebalg, wie bei einer Orgel, eineni Harmonium oder einem Dudelsack. Eine weitere G a t t u n g sind Instrumente, bei denen die Zunge der Pfeife keine Luftsaule erregt, sondern selbst in einer definierten Frequenz schwingt. Dieses Prinzip findet m a n in der Mundharmonika und dem Akkordeon. Orgelpfeifen gibt es in sehr vielen verschiedenen Ausfiihrungen, sowohl offen, als auch geschlossen, als Lippen- und Zungenpfeifen. Hinzu kommen spezielle Pfeifen mit Effektklangen. Aui^erdem entsteht ein Klang aus der Kombination verschiedener Register. Vom typischen Klang einer Orgel zu spreclien, wird diesem Instrument deslialb nicht gereclit. 7.3.2
Saiteninstrumente
Auch Saiteninstrumente sind aus den drei Bestandteilen Erregungsmechanismus, Schwingungstrager und Anpassungsvorrichtung aufgebaut. W a h r e n d bei den Blasinstrumenten eine Luftsaule in Schwingung versetzt wurde, iibernimmt diese Aufgabe bei den Saiteninstrumenten eben eine Saite. 7.3.2.1
Schwingung
Die Schwingung einer Saite ist eine Transversalschwingung. Einmal angeregt, schwingt sie solange, bis die umgebende Luft durch ihren Reibungswiderstand der Schwingung die notwendige Energie entzogen hat. Eine Saite klingt also nach, wenn sie nicht gedampft wird. Deshalb ist ein weiterer Bestandteil eines Saiteninstruments haufig auch ein Dampfungsmechanismus. Grundton Der Grundton einer Saite ist abhangig von seiner Lange, seiner Spannung und seiner Masse pro Langeneinheit. Der Grundton wird umso hoher, je kiirzer,
66
7 Musik
je starker gespannt oder je leichter eine Saite pro Langeneinheit ist. Die Saite ist in eine Vorrichtung eingespannt, die sie an zwei Seiten begrenzt. Der Weg zwischen diesen beiden Begrenzungspunkten ist die Lange der Saite. Manchen Saiteninstrumenten, wie das Klavier - das ein Saiteninstrument ist, wenn man lediglich die Art der Tonerzeugung betrachtet - oder die Harfe, haben fiir jeden Ton, den sie hervorbringen konnen, eine eigene Saite. Andere Instrumente, wie die Gitarren oder die Streichinstrumente haben einen geringen Satz an Saiten in definierten Tonhohen. Uber ein GrifFbrett wird die Lange der Saite verandert und so die gespielte Tonhohe reguliert. Neben der Veranderung der Saitenlange lasst sich die Hohe des Grundtons einer Saite auch einstellen, indem man Schwingungsknoten an bestimmten Stellen der Saite erzwingt. Das erreicht man, indem man an der gewiinschten Stelle die Saite bedampft, ohne sie jedoch so stark zu fixieren, dass es wie eine Verkiirzung wirkt. Dabei entstehen die sogenannten Flageolett-Tone. Diese kiinstlichen Schwingungsknoten konnen nur dort erzeugt werden, wo reale Obertone Schwingungsknoten haben konnen. Also bei ganzzahhgen Teilungsverhaltnissen der Saitenlange. Obertone Eine Saite kann in alien Frequenzen schwingen, deren Wellenlange ganzzahlig auf die Lange der Saite verteilt werden kann. Tatsachlich schwingt eine Saite auch immer in mehreren Frequenzen. In welcher Zusammensetzung die Obertone auftreten, ist abhangig davon, wie die Saite zum Schwingen gebracht wird. Bei der Erregung - unabhangig davon, wie das geschieht - wird die Saite verformt und aus ihrer Ruhelage gebracht. Die Auslenkung der Saite in dem Moment, in dem der Erregungsimpuls endet - oder besser, der Moment in dem die Saite ihre Eigenschwingung beginnt - ist ein momentaner Schwingungszustand. Diese Verformung lasst sich mathematisch durch die Uberlagerung von Schwingungen erklaren. Die Obertone sind also in der Auslenkung der Saite kodiert. Das erklart, weshalb sich die Obertonstruktur von Saiteninstrumenten andert, wenn die Erregung an einer anderen Stelle passiert, selbst wenn die Art und die Starke des Impulses konstant sind. 7.3.2.2 Erregung Saiteninstrumente verwenden die unterschiedlichsten Mechanismen, um eine Saite zum Schwingen anzuregen. Sie werden gezupft, geschlagen oder gestrichen. Zu den Instrumenten, die eine Saite anzupfen gehoren die Gitarre, das Cembalo oder Pizzikati der Streichinstrumente, vor allem auch des Kontrabass' im Jazz und natiirlich der Harfe. Angeschlagen wird die Saite vom Klavier oder dem Hackbrett und gestrichen werden Violine, Viola, Cello und Kontrabass. Grundsatzlich unterschiedlich ist die Dauer der Erregung, die bei den gestrichenen Instrumenten kontinuierlich erfolgt, bei alien anderen aber impuls-
7.3 Instrumente
67
haft. Das hat auch gravierende Auswirkungen auf die Klangstruktur. Die dauerhafte Erregung der Streichinstrumente fiihrt zu einer Sagezahnschwingung, wahrend bei den anderen Verfahren die schon beschriebene Auslenkungsforni der Saite fiir die Obertonstruktur verantwortlich ist. Auch das Ausschwingverhalten ist von der Art der Erregung abhangig. Streichinstrumenten wird kontinuierlich Energie zugefiihrt, somit sind kontinuierliche Tone moghch. Die anderen schwingen nach der Erregung in relativ kurzer Zeit wieder aus, und werden haufig auch vor dem natiirhchen Ende der Schwingung bedampft. Manche Instrumente verfiigen iiber eine Anschlags- oder Zupfmechanik, wie das Klavier oder das Cembalo. Hier sind iiber den Anschlag nur geringe Variationen des entstehenden Klangs moghch, bei anderen Instrumenten, die mit der Hand oder einem Schlegel angeregt werden, lasst sich dieser Punkt der Erregung und damit neben der Dynamik auch die Klangfarbe des Tons in weiten Bereichen variieren. 7.3.2.3 Anpassung Die Anpassung an das Ausbreitungsmedium geschieht mittels eines Resonanzkorpers. Dieser Resonanzkorper ist elastisch mit der Saite verbunden und kann so die Energie der Schwingung aufnehmen und durch Eigenschwingung an die umgebende Luft abgeben. Die Resonanzkorper sind akustisch sehr komplex. Sie werden so gebaut, dass sie iiber einen weiten Frequenzbereich schwingen konnen, wobei immer nur Teile in Bewegung sind. Fiir einen vielfaltigen Klang ist diese Eigenschaft des Resonators entscheidend. Da immer nur Teile des Resonanzkorpers schwingen, muss man bei der Mikrofonierung von Instrumenten mit Resonanzkorpern ganz besonders darauf achten, dass man einen Bereich findet, der klanglich nahe an das gewiinschte Ergebnis herankommt. Bei den Streichinstrumenten und den Gitarren ist es der Korpus, der als Resonanzkorper fungiert. Konzertfliigel haben einen Resonanzboden, der die Schwingungen weiterleitet. Der Korpus einer Harfe ist relativ klein, was die geringe Lautstarke des Instruments erklart. Tabelle 7.5. Saiteninstrumente und ilire Arbeitsbereiche. Instrument Grundtonumfang; Grundtonfrequenzbereich Violine
4
a-g
200-3150 Hz
Viola
c-f
100-1400 Hz
Cello
C-c^
50-1050 Hz
Kontrabass Ei-g^
41-400 Hz
Gitarre
E-e^
50-700 Hz
Piano
Aa-c^
27-4200 Hz
Harfe
Cesi-ges''
62-3000 Hz
68
7 Musik
7.3.3 Schlaginstrumente Schlaginstrumente gibt es tonhaft und lauthaft. Charakterisiert sind sie durch ein nicht priniar harnionisches Schwingungsverhalten. Bisher wurde ja imnier von einer harnionischen Obertonreihe ausgegangen, in der alle Obertone ganzzahlige Vielfache der Grundfrequenz sind. 7.3.3.1 Schwingung Als Schwinger werden holzerne oder metallische Gegenstande oder mit Kunstoder Naturfell bespannte Tonnen und Kessel verwendet. Schlagfelle Das Schwingverhalten von Schlagfellen wird ahnlich wie das der Saiten durch die Auslenkung beeinflusst die bei der Erregung aufgetreten ist. AUerdings hat das FeU mit seiner zweidimensionalen Ausdehnung unterschiedhche Schwingungsmuster. Nur wenn das Fell in der Mitte angeschlagen wird, schwingt es auf seiner ganzen Flache gleichphasig. Sonst kommt es zu Partial- oder Teilschwingungen. Die Knoten der Teilschwingungen liegen entweder auf konzentrischen Kreisbahnen oder entlang des Durchmessers des FeUs. Ausgedriickt wird der Schwingungszustand eines Fells mit dem Ausdruck nm-Mode. n bezeichnet die Anzahl der Knotendurchmesser und m die Anzahl der Knotenkreise. Die Schwingung des gesamten Fells ist also beispielsweise die 01-Mode, well es keinen Knotendurchmesser gibt, sondern nur einen Knotenkreis, nanilich ganz aufien an der Begrenzung des Fells. Abbildung 7.5 zeigt die ersten Moden sortiert nach der Hohe der Teiltonschwingungen. Diese Schwingungen sind nicht harmonisch zur Grundfrequenz.
41
22
03
51
23
61
Abb. 7.5. Ubersicht iiber verschiedene Moden. Felle konnen tonhohenorientiert gestinimt werden. Sie haben auch imnier einen verhaltnismafiig hohen tonalen Anted. Oft ist diese Tonalitat aber nicht erwiinscht. In diesem FaU werden die Felle absichthch verstimmt. Das lasst die Tromnieln auch schneller ausklingen, zuni Beispiel Tom-Toms.
7.3 Instrumente
69
Die Obertonstruktur ist von vielen Faktoren abhangig. Vom Ort und der Starke des Anschlags, vom Material des Schlegels von der FellbeschaflFenheit und seiner Spannung. Tromnieln haben oft ein Resonanzfell, das vor allem in die raumliche Abstrahlung eingreift. Je nach Stinimung entsteht eine Richtwirkung. Sind Fell und Resonanzfell gleich gestimnit, so konimt es bei gleicliphasigen Scliwingungen zu einer starken Dampfung neben der Trommel. Meist wird das Resonanzfell deshalb hoher gestimmt. Der Scliall eines Schlagfells kann aufgrund des grofien Durclimessers gut an die Luft abgegeben werden. Deshalb sind aucli Trommeln ohne Resonanzkorper - wie Roto-Toms oder das Tambourin - sclion verhaltnisma£ig laut. Der Kessel einer Trommel tragt auch nicht zur Scliallabstralilung bei. Er koppelt jedocli das Schlag- mit dem Resonanzfell. Wiclitig fiir die Abnalime von Trommeln ist das Wissen um die Pliasenlage der Schwingung. Schwingen Schlagund Resonanzfell gleicliphasig, dann stralilt die Trommel nach au£en, das heifit nach oben und unten gegenphasig ab. Mochte man den Teppich einer kleinen Trommel stiitzen, so muss man in diesem Kanal die Phase drehen, damit es nicht zu Ausloschungen kommt. Becken Becken gehoren zu den gerauschhaften Instrumenten. Die Anzahl der Frequenzen, die sie hervorbringen ist sehr hoch und die Frequenzverteilung ergibt keine harmonische Obertonreihe. Ahnlich verhalt es sich auch mit Glocken, die keinen harmonischen Obertonverlauf zeigen. Dennoch hort man einen Grundton, der aber meist deuthch hoher ist, als der tiefste Ton, den ein Becken oder eine Glocke hervorbringt. Der Grundton entsteht, well das Ohr aus dem gesamten Frequenzgemisch eine scheinbar harmonische Obertonreihe extrahiert. Oft sind die tiefen Tone aber gar nicht erwiinscht, wenn das Becken als kurzer gerauschhafter Akzent eingesetzt werden soil, dann sollen die meist lang klingenden tiefen Tone nicht vordergriindig in Erscheinung treten. Auch Becken haben eine gro£e Oberflache, die die Schwingung gut an die Luft abgeben kann. Einen separaten Resonanzmechanismus gibt es deshalb nicht. Klangstdbe Klangstabe sollen in einer definierten Tonhohe klingen. Sie werden oft zu Instrumenten gruppiert, die in der Lage sind, zumindest in bestimmten Tonarten mitzuspielen. Orchesterinstrumente konnen das meist sogar chromatisch. Typischerweise bestehen sie aus Holz oder Metall Welcher Grundton erkhngt, ist abhangig von der Form des Stabes. Bei gleicher Breite wird normalerweise die Lange variiert. Xylophone und Marimbaphone haben Klangstabe aus Holz. Beim Marimbaphon wird unterhalb eines Stabes eine Rohre als Resonator aufgehangt, deren Lange zur Wellenlange des jeweiligen Tons passt. Metalhsche Stabe haben die Celesta, die L y r a - das Glockenspiel, das man von Spielmannsziigen kennt.
70
7 Musik
und das Vibraphon. W a h r e n d das Glockenspiel ohne Resonator auskommt, hat das Vibraphon einen marimbaahnlichen Unterbau. Die Resonanzrohren werden jedoch periodisch geoffnet und geschlossen, so dass ein pulsierender Klang entsteht. Durch den klavierahnlichen Aufbau konnen die Stahlstabe oder Stimmgabeln einer Celesta mit einem Resonanzboden verbunden sein. Besonders bei den leise klingenden Stimmgabeln ist das unerlasshch.
Tabelle 7.6. Schlaginstrumente und ihre Arbeitsbereiche. Instrument
Tonumfang Frequenzbereich
Celesta
c^-c^
260-4200 Hz
Xylophon
c^-c^
260-4200 Hz
Marimbaphon c^-c^
260-4200 Hz
Pauke
70-300 Hz
Des-d^
7.3.4 E l e k t r o n i s c h e I n s t r u m e n t e Elektronische Instrumente wandeln entweder die Schwingung eines physikalischen Schwingers mit Hilfe eines Tonabnehmers in elektrische Spannung um oder sie erzeugen eine eigene Schwingung. Bei der elektronischen Klangerzeugung wird wiederum zwischen Klangsynthese und Sampling unterschieden. 7.3.4.1
Tonabnehmer
Tonabnehmer finden sich vorwiegend in E-Gitarren und halbakustischen Gitarren, sowie E-Pianos. Fiir die Schallwandlung infrage kommen magnetische und piezoelektrische Tonabnehmer. Magnetisch Elektrodynamische Tonabnehmer arbeiten nach dem Prinzip der Induktiori^. Daraus folgt, dass der Schwinger aus elektrisch leitendem Material gefertigt sein muss. Bei E-Gitarren sind es Stahlsaiten, ebenso wie beim Klavier und im bekannten Fender Rhodes schwingen metallische Klangstabe. Zwei bekannte Bauformen von Gitarrentonabnehmern hei£en Single Coil und Humbucker. Beim Single Coil Pickup ist ein Stabmagnet mit Draht umwickelt. Die Saite schwingt im Magnetfeld und in der Spule wird eine Spannung induziert. Der Humbucker hat zwei Spulen. Der Vorteil liegt einmal in der hoheren Ausgangsspannung und aufierdem werden aufiere Einstreuungen minimiert. In der Praxis sind E-Gitarren meist mit mehreren Tonabnehmern bestiickt, die sich in ihrer Konstruktion und Position unterscheiden. So kann Siehe auch 9.1.1.1.
7.3 Instrumente
71
man den Klang einer elektrischen Gitarre schon durch die Auswahl der genutzten Tonabnehmer variieren. Da die Tonabnehnier nur die Schwingung der nietallischen Saite ini Magnetfeld iibertragen, brauchen E-Gitarren keinen Resonanzkorper. Die Signale, die ein Gitarren-Tonabnehmer liefert, werden nur selten direkt aufgezeichnet. Sie ergeben erst im Zusammenspiel mit einem Gitarrenverstarker den typischen gewiinschten Klang. Der Gitarrenverstarker wird dann wiederum mit einem Mikrofon abgenommen. Anders verhalt es sich bei Bassgitarren. Hier kann das Signal bereits liinter dem Vorverstarker abgegriffen und fiir die Aufnahme verwendet werden. Piezoelektrisch Der Piezo-Effekt beschreibt das Phanomen, dass eine Spannung aufierhalb eines Korpers auftritt, wenn Druck auf ihn ausgeiibt wird. Dieses Prinzip wird fiir Tonabnelimersysteme in giinstigen Scliallplattenspielern verwendet und fiir die Abnalime lialbakustischer Instrumente. Anders als bei der E-Gitarre wird bei den piezoelektrisclien Tonabnelimern ein schwingender Korpus benotigt. Dafiir ist das Material der Saite irrelevant. Eingebaut werden diese Pickups meist in der Nalie des Steges. Der daraus resultierende Klang hat mit dem einer akustischen Gitarre nur bedingt etwas gemeinsam. Deshalb ist ein Mikrofon vor der Gitarre fiir einen natiirlichen Klang immer die bessere Wahl. Eingebaute Pickups sind auf der Biihne praktisch und der Klang solcher Instrumente kann durchaus auch gewiinscht sein. Im Studio werden sie im Allgemeinen nicht verwendet. 7.3.4.2 Klangsynthese Das Wort Klangsynthese bedeutet, dass ein Klang in der Natur nicht existiert, sondern voUig neu erschaffen wird. Die Instrumente, die ihre Tone synthetisch erzeugen hei£en Synthesizer. Das Prinzip eines Synthesizers ist, eine moglichst komplexe Schwingung zu erzeugen, die mit Filtern und Hiillkurvengeneratoren in ihrem Frequenzspektrum und dem zeitlichen Verlauf beeinflusst wird. Fiir die Erzeugung der komplexen Schwingung gibt es verschiedene Verfahren. Nachfolgend beschrieben werden die Additive Synthese, die Subtraktive Synthese, die FM-Synthese, die Wavetable-Synthese und das Physical Modeling. Anschliei^end geht es um Hiillkurven und die Module, die in den alten modularen Synthesizern zu finden waren. Mit ihnen lasst sich einerseits die Wirkungsweise eines Synthesizers gut erklaren, zum anderen sind heute virtuelle modulare Synthesizer, die die alten Bezeichnungen wieder aufgreifen, sehr behebt. Additive Synthese Bei der Additiven Synthese wird die Tatsache praktisch ausgenutzt, dass sich jede Schwingung in sinusformige Teilschwingungen zerlegen lasst. Im Um-
72
7 Musik
kehrschluss lasst sich also jede Schwingung durch Addition von Sinusschwingungen erzeugen. Nimnit man fiir den Grundton einen Sinusgenerator, fiir die Obertone jeweils einen weiteren, dann kann man prinzipiell den Frequenzaufbau eines jeden Instruments simulieren oder auch ganz neue Obertonreihen und Zusammensetzungen entwerfen. Der Nachteil der Additiven Synthese wird schnell klar, wenn man den Aufwand betrachtet, eine Schwingung zu erzeugen. Man braucht unter Umstanden sehr viele Tongeneratoren, die in der analogen Welt der 1970er und 80er Jahre sehr teuer waren. Ein zweistimmiger Synthesizer mit einem Grundton und fiinf Obertonen braucht bereits zwolf Sinusgeneratoren. Wie spater noch deutlich wird, reicht es nicht, nur die Frequenzen nachzubilden. Auch der zeitliche Verlauf und die Dynamik der Obertonstruktur miissen stimmen. Das macht den Aufbau noch aufwandiger. Subtraktive Synthese Als die additiven Synthesizer an ihre Leistungsgrenze stiefien, drehte man den Spie£ um und benutzte von Anfang an komplexe Schwingungen, die meisten Gerate boten Dreieck-, Rechteck-, sowie auf- und absteigende Sagezahnschwingungen an. Aus diesen Klangen wurden dann mit Filtern die Frequenzbereiche entfernt, die nicht gewiinscht waren. Mit der subtraktiven Synthese wurden mehrstimmige Synthesizer bezahlbar. Der Nachteil war aber der geringe Einfluss auf die Obertonstruktur. Frequenzbereiche konnten zwar mit Hilfe von Filtern angehoben oder abgesenkt werden, das Spektrum der existierenden Obertone war aber durch die zugrunde liegende Wellenform vorgegeben. FM-Synthese Dem Wunsch der Musiker nach der Moglichkeit, neuartige Klange zu schaffen, wurde mit der FM-Synthese in besonderer Weise Rechnung getragen. Bei der FM-Synthese wird auf eine Tragerfrequenz eine weitere Schwingung aufmoduliert. Die Tonhohenverhaltnisse von Trager- und Modulatorschwingung sind aufeinander synchronisiert. So werden fiir eine Additive Synthese einer komplexen Schwingung nur zwei Generatoren benotigt, das Ergebnis enthalt aber unter Umstanden eine gro£e Zahl an Obertonen. Durch die beliebige Kombination dieser Frequenzverhaltnisse waren sehr ausgefallene, zum Beispiel auch gerauschhafte Klange mit anharmonischen Obertonreihen moglich. Die FM-Synthese war die Klangerzeugung des DX7 von Yamaha, ohne den kein Keyboarder in den 1980er Jahren eine Biihne betreten hatte. Mit dem DX7 wurde das digitale Zeitalter der Synthesizer eingelautet. Das brachte Vorteile wie einen kompakten Aufbau und die Moglichkeit, die Parameter abzuspeichern. Der DX7 war aber nicht einfach zu programmieren und es war fiir einen Laien ein Gliickspiel, ob er dem Gerat iiberhaupt einen verwertbaren Klang entlocken konnte. Denn die Ergebnisse der FM-Synthese lassen sich gedanklich nicht ausreichend vorhersagen. Es entstand ein - ich bin fast geneigt,
7.3 Instrumente
73
es einen Wirtschaftszweig zu nennen - Betatigungsfeld fiir Soundtiiftler, die ihre Ergebnisse auf Disketten an die Musiker verkauften. Wavetable-Synthese Man kann dariiber streiten, ob die Wavetable-Synthese wirklich als Syntheseforni gelten darf. Denn hier werden Klange verwendet, die tatsachlich in der Natur vorkommen. Und das Prinzip ist auch nicht dazu gedacht, neuartige Klange hervorzubringen. In erster Linie soUen akustisclie Instrumente synthetisch wiedergegeben werden. Man spricht deshalb auch bei dieser Gattung eher von Sample Playern als von Synthesizern. Grundsatzlich besteht aber ein solches Sample aus einer komplexen Schwingung. So kann durchaus durch die Anwendung von Filtern und Hiillkurvengeneratoren ein neuer, synthetischer Klang entstehen. Dazu nimnit man das Instrument, das man ,synthetisieren' niochte auf. Diesen Vorgang nennt man auch Samplen^. Dieser Originalklang wird dann in seine zeitlichen Bestandteile - das Einschwingen, den quasistationaren Ton und das Ausschwingen - zerlegt. Die Tonhohe wird durch Transponierung der Frequenz des Original-Samples verandert. Der quasistationare Klang wird so lange der Ton andauern soil gespielt. Das Wirkprinzip zeigt bereits auf, wo die Schwachen liegen. Bei der Besprechung der akustischen Instrumente wurde auch iiber Formanten gesprochen. Diese Resonanzfrequenzbereiche sind unabhangig von der Tonhohe, die gespielt wird. Transponiert man ein Sample transponiert man aber eben auch die klingenden Formanten. Das fiihrt dazu, dass das Instrument bereits nach wenigen Halbtonen seinen natiirlichen Klang verliert und sich die Klangfarbe andert. Um diesen Effekt abzumildern, werden mehrere Samples iiber den gesamten Tonbereich genommen. Fiir den zu spielenden Ton wird dann jeweils das nachstliegende Sample transponiert. Je kleiner die Intervalle werden, desto natiirlicher wird der Klang, aber desto grower ist auch der Speicherplatzbedarf. Neben der Transponierung spielt auch die Spielweise eine grofie RoUe. Instrumente klingen leise anders, als wenn sie laut gespielt werden. Dazu kommen weitere Spieltechniken. Ein angeschlagener und gehaltener Ton auf den Klavier klingt anders, als derselbe Ton bei gedriicktem Haltepedal, well hier alle Saiten mitschwingen konnen. Um wirklich natiirlich klingende Instrumente zu simulieren, miissen sehr viele Samples vorhanden sein. Physical Modeling Mit Hilfe der Digitaltechnik kann jede Schwingung, deren Parameter man kennt, berechnet und synthetisiert werden. Das wird mit vielen analogen Filtern so gemacht, die in der Tonstudiotechnik zu Legenden geworden sind. Man misst zum Beispiel eine Filtercharakteristik und bildet sie digital nach. Auf diese Art gibt es mittlerweile zu vielen analogen Geraten digitale Pendants. To sample ist englisch und bedeutet so viel wie eine Probe nehmen.
74
7 Musik
Physical Modeling versucht das Gleiclie mit Musikinstrumenten. Da liier niclit mit Samples gearbeitet wird, liandelt es sicli um eine eclite Synthese. Der Klang eines Instruments besteht aus vielen Einzelteilen. Der Erregungsmeclianismus erzeugt Gerausche und regt einen Scliwinger an, Resonanzkorper verbiegen mit iliren Formantbereichen den Frequenzgang und der eigentliclie Schwinger scliwingt in einer physikaliscli nachvollzielibaren Form. Beim Physical Modelling wird das Verhalten der Einzelteile analysiert und mathematisch beschrieben. So entsteht ein theoretisches ModeU eines Instruments. Dabei werden auch die Wechselwirkungen zwischen den Einzelsystemen beriicksichtigt. Je genauer das Modell die Wirklichkeit beschreibt, desto ahnlicher wird der Klang des virtuellen Instruments dem des echten. HiiUkurve Die HiiUkurve beschreibt den zeitlichen Verlauf eines Klangs. Friiher wurde mit dreiphasigen Hiillkurven gearbeitet, wahrend die Standard-Beschreibung eine HiiUkurve in vier Abschnitte gliedert. Genannt wird das Modell die ADSR-Hiillkurve, fiir die vier Parameter Attack, Decay, Sustain und Release. Attack beschreibt den Einschwingvorgang bis zu seinem starksten Punkt. Sustain bezeichnet die quasistationare Plateauphase bis zum Ende der Erregung, bis also zum Beispiel die Taste eines Pianos losgelassen wird. Sustain bedeutet also nicht, dass es sich um einen endlosen Ton handeln muss. Es kann sein, dass er in kiirzerer Zeit, wie bei einer Trommel, oder auch in langerer Zeit, wie beim Klavier verklingt. Der Eintritt in den quasistationaren Bereich muss nicht am hochsten Punkt an die Attack-Phase anschliei^en. Es kann sein, dass der Erregungsmechanismus eine iiberschie£ende Charakteristik hat und die HiiUkurve vor dem Eintritt in den quasistationaren Klang zunachst abfallt. Das bezeichnet der Parameter Decay. Release schlie£lich beschreibt das Ausklingen des Instruments, nachdem die Schwingung beendet ist. Oboe S
Abb. 7.6. ADSR-Hiillkurve fiir Klavier und Oboe. Das Klavier zeigt den impulshaften Anstieg beim Anschlag des Hammers. Die Schwingung stabilisiert sich nach kurzer Zeit zu einer konstanten Schwingung, die langsam abklingt. Nachdem die Taste losgelassen wurde und die Saite bedampft ist, schwingt das Instrument noch kurz nach. Bei der Oboe schwillt der Ton zu seiner hochsten Amplitude an und bleibt dann konstant. Eine spiirbare Decay-Phase gibt es bei diesem Ton nicht. Der Release-Vorgang ist bei Blasinstrumenten extrem kurz.
7.3 Instrumente
75
Die ADSR-Hiillkurve ist eine gute Naherung, mit der sich Naturinstruniente in den meisten Fallen hinreicliend beschreiben lassen. Es sind aber weitere Parameter denkbar. So konnte vor dem Sustain eine konstante Phase eintreten, bei der der Klang unverandert bleibt. Modulare Synthesizer Welclien Moglichkeiten es gibt, einen koniplexen Klang zu fornien wurde bereits besclirieben. Bei der naclifolgenden Beschreibung konimt die Additive Synthese zum Einsatz. Bei virtuellen niodularen Instrunienten kann aber durchaus auch die Funktionalitat der FM-Syntliese implementiert sein. Fiir die Beschreibung der Bestandteile und die anschlie£ende Manipulation des Klangs ist die Additive Synthese jedoch gut geeignet. Fiir ein funktionierendes System benotigt man durchstimmbare Tongeneratoren, Filter zur Klangverfarbung und HiiUkurvengeneratoren. Diese Elemente werden iiber Patchkabel miteinander verbunden. Es gibt Audio-Verbindungen und Steuerverbindungen. VCO - Voltage Controlled Oscillator: Ein Tongenerator hei£t Oszillator. Fiir die Additive Synthese benotigt man Sinusgeneratoren, fiir die Subtraktive Synthese Sagezahn-, Dreiecks- oder Rechteckschwingungen. Meist haben Oszillatormodule mehrere Wellenformen zur Auswahl, zwischen denen umgeschaltet werden kann. Damit ein Oszillator fiir ein Musikinstrument eingesetzt werden kann, bei dem ja standig wechselnde Tonhohen benotigt werden, kommen spannungsgesteuerte Oszillatoren zum Einsatz. Einstellbar sind die Wellenform, die Grundfrequenz und die Feinabstimmung. Spannungsgesteuert ist die Frequenz. Rauschgeneratoren: Rauschgeneratoren erzeugen meist wei£es oder rosa Rauschen. Beim wei£en Rauschen ist der Pegel in jedem Frequenzabschnitt gleich, zum Beispiel pro 100 Hz. Das rosa Rauschen hat konstante Pegel bei gleichen Frequenzverhaltnissen, zum Beispiel pro Oktave. VCF - Voltage Controlled Filter: Filter werden eingesetzt, um den Klang der erzeugten Schwingungen, zum Beispiel der komplexen Schwingungen der Subtraktiven Synthese, zu verandern. Spannungsgesteuerte Filter ermoglichen dynamische Filter, deren Einstellungen sich im Zeitverlauf andern. Sehr beliebt war vor einigen Jahren ein Filtersweep auf dem Leadgesang in der Pop-Musik. VCA - Voltage Controlled Amplifier: Verstarker sind fiir die Lautstarke eines Klangs verantwortlich. Spannungsgesteuert erzeugen sie einen Lautstarkeverlauf iiber die Zeit. Wichtig fiir den Tontechniker sind VCA in Verbindung mit Mischpultautomationen. Envelope: Die Hiillkurve bestimmt den Lautstarkeverlauf eines Klangs. Und genau das besorgen die HiiUkurvengeneratoren fiir jede Phase des zugrunde liegenden Hiillkurvenmodells.
76
7 Musik
LFO - Low Frequency Oscillator: Nicht zur Erzeugung von horbaren Tonen, sondern zur Modulation von Steuersignalen dienen die tieffrequent schwingenden LFO. In den Steuersignalen der VCOs sorgen sie fiir ein Vibrato, moduliert man mit ihnen die Steuerspannung eines VGA, entsteht ein Tremolo. Mixer: Klange durclilaufen einen Synthesizer nicht linear. Mehrere VCO konnen beteiligt sein. Ton- und Rauschanteile werden iiber die Mixer zusammengemischt und am Gerateausgang oder einem weiteren internen Eingang bereitgestellt. 7.3.5 Gesang Vieles iiber die menschliche Stimme wurde bereits im Abschnitt iiber die Sprache gesagt. Es ist auch fiir den Gesang uneingeschrankt giiltig. Der Unterschied des Gesangs zu anderen Instrumenten ist, dass unter Umstanden nicht nur ein Ton, sondern auch ein Text vermittelt werden muss. Fiir die Art, wie ein Text in der Musik aufgelost wird, gibt es die Begriffe Syllabik und Melismatik. Bei der Syllabik wird jedem Ton eine Textsilbe zugeordnet. Bei der Melismatik wird eine Silbe auf mehrere Tone verteilt. Eine Besonderheit der Sanger ist der Sangerformant. Der Sangerformant fallt in den Bereich der groi^ten Empfindlichkeit des Gehors um drei Kilohertz. Sanger, die diesen Formanten bilden konnen, konnen sich sogar gegen ein ganzes Orchester durchsetzen. Die Ausbildung des Sangerformanten ist wie die Ausformung der Vokalformanten erlernbar. Tabelle 7.7. Stimmlagen der Sanger. Stimmlage '. Tonumfang; Frequenzbereich Sopran
c^-a^
262-880 Hz
Alt
g-e^
196-659 Hz
Tenor
c-a^
131-440 Hz
G-g^ C-e^
98-392 Hz
Bariton Bass
82-330 Hz
7.4 Musikalische S t r u k t u r Das Vorhandensein von Tonen ist nicht gleichbedeutend mit dem Erklingen von Musik. Genausowenig beweist das Fehlen von Tonen die Abwesenheit der Musik. Musik entsteht durch das bewusste erzeugen von Klangen und StiUe in einem melodischen, harmonischen und rhythmischen Zusammenhang.
7.4 Musikalische Struktur
77
7.4.1 M e l o d i k Die Melodie beschreibt den Verlauf der Tonhohe einer Stimnie. Einstinimige Instrumente werden deshalb auch Melodieinstrumente genannt. In einem Musikstiick ist die Melodie einer Rolle zugeteilt. In der Oper ist das offensichtlich, aber auch in instrumentalen Werken wird mit derselben Melodie haufig dieselbe Situation, das gleiclie Gefiilil oder eine gedachte Person dargestellt. Wie lang eine Melodie dauert ist niclit festgelegt. In der formalen Beschreibung von Musik werden unterschiedlicli lange Tonfolgen nach ihrer Bedeutung fiir das Werk mit unterschiedliclien Bezeiclinungen belegt. Ein Motiv ist eine meist sehr kurze Tonfolge, die aber einen auffalligen Charakter hat. Es wird im Verlauf eines Musikstiicks immer wieder aufgegriffen und variiert. Ein langerer musikalisch geschlossener Abschnitt einer Melodie ist eine Phrase. Man vergleicht Phrasen haufig mit gesprochenen Satzen. Eine oder mehrere Phrasen bilden ein Thema. Ein T h e m a ist eine charakteristische melodische Figur, die aber mehr Gehalt hat, als ein Motiv, meist charakteristisch genug, dass m a n daran ein Musikstiick erkennen kann. Einem T h e m a wird meist ein weiteres als Kontrast gegeniiber gestellt. Werden mehrere Melodielinien gleichzeitig gefiihrt, dann spricht m a n auch von Polyphonic. Die Polyphonic war vor allem die Kompositionsform der Renaissance von 1400 bis 1600 und des Barock - also der Zeit von J o h a n n Sebastian Bach um 1700. In polyphonischer Musik wird haufig zur Melodie eine Gegenbewegung in einer anderen Stimme notiert. Das nennt m a n den Kontrapunkt. 7 . 4 . 1 . 1 T o n l e i t e r n u n d Skalen Eine Skala ist normalerweise eine Tonfolge, die eine Oktave abbildet. Der tiefste Ton ist der Grundton'*. Nach ihm ist die Skala benannt. Charakteristisch fiir die Skala ist, in welche Intervalle - also in welche Tonabstande - die Tone die Oktave unterteilen. In der abendlandischen Musik sind vor allem drei Skalentypen interessant. Die chromatische Tonleiter geht in Halbtonschritten auf oder abwarts. So sind alle zwolf Tone, die gewohnlich in der Musik Verwendung finden, vorhanden. Die pentatonischen Skalen haben nur fiinf Tone. Sie werden in der U-Musik, zum Beispiel im Blues verwendet. Die haufigste Skala ist die heptatonische, die siebentonige mit fiinf Ganzton und zwei Halbtonschritten. Sie ist meistens gemeint, wenn von einer Tonleiter gesprochen wird. 7.4.2 H a r m o n i k Die Mehrstimmigkeit der Polyphonic unterscheidet sich von den anderen Kompositionstechniken, bei denen die Melodie von eher unspezifischen Tonfolgen '' Es wird vorausgesetzt, dass die Betrachtung der Skala von der ersten Stufe aus stattfindet.
78
7 Musik
i' JjjJJjW^flfl
*^^r^
^EE^BE?
«^j ^ p r P\P^
i
A b b . 7.7. Chromatische, Dur-Pentatonische und Heptatonische Skala auf G.
in anderen Stimmen begleitet wird. Diese Begleitung unterfiittert die Melodie mit einem harmonischen Geriist. Der monientane harnionische Kontext ist die Tonart. Erzeugt werden Harmonien durch Akkorde. Tonartwechsel im zeitlichen Verlauf heifien Kadenz. Theoretisch beschrieben werden harmonische Zusammenhange mit dem Stufenmodell oder der Funktionstheorie. Hier im einzelnen auf den harmonischen Aufbau eines Musikstiicks einzugehen wiirde zu weit fiihren, aber die Grundbegriffe sohen dennoch kurz erwahnt werden. 7.4.2.1 Akkord Akkorde sind Tonschichtungen in charakteristischen IntervaUen. AUe Tone khngen normalerweise zeitgleich, sie konnen aber auch nacheinander gespielt werden. In diesem FaU spricht m a n von gebrochenen Akkorden. Akkorde, die fiir den harmonischen Verlauf wichtig sind, sind Drei- und Vierklange. Hier sohen nur die Dreiklange betrachtet werden. Dreiklange sind in der Grundstehung in Terzen iibereinandergeschichtet. Damit enthalt ein Dreiklang die Information Grundton, Terz und Quinte. Der Grundton steht fiir die Tonart und die Terz fiir das Tongeschlecht. Dreiklange konnen umgekehrt werden. Dabei wird jeweils der tiefste Ton des Dreiklangs eine Oktave nach oben verschoben. Der Akkord, zum Beispiel G-Dur bleibt jedoch derselbe.
Grundstellung Sextakkord Quartsextakkord A b b . 7.8. Dreiklangsumkehrungen.
7.4 Musikalische Struktur
79
Tonart Die Grundtonart ist die Tonart, in der konventionell tonal komponierte Stiicke enden. Die monientane Tonart wechselt ini Stiick aber haufig. Das nennt man eine Modulation. Die aktuelle Tonart bestimmt die Tonleiter, die verwendet wird. Abweichungen von dieser Tonleiter sind jedocli moglicli. Tongeschlecht Als Tongeschlecht bezeichnet man die Unterscheidung zwischen Dur und Moll. Dur und Moll-Tonleitern klingen unterschiedlich, well sie ihre Halbtonschritte an verschiedenen Stufen haben. Die Dur-Tonleiter hat ihre Halbtonschritte zwischen dem 3. und 4. Ton, sowie dem 7. und 8. Ton, die Moll-Tonleiter zwischen dem 2. und 3. und dem 5. und 6. Ton. Neben diesen Beispielen konnen die Halbtonschritte auch an anderen Stellen der Tonleiter auftreten. Die Kirchentonleitern lassen sich erzeugen, indem auf jedem Ton der C-DurTonleiter eine vorzeichenlose Tonleiter gebildet wird. Dur-Tonleitern entsprechen der ionischen, Moll-Tonleitern der aolischen Kirchentonart. Aus der Lage der Halbtonschritte ergeben sich die Vorzeichen. Ein Kreuz (H) erhoht einen Ton um einen Halbton, ein b erniedrigt ihn um diesen Betrag. Jede Tonart hat charakteristische Vorzeichen. Jewells eine Moll- und eine Dur-Tonleiter haben dieselben Vorzeichen. Man spricht deshalb von der parallelen Tonart. Einer Tonleiter, die nicht mit dem Grundton beginnt, sieht man deshalb nicht an, ob es sich um eine Moll- oder eine Dur-Tonleiter handelt. Quintenzirkel Der Quintenzirkel ist eine grafische Darstellung von Tonarten und ihren Beziehungen zueinander. An ihm kann man die Vorzeichen und die parallele Tonart ablesen, sowie die Dominante und die Subdominante jeder Tonart. Konstruiert wird der Quintenzirkel folgendermafien: C-Dur steht als Tonart ohne Vorzeichen oben in der Mitte. Die MoU-Parallele ist die sechste Stufe, also a-Moll. Jetzt geht man zur fiinften Stufe der aktuellen Tonleiter (C-Dur). Das ist der neue Grundton. Auf ihm baut man die neue Dur-Tonleiter auf. Damit die Halbtonschritte stimmen, muss der siebte Ton durch ein Kreuz erhoht werden. Damit hat G-Dur ein Kreuz. Dann nimmt man die fiinfte Stufe von G-Dur - d - als neuen Grundton und erhoht die siebte Stufe... Zur anderen Seite geht man die C-Dur-Tonleiter abwarts. Auch hier teilt man sie in der Mitte. Der fiinfte Ton abwarts - das entspricht der vierten Stufe aufwarts, also f wird der neue Grundton. Damit die Halbtonschritte stimmen, muss der fiinfte Ton abwarts erniedrigt werden. F-Dur hat also ein b. Mit den anderen Tonarten wird genauso verfahren. Die MoU-Parallelen ergeben sich jeweils aus der sechsten Stufe. Die Funktion wird abgelesen, indem man von der Grundtonart ausgeht. Die nachste Tonart im Uhrzeigersinn ist die Dominante, die nachste Tonart gegen den Uhrzeigersinn ist die Subdominante.
80
7 Musik
Fiir die Anzahl der Vorzeichen einer Tonart gibt es Merksatze fiir Dur und Moll-Tonarten. Fiir die Dur-Kreuz-Tonarten lautet er: Geh Du Alter Ese\ Ho\ FISch. Fiir die Dur-b-Tonarten: i^rische Brezeln ESsen ASse DBS GESangs. Fiir Moll-Kreuztonarten: Fine Helle FIStelstimme CISchte GISela DISkret. Die Moll-b-Tonarten schliei^lich kann m a n sich mit dem folgenden Satz einpragen: Die Gans Caesar Flog Bis ESsen.
Ges/Fis A b b . 7.9. Der Quintenzirkel.
7.4.2.2
Stufentheorie
Die Stufentheorie ist ein Beschreibungsmodell, mit dem jeder Akkord beschrieben werden kann. Dazu werden Dreiklange auf jede Stufe der Tonleiter der Grundtonart des aktuellen Stiicks gesetzt. Die Originaldreiklange werden mit ihrer Stufe in romischer Schreibweise bezeichnet, Variationen werden zusatzlich in hochgestellten arabischen Ziffern notiert.
E I
II
III IV
V VI VII
A b b . 7.10. Stufentheorie als einfache Beschreibung der Akkorde.
7.4 Musikalische Struktur
81
7.4.2.3 Funktionstheorie Anders als die Stufentheorie setzt die Funktionstheorie verschiedene Akkorde niiteinander in Beziehung. So konnen dieselben Akkorde auch innerhalb eines Stiickes an unterschiedlichen Stellen verschiedene Funktionen haben. • • • •
1. 4. 5. 6.
Stufe: Stufe: Stufe: Stufe:
G r u n d t o n a r t , Tonika Subdominante Dominante MohparaUele
Abbildung 7.11 zeigt die einfachste Kadenz.
^ Tonika Subdominante Dominante Tonika A b b . 7.11. Einfachste Kadenz aus Tonika, Subdominante, Dominante und Tonika.
Die Dominante hat die Aufgabe, zur Tonika zuriickzufiihren. Die Subdominante hingegen pendelt zwischen Tonika und Dominante. In der U-Musik wird die Kadenz haufig umgekehrt. Die Leitungsfunktion, also den Drang, zur Tonika zu fiihren kann durch die Zugabe des Leittons verstarkt werden.So entsteht der Dominantseptakkord.
I
^
Tonika Subdominante Dominantseptakkord Tonika A b b . 7.12. Kadenz aus Tonika, Subdominante, Dominantseptakkord und Tonika.
An Stelle der Dur-Tonika kann auch zur parallelen Moll-Tonart gewechselt werden. Das nennt m a n einen Trugschluss. Abbildung 7.13 zeigt die Kadenz. 7.4.3 R h y t h m i k Rhythmik beschreibt die Langenverhaltnisse der Tone und Pausen zueinander. Weitere Elemente, die den zeitlichen Verlauf der Musik steuern sind das Tempo und der Takt.
82
7 Musik
i
I
Tonika Subdominante Dominantseptakkord Tonikaparallele A b b . 7.13. Trugschluss: Moll-Parallele anstelle der Tonika nach der Dominante.
7.4.3.1 Tempo Die absolute Dauer eines Tons ist abhangig vom Tempo und dem Notenwert. Das Tempo wird in Schlagen pro Minute - in der U-Musik als beats per minute, b p m - angegeben oder durch besondere Bezeichnungen. Tabelle 7.8 zeigt eine Ubersicht der iiblichen musikalischen Tempi. Die Zuordnung ist nicht statisch zu sehen. Sie hangt in hohem Mai^e vom Dirigenten oder Musiker und dessen Interpretation des Stiickes ab.
Tabelle 7.8. Anzalil Schlage pro Minute fiir gegebene Tempobezeichnungen. Tempobezeichung Schlage pro Minute Grave < 40 Largo / Larghetto 40 - 60 Lento / Adagio 66 - 76 Andante 76 - 108 Moderato 108 - 120 Allegretto / Allegro / Vivace 120 - 168 Presto / Prestissimo > 168
Haufig werden die Bezeichnungen um weitere Anmerkungen erganzt, mit denen der Komponist seine Intention verdeutlicht. Dabei geht es dann haufig nicht nur um eine weitere Differenzierung des Tempos, sondern um eine Anweisung, welchen Charakter die Musik erhalten soU. Tempoveranderungen werden immer mit W o r t e r n bezeichnet. Es gibt keine numerische Angabe eines Zieltempos.
Tabelle 7.9. Die wichtigsten Anweisungen zum Beschleunigen und Verlangsamen. Bezeichnung accelerando ritardando a tempo
Bedeutung schneller werden langsamer werden im urspriinglichen Tempo
Das Metrum ist der im Tempo des Stiickes geschlagene Takt. Innerhalb eines Tempos lauft das Metrum vollig gleichmafiig durch und verandert sich nicht.
7.5 Musizieren
83
7.4.3.2 Takt Der Takt bezeichnet ein bestimmtes Betonungsmuster. Dieses Betonungsmuster kann gleichformig sein oder ungleichma£ig, es ist aber auf jeden Fall periodiscli. Bestimnite Taktarten sind in unserem Kulturkreis niit bestinimten Enipfindungen verkniipft. So werden Tanze oft im Dreivierteltakt koniponiert. Der Takt ist im Notensystem der Notation vorangestellt. Er kann innerlialb des Stiickes wecliseln. Im Jazz werden ungerade Takte und Taktweclisel selir haufig eingesetzt. Einer der bekanntesten Vertreter ist Take Five gesclirieben im Fiinfvierteltakt meist gesclirieben als 5/4-Takt. Die haufigste Taktart in der abendlandischen Musik ist der 4/4-Takt. Er wird auch notiert als ein grofies C. Das Betonungsmuster ist betont-unbetonthalbbetont-unbetont. Beim 3/4-Takt ist nur der erste Schlag betont. Der 6/8Takt ist dem recht ahnlich, betont den vierten Schlag jedoch nur halb. Ob ein Takt im n-Viertel oder n-Achteltakt geschrieben ist, sagt nur bedingt etwas iiber das Tempo aus. Als Faustregel kann man jedoch annehmen, dass ein langsames Stiick eher in kurzen Werten notiert wird, als ein schnelles. 7.4.3.3 Rhythmus Der Rhythmus selbst ist die Aufteilung eines Taktes in konkrete Notenwerte. Dabei wird der Rhythmus tendenziell dem Betonungsmuster des Taktes folgen, es aber auch gezielt an manchen Stellen durchbrechen. Der Rhythmus ist nicht an die Notenwerte der Taktvorgabe gebunden. Sowohl langere als auch kiirzere Notenwerte sind moglich. Es gibt gerade und ungerade Notenwerte, sowohl fiir die Pausen, als auch fiir die Noten. Der nachgestellte Punkt verlangert die Dauer um die Halfte des Notenwerts. Bei einer Triole werden drei Tone wahrend der Dauer von zwei notierten Werten gespielt. Eine Achteltriole teilt also die Dauer von zwei Achteln in drei gleichgrofie Abschnitte.
7.5 Musizieren Nach all der grauen Theorie geht es beim Musizieren um die Umsetzung notierter oder nicht notierter Musik in ein momentanes Horerlebnis. Die Beriicksichtigung der Vorgaben der Partitur ist dafiir zwar notwendig, aber nicht hinreichend. Hinzu kommen die Ausfiihrungsparameter Intonation, Timbre, Timing, Balance und Interpretation. AUe diese Parameter und natiirlich die Uberwachung der harten Fakten Takt, Tempo und Tone machen die Musikproduktion zu einer sehr anspruchsvoUen Aufgabe fiir einen Mediengestalter. 7.5.1 Intonation Bei der Intonation geht es nicht nur darum, ob der Musiker den richtigen Ton spielt, also den, der in der Partitur steht, sondern auch, ob dieser genau
84
7 Musik
^
ft
-oGanze
7
7*
Halbe Viertel Achtel Sechzehntel
^^dJ^ *
^ Punktierung
Triole
Abb. 7.14. Ubersicht iiber die Noteii- und Pausenwerte. genug gespielt oder gesungen wird. Kleine Abweichungen sind iiblich und auch nicht horbar. Bei mehreren Instrunienten kann es aber durch die Addition der Fehler zu unschonen Klangen kommen. Die Intonation ist abhangig von der Stinimung. Streichinstrumente konnen in reinen Intervallen intonieren, solange kein anders gestimnites Instrument mitspielt. Aui^er den Streichinstrumenten, bei denen der gespielte Ton stufenlos verandert werden kann, verfiigen nur Sanger und Pauker iiber diese Flexibilitat. Sobald ein temperiertes Instrument mitspielt, miissen sich auch die Streichinstrumente an die temperierte Stimmung halten. Abweichungen von der korrekten Intonation konnen Ausdruck der Interpretation sein. Die Absicht muss aber auch deuthch hervortreten. Klingt es nach einem unbeabsichtigten Fehler, dann wird auch der geneigte Horer dahinter keine Absicht vermuten. 7.5.2 Timbre Die Klangfarbe der Stimme oder eines Instruments hat eine Aussage. Emotionen werden iiber den Klang vermittelt. Aggression, Angst, aber auch Freude sind klar durch den Einsatz der Klangfarbe darstellbar. Die Fahigkeit, die Klangfarbe zu variieren ist nicht bei jedem Instrument gleich ausgepragt. Aber sie sollte in dem Mafie wie es das Instrument ermoglicht vom Musiker eingesetzt werden. Der zweite Aspekt der Klangfarbe ist die Authentizitat eines Instruments. Der Mediengestalter muss bei der Aufnahme darauf achten, dass der typische Klang eines Instruments nicht verloren geht. Bei der Mischung ist die Aufgabe noch komplexer, wenn es darum geht, einem einzelnen Instrument in einem Orchester Geltung zu verschaffen. Wann immer ein Komponist ein bestimmtes Instrument einsetzt, dann hat er es bewusst fiir diese Aufgabe ausgewahlt.
7.5 Musizieren
85
Vor alleni die U-Musik verlangt haufig eine Verfrenidung. Und eine imnier groEere Anzahl von Geraten und Plugins ermoglicht inimer neue EfFekte. Wichtig dabei ist, dass die Verfrenidung sachdienlich ist. Das heii^t, dass sie ein inhaltliches oder kiinstlerisches Ziel verfolgt. Willkiirliche Verfrenidung ist inimer Spielerei. 7.5.3 Timing Timing ist eine Frage des richtigen Einsatzes und der richtigen Tondauer. Die Partitur gibt diese Werte vor. Neben der Notation der Notenwerte muss auch auf die Artikulationsanweisungen geachtet werden. Sollen die Tone legato, also gebunden gespielt werden, dann klingen sie bei gleiclier Notation langer, als wenn sie staccato, also gestoEen gespielt werden. Spielen mehrere Instrumente zusammen, hat der gemeinsame Einsatz und das gemeinsame Ende eines Tones meist Vorrang vor der exakten Position. Gerade bei vielen Instrumenten und eineni engen Terminplan muss man meist mit Kompromissen leben. Angestrebt werden muss dann ein Ergebnis, dass fiir die ausfiilirenden Musiker verhaltnismafiig gut ist. Den Ton moglichst genau auf den von der Partitur festgelegten Zeitpunkt zu setzen reicht in vielen Fallen niclit aus. Manclie Musikinstrumente brauclien langer, urn einzuschwingen, andere erreiclien den vollen Ton friiher. Ist der richtige Einsatz dann getroffen, wenn das Instrument ini richtigen Moment den Einschwingvorgang beginnt, oder wenn er mit dem Abschluss des Einschwingens zusammenfallt? Auch die Art der Musik verlangt eine dynaniische Interpretation der Notenwerte. Vor alleni in der U-Musik dehnt man das Metruni gerne urn dem Horer ein Gefiihl der Spannung oder der Entspannung zu vermitteln. 7.5.4 Balance Die Klangbalance hat drei Bedeutungen, auf die der Mediengestalter achten muss. Einzelne Instrumente miissen klanglich ausbalanciert sein. Das bedeutet, dass die produzierten Frequenzen im richtigen Verhaltnis zueinander aufgenommen werden. AuEerdem muss es eine Balance zwischen Nutzsignal, also den Tonen und den fiir das Instrument typischen Nebengerauschen geben. Zu wenig Nebengerausche erzeugen einen sterilen Horeindruck, zu viele Nebengerausche schwachen den Klang des Instruments und wirken storend. Die Balance eines einzelnen Instruments hangt mafigeblich von der Mikrofonierung ab. Im Abschnitt 13.4 wird naher darauf eingegangen. Spielen mehrere Instrumente zusammen, dann muss auf eine ausgeglichene klanghche und dynamische Balance geachtet werden. Klangliche Balance bedeutet, dass der Klang der verschiedenen Instrumente sich zu einem Gesamtklang verbinden muss. Dynamische Balance bedeutet, dass keine Instrumentengruppe besonders hervortreten darf, solange sie nicht sohstisch eingesetzt
86
7 Musik
ist oder den zentralen niusikalischen Gedanken tragt. Auch innerhalb einer Instrumentengruppe darf kein einzelnes Instrument besonders hervortreten. Diesen EfFekt hat man haufig in Choren mit gro£en Leistungsunterschieden zwischen den Sangern. Gute und auch schlechte Sanger treten oft aus dem Gesamtklang heraus. So schon es ist, tragende Stimmen im Klangkorper zu haben, der Wirkung als Chor ist es abtraglich. Dynamische Unterschiede innerhalb einer Instrumentengruppe lassen sich durch eine giinstige Aufstellung der Musiker und eine richtige Mikrofonierung vermeiden. Der dynamischen Balance aller Instrumente wird man durch den korrekten Einsatz von Stiitzmikrofonen Herr. 7.5.5 Interpretation AUes bisher Gesagte ist im Wesenthchen Handwerk. Ein guter Musiker sollte sein Werkzeug - sein Instrument - mit dem grofitmoglichen handwerklichen Geschick bedienen konnen. Vor allem in der E-Musik wird der Virtuositat eine sehr grofie Bedeutung eingeraumt. AUes, was iiber die spieltechnischen Aspekte hinausgeht macht die Musik zur Kunst. Hier wird sie zum Transportmittel fiir Stimmungen und Gefiihle. Diese Ebene ist in gewissen Grenzen unabhangig von den handwerklichen Begabungen und so sieht man es Kiinstlern, die ihr Publikum durch die Kunst ihres Spiels in ihren Bann ziehen konnen gerne nach, wenn das eine oder andere technische Detail nicht ganz perfekt ist. Eine lose Kopplung zwischen Kunst und Spieltechnik besteht indes aUein schon dadurch, dass die Ausdrucksmoglichkeiten mit den handwerklichen Fahigkeiten wachsen. Aber was genau ist denn nun die Interpretation? Der Mediengestalter muss entscheiden, wann der Kiinstler absichtlich von der Vorlage abweicht. Dagegen ist normalerweise nichts einzuwenden, solange der Geist des Werkes dadurch befordert wird. Allerdings hat jedes Genre seine eigenen Regeln, welche Anderungen erlaubt sind, und welche nicht. Grundsatzlich kann man sagen, dass die Originaltreue mit steigender Besetzungsgrofie ebenfaUs ansteigen muss. Denn hier ergibt sich die musikalische Wirkung nicht so sehr durch die Interpretation des Einzelnen, sondern durch die Komposition aller beteiligten Stimmen. Ein weiteres Merkmal ist die Prazision der Notenvorlage. Hat die Begleitung nur ein harmonisches Grundgeriist, kann starker variiert werden als bei auskomponierten Werken. Dass der Mediengestalter unterscheiden kann, wann ein handwerklicher Mangel vorliegt, der korrigiert werden muss, wann eine kiinstlerische Abweichung vorliegt, die er tunlichst nicht unterbrechen sollte und wann eine unzulassige Beugung der Vorgabe durch einen Musiker, ist auEerst wichtig fiir die Arbeit mit Musik und mit Musikern. Typische Parameter die sich bei der Interpretation von Musik variieren lassen, sind die Artikulation, die Dynamik, und die Phrasierung, also die Spiel-
7.5 Musizieren
87
weise einzelner Tone, der Lautstarkeverlauf und die Bildung von melodischen Zusanimenhangen. Dieses Kapitel kann nur ein kleiner Abriss der Rahnienbedingungen sein, was Musik ist, und wie man erfolgreich Musikaufnahmen machen kann. Wer damit taglich sein Brot verdienen mochte, der sollte selbst musikalisch sein und sein Instrument ahnlich gut beherrschen, wie die Musiker, die er iiblicherweise in seinem Studio antrifFt. Aber auch alle anderen Mediengestalter werden von Zeit zu Zeit mit Musik konfrontiert. Sie soUten die gangigsten Termini beherrschen und iiber grundlegende musikahsche Zusammenhange, so wie sie in diesem Kapitel beschrieben wurden, Bescheid wissen.
8 Gerausche
Die Gerausche, die im Produktionsalltag vorkommen, lassen sich in zwei Kategorien unterteilen. Atmosphdren sind Klangbilder von Umgebungsgerauschen bestimmter Szenen, zum Beispiel auf der Strai^e oder in einem Einkaufszentrum oder auf dem Flughafen. Die zweite Kategorie sind EfFektklange, kurz SFX von SoundeflFects, die ein einzelnes Gerausch moglichst isoliert abbilden.
8.1 Atmospharen Atmospharen sind ein Gemisch unterschiedlicher, voneinander unabhangiger Einzelschallereignisse, die aber in einem spezifischen Kontext erwartungsgemafi zusammen auftreten. Dariiber liegt ein fiir die Umgebung typischer Raumeindruck. Demnach ist in einer Flughafenatmosphare zu erwarten, dass man Lautsprecherdurchsagen hort, KofFer die iiber einen Steinboden rollen, Menschen, die reden, die lachen, vielleicht dumpfe Gerausche vom RoUfeld, die durch die dicken Glasscheiben dringen oder die Gerausche einer Cappuccinomaschine eines oflFenen Bistros. Das Ganze khngt durch das viele Glas, die grofien Raume und die glatten Boden so hahig, dass es zu einem diffusen Gerauschteppich verschmilzt. Spater, wahrend des Fluges hort man das tiefe Drohnen der Triebwerke, bin und wieder den einzelnen Gong nach einem Flugbegleiter und vieheicht das zwitschern des Kopfhorers eines anderen -T assagiers. Der Raumeindruck ist hier sehr trocken. Atmospharen konnen sprachabhangige Bestandteile haben. Im ersten Beispiel sind das die Lautsprecherdurchsagen und die Gesprache der wartenden Fluggaste. Auch wenn die Worter selbst nicht verstandhch sind, lasst sich die Sprache oft durch die Sprachmelodie identifizieren. Gerausche-Sammlungen nennen deshalb immer auch die Herkunft der Atmosphare. Da die Klangbilder eine dreidimensionale Szene abbilden, sollten sie zumindest in dem Format aufgenommen werden, in dem sie spater auch verwendet werden sollen. Also entweder in Stereo oder heute zunehmend mehrkanalig. Fiir die Aufnahme werden nur die hochwertigsten Komponenten verwendet.
90
8 Gerausche
Nur so lasst sich die raumliche als auch die klangliche Situation originalgetreu abbilden. Da die Atmospharen bei der Produktion zuni Teil ganze Szenen untermalen, miissen sie eine ausreichende Lange haben. Wenn sie verlangert werden miissen, kann es leicht vorkommen, dass einzelne signifikante Gerausche oder der Rhythmus aufeinanderfolgender Gerausche als Wiederholung erkannt werden. Damit die Atmos die Szene nioglichst trefFend beschreiben, diirfen Atmospharen keine Bestandteile enthalten, die fiir die jeweilige Szene nicht typisch oder irrelevant sind. Es ist moglich, dass eine Gruppe Schlachtenbummler ini Flughafen-Terminal ein Drucklufthorn betatigt, aber fiir eine Atmosphare ware dieser Ausschnitt eher ungiinstig, da es eben kein typisches Flughafengerausch ist. Atmospharen konnen einen ganz unterschiedlichen Charakter haben. Sie konnen sehr dynamisch sein, oder auch quasistationar einen fast gleichbleibenden Gerauschteppich bilden. Dynamische Atmospharen bilden normalerweise eine geringe Zahl an Akteuren ab. Eine kleine Gruppe Menschen, die sich an der Haltestelle iiber die Verspatung der Strafienbahn unterhalten ist dynamischer, als eine Menschenmenge aus Tausenden von unkoordiniert sprechenden Menschen. Stra£enverkehr ist sehr dynamisch, well immer wieder einzelne Autos auffallen. Eine Meeresatmo, die an der Hafenmauer aufgenommen wird, ist dynamischer als die aus grofierer Entfernung, well sich einzelne Wellen an der Mauer brechen. Die Dynamik einer Atmosphare kann man also beschreiben als die Menge aller individuell wahrnehmbaren Einzelereignisse.
8.2 Effektklange (SFX) Anders als die Atmospharen stellen Effektklange keine eigenstandigen Szenen dar. Sie werden vielmehr dazu verwendet, um ein bestimmtes Gerausch in eine Atmosphare einzubauen. Damit das aber passt, soUte das Gerausch frei von sonstigen Umgebungsgerauschen sein. Nur so wird es universell verwendbar. Es ist nicht immer moglich, ein Gerausch vollig isoliert aufzunehmen. Das trifft insbesondere auf Gerausche zu, die immer in Verbindung mit anderen Gerauschen auftreten. Quietschende Bremsen eines Zuges gibt es nicht ohne dessen Fahrgerausche. Solche Gerausche miissen in ihrem gesamten Zusammenhang aufgenommen werden. Der Zug nahert sich, bremst und bleibt entweder stehen oder fahrt mit verminderter Geschwindigkeit welter. Atmospharen werden grundsatzlich zumindest in Stereo aufgenommen um die Raumlichkeit zu erhalten. Klangeffekte soUen in ein bestehendes Klangbild integriert werden. Deshalb kommen auch Mono-Aufnahmen in Frage. Hat die Gerauschquelle eine Ausdehnung oder ist sie in Bewegung, dann wird das mit Hilfe von Stereo-Techniken konserviert.
8.2 Effektklange (SFX)
91
Gerausche miissen moglichst eindeutig und signifikant sein. Oftmals ist das bei natiirlichen Gerauschen aber nicht der Fall. Die Aufnalime von flie£endem Wasser ist ein gro£es Problem, da es sich oft nur nacli Rausclien anliort. Bei der Aufnalime von bildgebundenen Medien kann der Originalton oft nicht verwendet werden. Zuni einen wenn der Film in eine andere Sprache iibersetzt werden soil und wahrend des Gerauschs gesprochen wird, zum anderen wenn der Bildausschnitt eine adaquate Mikrofonierung nicht zulasst. In diesen und anderen Fallen kommen Gerauschemacher zum Einsatz, die die benotigten Gerausche quasi unter Laborbedingungen erzeugen. Sehr oft werden dabei Hilfsmittel eingesetzt, die mit dem eigentlichen Gerausch nichts zu tun haben, sich aber in den Handen eines Profis so anhoren. Haufig, gerade auch bei nicht bildgebundenen Medien geniigt der Griff in die Konservendose. Gerausche-CDs sind in grofier Anzahl auf dem Markt zu haben, die Qualitat schwankt jedoch betrachtlich.
Teil II
Technik - Die Werkzeuge
9 Schallwandler
Als Schallwandler bezeiclinet man Gerate, die entweder Schallwellen in elektrische Signale oder elektrische Signale in Schallwellen verwandeln. Zu der Gruppe gehoren also Mikrofone und Tonabnehmer auf der einen und Lautsprecher und Kopfhorer auf der anderen Seite. Zusatzlich soUen in diesem Kapitel auch die Digital-Analog- und die Analog-Digitalwandler besprochen werden. Sie gehoren heute praktisch jeder Ubertragungskette an.
9.1 Mikrofone Mikrofone sind die hauptsachlichen Schallwandler im Studio. Trotz aller Datenblatter und theoretischer Messungen schwort jeder Tonschaffende auf seine Auswahl und seine Aufstellung der Mikrofone. Sie sehen eher wie ein Schmuckstiick als wie ein Arbeitsgerat aus und meistens sind sie auch ebenso teuer. Und niemand kommt umhin, sich eine eigene Mikrofonierungsphilosophie anzueignen. Um die wird es im Kapitel 13.4 auf Seite 235 gehen. Was es niichtern Sachhches dazu zu sagen gibt, steht in den folgenden Abschnitten. 9.1.1 Wandlerprinzipien Analoge Mikrofone wandeln den Schall in ein elektrisches Signal um, das dann in die Regie iibertragen wird. Digitale Mikrofone wandeln den Schall nicht etwa direkt in ein Digitalsignal sondern haben einen integrierten A/D-Wandler. Damit kann die Ubertragung vom Mikrofon zum Mischpult bereits digital und damit verlustfrei erfolgen. Mit analogen Pulten sind diese Mikrofone allerdings nicht mehr kompatibel. Aufierdem ist man auf den Wandler im Mikrofon angewiesen. Das Angebot an digitalen Mikrofonen ist noch sehr iiberschaubar. Deshalb werden auch nach wie vor hauptsachlich analoge Mikrofone verwendet.
96
9 Schallwandler
9.1.1.1 Elektrodynamische Mikrofone Bei den elektrodynamischen Mikrofonen, nieist werden sie dynamische Mikrofone genannt, wird ein beweglicher Leiter in eineni Magnetfeld bewegt. Diese Bewegung ist die Dynamik, der das Wandlerprinzip seinen Namen verdankt. Das Wirkprinzip ist die Induktion. Der Begriff dynaniisches Mikrofon wird meist synonym fiir Tauchspulenmikrofone verwendet. Es gibt aber eine zweite Bauforni elektrodynaniischer Mikrofone - das Bandchenmikrofon. Bandchenmikrofone werden allerdings sehr selten eingesetzt. Erstaunlich ist, dass die beiden Vertreter elektrodynamischer Schallwandlung vollig unterschiedliche Eigenschaften besitzen. Induktion bezeichnet die Stromerzeugung durch Bewegung eines Leiters in einem Magnetfeld. Die Formel dafiir ist Uind = —n • B • I • V • s i n ip
Die induzierte Spannung hangt also ab von den bauartbedingten Faktoren Flussdichte des Dauermagneten (B), der Lange des elektrischen Leiters (/) und der Anzalil der Windungen (n) der Spule. Der Winkel zwisclien der Bewegungsrichtung und den Magnetfeldlinien ist in der Praxis immer 90°, da liier der hochste Wirkungsgrad erreicht wird (sin 90 = 1). Damit ist die einzige variable Grofie im Betrieb die Geschwindigkeit, mit der sicli der Leiter im Magnetfeld bewegt. Tauchspulenmikrofone Bei einem Tauclispulenmikrofon wird eine Membran durch den Schall ausgelenkt. An dieser Membran ist eine Spule befestigt. Diese Spule umgibt einen Dauermagneten. Die Bewegung der Membran wird auf die Spule iibertragen und in ilir wird durch die Bewegung innerhalb des Magnetfeldes eine Spannung induziert. Tauchspulenmikrofone haben viele Vorteile. Sie benotigen keine Spannungsversorgung, liefern eine verhaltnismafiig hohe Signalspannung, und sie sind sehr robust, sowohl was mechanische Beanspruchung, als auch was hohe Schalldriicke angeht. Deshalb werden sie haufig auf der Biihne eingesetzt. Im Verhaltnis zu Kondensatormikrofonen sind sie wesentlich preisgiinstiger. Da in Tauchspulenmikrofonen bauartbedingt Masse bewegt werden muss, kommt es zu Tragheitseffekten, die die Impulstreue beeintrachtigen. Die Impulstreue beschreibt das Mafi der Eigenschwingung einer Membran, also die Einschwingverzogerung und das Ausschwingverhalten. Je grofier die schwingende Masse, desto schlechter ist die Impulstreue. Mit der fehlenden Impulstreue ist zwar ein Verlust an Neutralitat verbunden, dafiir farbt das Mikrofon die Schallquelle charakteristisch ein. Diese Klangfarbung kann durchaus gewiinscht sein, zum Beispiel wenn sie den Klang eines Instruments in besonderer Weise unterstreicht. So werden einige Tauchspulenmikrofone auch im Studio fiir bestimmte Instrumente gerne verwendet. Typisch hier ist der Einsatz des
9.1 Mikrofone
97
Sennheiser MD 421 fiir Saxophon oder Tom-Tom. In der E-Musik-Produktion bleiben sie allerdings die Ausnahme, well hier ein neutraler Klang gewiinscht ist. Bdndchenmikrofone Die zweite Bauforni elektrodynaniischer Mikrofone sind die Bandchenmikrofone. Sie sind recht selten und deshalb spricht man bei Tauchspulenmikrofonen oft einfach von dynamischen Mikrofonen. Bandchenmikrofone arbeiten jedoch ebenfalls nach dem Induktionsprinzip. Bei einem Bandchenmikrofon wird ein wenige Zentimeter langer und extrem diinner, - Aluminiumstreifen in eine Magnetfeld eingespannt, der im Schallfeld schwingt. An den Polen des Aluminiumstreifens wird die Spannung abgegriffen. Bandchenmikrofone haben durch die Minimierung der Membranmasse ein sehr gutes Impulsverhalten iiber einen breiten Frequenzgang. Dieses Impulsverhalten muss aber teuer erkauft werden. Wahrend jede einzelne Wicklung eines Tauchspulenmikrofons als Faktor in die Berechnung der Induktionsspannung eingeht, fehlen diese Windungen beim Bandchenmikrofon voUig. Dadurch ist die resultierende Ausgangsspannung sehr gering, im Umkehrschluss die notwendige Vorverstarkung denkbar gro£. Eine gro£e Vorverstarkung produziert verhaltnismafiig viel Rauschen. Deshalb muss beim Einsatz von Bandchenmikrofonen darauf geachtet werden, dass moglichst hochwertige und damit rauscharme Vorverstarker eingesetzt werden. Bandchenmikrofone sind relativ teuer, da sie hohe Anforderungen an die Verarbeitungsprazision stellen und auch als Nischenartikel keine hohen Verkaufszahlen erreichen. 9.1.1.2 Elektrostatische Mikrofone Die Gruppe der elektrostatischen Mikrofone bilden die unterschiedlichen Konstruktionen der Kondensatormikrofone. Bei Kondensatormikrofonen ist die Membran mit einem leitfahigen Metall bedampft und an eine Elektrode angeschlossen. Dahinter befindet sich eine feststehende Gegenelektrode, meist eine gelochte Metallplatte. Membran und Gegenelektrode bilden den Kondensator. Schwingt die Membran, dann verkleinert und vergroEert sich der Abstand zur Gegenelektrode. Und da die Kapazitat des Kondensators auch vom Abstand der beiden Elektroden abhangt, fiihrt die Schwingung zu einer Kapazitatsanderung.
-
^
Die Kapazitat (C) ist das Produkt aus der Permittivitat^ (e) und der Plattenflache (A), geteilt durch den Plattenabstand (d). Die Permittivitat ist Permittivitat oder auch dielektrische Leitfahigkeit.
98
9 Schallwandler
eine Konstante, die vom Material zwischen den beiden Elektroden abhangt. Sie ist auch unter dem BegrifF Dielektrizitatskonstante bekannt. In einem passiven System wiirde aber keine Signalspannung entstehen. Deshalb benotigen Kondensatormikrofone eine externe Spannungsversorgung. Mit ihr wird der Kondensator aufgeladen und der Impedanzwandler am Ausgang betrieben. Durch die Kapazitatsanderung wird die Grundspannung moduliert. Meist wird eine Gleichspannung von der Signalspannung iiberlagert, es gibt aber auch Mikrofone, bei denen eine Wecliselspannung durch die Signalspannung moduliert wird. Man spricht im ersten Fall von NFKondensatormikrofonen, im zweiten von HF-Kondensatormikrofonen.^ Elektretkondensatormikrofone Die Ladung des Kondensators kann auch chemisch erfolgen. Die chemische Vorladung bleibt dauerhaft bestehen. Diese Mikrofone hei£en Elektretkondensatormikrofone. Sie sind deutlich preisgiinstiger als andere Kondensatormikrofone, haben aber den Nachteil, dass sich die Eigenschaften des Kondensators mit der Zeit verandern. Dieser Alterungsprozess fiihrt zu Klangverfalschungen. Der Vorteil der Elektret-Mikrofone liegt darin, dass die angelegte Spannung nur den Trennverstarker versorgen, nicht aber den Kondensator aufladen muss. Einsatzgebiete fiir Elektretkondensatormikrofone liegen deshalb in AuEenanwendungen, bei Reportagegeraten und auch bedingt fiir die Aufzeichnung von Atmospharen, also iiberall dort, wo die Spannungsversorgung ein Problem ist. Spannungsversorgung Die Spannungsversorgung kann auf drei Arten erfolgen. Entweder durch eine eingebaute Batterie, iiber die Tonadern oder iiber ein separates Netzteil. Eingebaute Batterien werden nur in Elektret-Mikrofonen verwendet. Der Vorteil ist, dass diese Mikrofone keine Anforderungen an das Gerat stellen, an das sie angeschlossen werden. Separate Netzteile sind zusatzhcher Ballast, der mitgefiihrt und aufgebaut werden muss. Im Aufnahmeraum muss ein Anschluss an das Stromnetz vorhanden sein. Damit die Netzteile im Aufnahmeraum betrieben werden konnen, diirfen sie nur wenig Gerausche abgeben. Das macht die Konstruktion teuer. Deshalb werden externe Netzteile nur fiir Rohrenmikrofone verwendet, die besonders hohe Anforderungen an die Spannungsversorgung stellen. Die iibliche Methode, Kondensatormikrofone mit der notigen Spannung zu versorgen ist die Phantomspeisung. Bei der Phantomspeisung wird vom Mischpult auf beide signalfiihrenden Adern eine Spannung von iiblicherweise 48V angelegt. Der Schirm fiihrt die Masse. Die Phantomspeisung wird meist vom Mischpult bereitgestellt, kann jedoch auch aus zwischen Mischpult und Mikrofon geschalteten Speisegeraten gewonnen werden. Eine veraltete
NF: Niederfrequenz, HF: Hochfrequenz.
9.1 Mikrofone
99
und im Tonstudio heute nicht mehr verwendete Methode der Spannungsversorgung ist die sogenannte Tonaderspeisung, bei der eine Signalader die positive, die andere die negative Versorgungsspannung tragt. Die Tonaderspeisung ist mit der Phantomspeisung nicht kompatibel. Sie kann Schaden verursachen, wenn Mikrofone angeschlossen werden, die dafiir nicht ausgelegt sind. Da bei der Phantomspeisung die Versorgungsspannung auf beiden Signaladern der symmetrischen Leitung identisch ist, konnen auch dynamische Mikrofone daran angeschlossen werden, ohne Schaden zu nehmen. Das hegt daran, dass an beiden Seiten der Spule dasselbe Potential angelegt wird. Im Falle der Tonaderspeisung kame es zu einem Stromfluss, der die Spule im Magnetfeld bewegen wiirde. Das ist das Prinzip eines Lautsprechers. Wenn m a n bedenkt, dass die Nutzspannung eines Tauchspulenmikrofons unter einem Volt liegt, kann m a n sich vorstellen, was eine angelegte Spannung von zum Beispiel 24 V fiir Auswirkungen h a t t e . Auch Spannungsschwankungen sind bei der P h a n tomspeisung unkritisch, das sie auf beide Tonadern gleichphasig wirken und im Differenzverstarker zur Gewinnung der Signalspannung gefiltert werden. 9.1.2
Richtcharakteristik
Die Richtcharakteristik bezeichnet die Empfindlichkeit fiir einfallenden Schall aus unterschiedlichen Richtungen. Die Haupteinsprechrichtung nennt m a n onaxis, Richtungen mit der groEten Dampfung heifien dementsprechend off-axis. Es gibt immer genau eine Haupteinsprechrichtung, es kann aber keine, eine oder mehrere Hauptdampfungsrichtungen geben. Angegeben werden sie in Grad, relativ zur on-axis. Welche Richtcharakteristik ein Mikrofon besitzt hangt von seiner Konstruktion ab, genauer davon, wie der Schall die Membran erreicht. Dabei gibt es zwei grundsatzliche Bauarten: den Druckempfanger und den Druckgradientenempfanger. 9.1.2.1
Druckempfanger
Charakteristisch fiir Druckempfanger ist, dass die Membran nur von einer Seite erreichbar ist. Dadurch wird Schall zumindest in tiefen Frequenzen von iiberall gleichma£ig aufgenommen. Damit der Schall nicht auf die Riickseite der Membran auftreffen kann, muss die Mikrofonkapsel geschlossen sein. Druckluftunterschiede werden iiber eine Kapillaroffnung ausgeglichen. Aufgrund der minimalen Grofie der Kapillaroffnung wird der interne Druck durch die kurzzeitigen Schalldruckunterschiede nicht verandert. Der Frequenzgang eines Druckempfangers kann auf zwei Arten entzerrt sein. Die Freifeldentzerrung sorgt fiir einen in der Summe linearen Frequenzgang bei direktem Schalleinfall. Das ist im Freifeld giinstig, well dort keine Reflexionen auftreten. Im Diffusfeld geht m a n von gleichmai^ig einfallendem Schall aus alien Richtungen aus. Da die Hohen auEerhalb der Haupteinsprechrichtung gedampft werden, miissen fiir einen insgesamt linearen Frequenzgang die Hohen angehoben werden. Diffusfeldentzerrte Mikrofone klingen im Freifeld brillant bis hohenlastig, freifeldentzerrte klingen im Diffusfeld zu dumpf.
100
9 Schallwandler
9.1.2.2 Druckgradientenempffinger Die zweite Bauform ist der Druckgradientenempfanger. Hier kann der Schall beide Seiten der Membran erreichen. Wirkt der Schalldruck gleichphasig auf Vorder- und Riickseite der Membran, erfolgt keine Membranauslenkung. Ist die Wirkung gegenphasig, dann wird die Auslenkung verstarkt. Der Gradientenempfanger ist die Basis, auf der verschiedene Richtcharakteristika aufgebaut werden. Bauartbedingt fallt die Empfindlichkeit von Druckgradientenempfangern zu den Tiefen bin ab. Das kommt daher, dass sich tiefe Frequenzen um das Mikrofon herumbeugen und so fast gleichphasig auf der Membranriickseite auftreffen. Der Druckgradient ist aber der Druckunterschied zwischen Membranvorder- und Hinterseite und somit fiir tiefe Frequenzen sehr gering. Dieser Tiefenverlust wird elektronisch kompensiert. Das fiihrt zum sogenannten Nahbesprechungs- oder Proximity-Effekt. Tieffrequenter Schall, der im Nahfeld des Mikrofons auftritt wird stark verstarkt. Diesen Effekt empfinden viele Sprecher und Sanger als angenehm, zu stark ausgepragt fiihrt er aber zu Pegelproblemen, zu Verzerrungen und zu ungewoUten Regelvorgangen von nachgeschalteten Dynamikprozessoren. Deshalb gibt es spezielle Nahbesprechungsmikrofone, die fiir Sprach- und Gesangsanwendungen gebaut sind. Hier ist die Frequenzkorrektur moderater. Druckgradientenempfanger sind also entweder fiir kleine oder groi^ere Mikrofonabstande optimiert. Der Druckgradient, und damit die Auslenkung der Membran ist abhangig von der Phasenlage an der Membranvorder- und -Riickseite. Und die wiederum ist abhangig von den Laufzeiten. Durch kiinstliche Barrieren auf dem Weg zur Membran lasst sich diese Laufzeit verandern. So konnen Druckgradientenempfanger gebaut werden, die unterschiedliche Richtcharakteristika besitzen. Die Barrieren hei£en akustische Laufzeitglieder. Die Eingange zu den Laufzeitgliedern nennt man Ports.
Abb. 9.1. Ports ermoglichen den Schalleinfall auf die Membranriickseite. Im Gegensatz zu Druckempfangern bringen VoUschaumstoffwindschiitze keine ausreichende Dampfung von Popgerauschen. Das Problem wird durch die Uberhohung im Bassbereich durch die elektronische Anhebung und zu-
9.1 Mikrofone
101
satzlich durch den NahbesprechungseflFekt verstarkt. Hier werden statt dessen Windschutzkorbe verwendet. 9.1.2.3 Richtwirkung Ein gro£er Winkel Schallquelle zur Haupteinsprechachse des Mikrofons fiihrt einerseits zu einer Dampfung, andererseits andert sich auch der Frequenzgang. Dafiir verantwortlich sind Beugungs- und InterferenzefFekte. Beugung bezeichnet die Fahigkeit einer Schallwelle, ein Hindernis zu iiberwinden. Das ist imnier dann nioglich, wenn die Wellenlange grofi ist ini Vergleich zuni Hindernis. Zumindest riickwartig einfallender Schall muss auf dem Weg zur Membran das Hindernis ,Mikrofon' iiberwinden. Fiir hohe Frequenzen entsteht ein Schallschatten hinter dem Mikrofon. Interferenzen - also die Uberlagerung von Schwingungen - fiihren zu einem noch starkeren Biindelungsgrad. Diese Interferenzen treten auf, wenn Schall sclirag auf die Menibran auftrifft. Es konimt zu Phasenverschiebungen zwischen parallelen Scliallwellen. Fiir tiefe Frequenzen ist die Abweicliung minimal, so dass die Erregung der gesamten Membran gleicliphasig erfolgt. Fiir hohe Frequenzen wird die Phasenverschiebung zunehmend gravierender, so dass es zu teilweisen Ausloschungen an der Membran und im schlimmsten Fall zu Partialschwingungen kommt. Hohere Frequenzen fiihren bei alien Richtcharakteristika zu einer starkeren Richtwirkung um die Haupteinsprechachse. In der Praxis ist aber nicht die frequenzabhangige Richtwirkung, sondern die Ubertragungsfunktion an einer bestimmten Position von Belang. Entfernt von der on-axis klingt das aufgenommene Signal zunehmend dumpfer. Dargestellt wird die Empfindlichkeit eines Mikrofons fiir SchaU aus verschiedenen Richtungen fiir jeweils eine Frequenz in einem Richtungsdiagramm - dem Polar Pattern. Dieses Diagramm ist eine zweidimensionale Darstellung, die jedoch dreidimensional giiltig ist. Die dreidimensionale Darstellung erhalt man durch Rotation des Diagramms um die 0°-Achse. Kugel Ist ein Mikrofon aus alien Richtungen gleich empfindlich, spricht man von der Richtcharakteristik Kugel - auf englisch omnidirectional. Die Kugel ist die Standard-Richtcharakteristik eines Druckempfangers, bei dem der Schall die Membran nur von einer Seite aus erreichen kann. Kugelmikrofone klingen sehr natiirlich, aber da sie den Schall nicht gerichtet aufnehmen, sind sie fiir dezidierte Signale in halligen Raumen oder bei starken Umgebungsgerauschen nicht gut geeignet. Mochte man jedoch die Atmosphare des gesamten Raums iibertragen, eignet sich eine Kugel sehr gut. Popgerausche lassen sich gut durch Schaumstoffpopschiitze vermeiden. Deshalb eignen sich Kugelmikrofone auch in der Elektronischen Berichterstattung fiir Nahbesprechung.
102
9 Schallwandler
8kH7 IGkHl
A b b . 9.2. Polar Pattern eines Druckempfangers. Acht Bei der Richtcharakteristik Acht - oder figure eight - wird Schall von vorne und von hinten gut aufgenommen, wahrend Schall von der Seite stark bedampft wird (off-axis bei 90° und 270°).
4kHz 8kHz 16kHz
A b b . 9.3. Polar Pattern eines Druckgradientenempfangers niit Achtercliarakteristik. Diese Richtcharakteristik entsteht, wenn die Membran von beiden Seiten ungehindert zuganglich ist. Acht ist Grundcharakteristik eines Druckgradientenempfangers. Alle nachfolgenden Charakteristika entstehen durch akustisch wirksame Bauteile - sogenannte Laufzeitglieder - die die Richtwirkung, aber durch die Wirkung auf die Phasenlage auch den Frequenzgang eines Mikrofons beeinflussen. Bandchenmikrofone werden meist mit Acht-Charakteristik gebaut, um die gute Linearitat der Bandchenmikrofone nicht zu verfalschen. Friiher wurde die beidseitige Nutzbarkeit fiir Gesprachssituationen verwendet, bei der der Interviewer auf der einen, der Gesprachspartner auf der anderen Seite safi. Das Mikrofon stand fest dazwischen. Gegeniiber der heute iibhchen Praxis mit einem Handmikrofon, das jeweils vor den Sprecher gehalten wird, der etwas sagen mochte, h a t t e die Technik den Vorteil, dass weniger Korperschall auftrat und dass alles, was gesagt wurde auch tatsachlich aufgenommen wurde. Das h a t t e aber auch den Nachteil, dass der Moderator nicht so gut steuern konnte, wer wann das Wort hat. AuEerdem stie£ der Aufbau bereits bei drei Personen an seine Grenzen. Die Acht ist ein essentieller Bestandteil von MS-Stereofonie-Anordnungen.
9.1 Mikrofone
103
Da die Membran von beiden Seiten zuganglich sein muss, steht sie meist aufrecht auf dem Mikrofon und wird dementsprechend seitlich besprochen.
A b b . 9.4. Mikrofon MK 8 von Schoeps niit Achtercharakteristik wird seitlich besprochen.
Niere Die Niere - cardioid - ist die am haufigsten verwendete Richtcharakteristik. Sie hat eine gerichtete Wirkung, so dass Schall von hinten nicht aufgenommen wird (off-axis bei 180°).
A b b . 9.5. Polar Pattern eines Druckgradientenempfangers niit Nierencharakteristik. So kann bei mehreren Schallquellen durch die Ausrichtung des Mikrofons bereits eine gute akustische Trennung erzielt werden. Der dennoch recht breite Nutzbereich bietet geniigend Moglichkeiten, auch breite Schallquellen aufzuzeichnen. Der einfallende Schall wird kaum gerichtet, und deshalb auch kaum verfalscht. Deshalb bieten sie einen guten Kompromiss zwischen Klangqualitat und Richtwirkung. Breite
Niere
Das Polar P a t t e r n einer breiten Niere sieht so aus, wie m a n es bei einer breiten Niere - subcardioid - erwarten wiirde. Hervorzuheben ist aber, dass auch die Frequenzabhangigkeit der Richtcharakteristik lange nicht so ausgepragt wie
104
9 Schallwandler
bei einer Niere ist. Deshalb eignet sich die Charakteristik gut zur Abbildung grofier Schallquellen mit einem breiten Spektrum. Aufgrund der schwachen Richtwirkung sind sie fiir Intensitatsstereofonie-Anordnungen nicht geeignet.
A b b . 9.6. Polar Pattern einer breiten Niere.
Hyperniere,
Superniere
Die Hyperniere und die Superniere sind starker gerichtet als die normale Niere. Dadurch entsteht eine Restempfindlichkeit bei 180°, die off-axis-Richtungen verschieben sich auf etwa ±135°.
bis 1kHz 2kHz
A b b . 9.7. Polar Pattern bei Supernierencharakteristik.
Hyper- und Superniere haben ahnliche Eigenschaften. Supernieren niinimieren den riickwartig einfallenden Schall gegeniiber deni frontalen. Hypernieren hingegen niinimieren den indirekt einfallenden Schall.^ Sie werden vorwiegend dort eingesetzt, wo es Storquellen in den genannten Empfindlichkeitssenken gibt oder die Trennung zu benachbarten Schallquellen auch auf Kosten der Klangqualitat verbessert werden muss. Keule Eine besonders starke Richtwirkung fiir mittlere und hohe Frequenzen erreicht m a n durch Interferenzrohre. Die resultierende Charakteristik heii^t Keule oder vgl. http://sengpielaudio.com/UnterschiedHyperniere/Superniere.pdf
9.1 Mikrofone
105
directional. Systembedingt treten hier immer starke Klangverfarbungen auf. Deshalb wird nur in Fallen darauf zuriickgegriffen, in denen m a n niclit nalie genug an die Schallquelle herankommt und eine schleclitere Tonqualitat akzeptiert wird. Das ist liaufig der Fall bei Film- und Fernseliproduktionen und Elektronischer Bericliterstattung. Das Interferenzrolir sitzt vor der Membran und hat in definierten Abstanden Offnungen. Die Riclitwirkung kommt dadurch zustande, dass parallel von der Seite einfallende Schallwellen durcli unterscliiedliche Offnungen im Interferenzrohr eintreten. So entstehen Phasenunterschiede, die vor der Membran zu Ausloschungen fiihren. Lediglicli direkt einfallender Scliall kann das Referenzrohr oline Verluste passieren. 9.1.3
Bauformen
Je nacli Anwendungsfall kommen unterscliiedliche Bauformen zum Einsatz. So gibt es Miniaturmikrofone, die als Ansteckmikrofone, Grenzflachenmikrofone, die fiir den Einsatz auf dem Boden oder an den W a n d e n konzipiert sind, solche mit umschaltbarer Richtcharakteristik, solche, die das Schallfeld wenig storen oder auch Mikrofone mit einer moglichst gro£en Ausgangsleistung. 9.1.3.1
Kleinmembranmikrofone
Die Kleinmembranmikrofone bilden die groEte Gruppe der Mikrofone. Ihre Membran hat einen Durchmesser von etwa 17 Millimetern. Besprochen werden sie meist von vorne, also entsprechend der Langsachse. Mikrofone storen das Schallfeld. Deshalb ist es vorteilhaft, wenn sie moglichst klein gebaut werden. Der Mikrofonhersteller Schoeps konnte durch die Entwicklung seines ColetteSystems die Storeinfliisse des Mikrofons minimieren, indem die Kapseln von der Elektronik getrennt wurden. Das Auftreten der Interferenzeffekte setzt bei kleinen Membranen spater ein als bei grofieren. Kleine Mikrofone lassen sich auch in beengten Verhaltnissen - zum Beispiel an einem Schlagzeug - gut positionieren. Nicht zuletzt storen grofie Mikrofone auch die Sicht, was gerade bei Fernsehproduktionen und offentlichen Veranstaltungen nicht gewiinscht ist. 9.1.3.2
GroRmembranmikrofone
Bei Membranen ab 25 Millimeter Durchmesser spricht m a n von Grofimembranmikrofonen. Die Vorteile des Kleinmembranmikrofons sind die Nachteile der gro£en Membranen. Diese haben dafiir einen entscheidenden Vorteil. Durch die grofiere Flache sind sie empfindlicher und erzeugen deshalb eine grofiere Ausgangsspannung. Das erfordert spater eine geringere Vorverstarkung. Dadurch kann das Rauschen minimiert werden. Vor allem bei solistischen Instrumenten und bei naher Mikrofonierung werden Grofimembranmikrofone haufig eingesetzt. Sie werden iiblicherweise seitlich besprochen.
106 9.1.3.3
9 Schallwandler Doppelmembranmikrofone
Es gibt Bandchenniikrofone, die mit zwei Bandchen bestiickt sind, um die Ausgangsspannung zu vergrofiern. Im allgemeinen sind jedoch Kondensatormikrofone gemeint, wenn m a n von Doppelmembranmikrofonen spricht. Auf der bisher freien Seite der Gegenelektrode wird eine zweite Membran installiert. Durch unterschiedliche Ladung der beiden Kondensatoren lassen sich elektronisch verschiedene Richtcharakteristika simulieren. Nicht verwechseln darf m a n Doppelmembranmikrofone mit Stereomikrofonen, die zwei voneinander unabhangige Mikrofone in einem Gehause darstellen. 9.1.3.4
Grenzflachenmikrofone
Ein Grenzfldchenmikrofon auch Pressure Zone Microphone (PZM) ist normalerweise ein Druckempfanger, der in eine P l a t t e eingelassen ist. Diese P l a t t e ist die Grenzflache. An der Grenzflaclie herrsclit fiir alle Frequenzen ein Druckmaximum. Da der direkte und der reflektierte Schall liier gleicliphasig auftreten, ergibt sich ein frequenzunabhangiger und um 6 dB hoherer Ausgangspegel. Das gilt aber nur fiir Frequenzen die klein sind im Vergleich zur Grofie der Grenzflache. Um den Effekt fiir alle Frequenzen nutzbar zu machen, werden die Mikrofone oft an einer weiteren Grenzflache, einer Wand oder dem Boden betrieben. Die Richtcharakteristik des Druckempfangers ist eine Kugel. Beim Grenzflachenmikrofon wird die Kugel durch die Grenzflache in der Mitte durchgeschnitten. Die Charakteristik hat somit die Form einer Halbkugel. Werden Druckgradientenempfanger verwendet, sind sie parallel zur Grenzflache montiert. Damit verlauft die 0°-Achse in Richtung der Grenzflache. Die resultierende Charakteristik teilt die Charakteristik des Mikrofons in zwei Halften, zum Beispiel in eine Halbniere.
9.1.3.5
Ansteckmikrofone
Ansteck- oder Lavaliermikrofone werden vor allem fiir Fernsehproduktionen und Live-Veranstaltungen verwendet. Sie werden an der Kleidung auf H6he des Brustbeins befestigt. Daraus resultieren verschiedene Schwierigkeiten: Raschelnde Kleidung und Beriihrung von Kleidungsteilen mit dem Mikrofon fiihren zu unerwiinschten Storgerauschen. Das Mikrofon befindet sich in keinem guten Winkel zur Schallabstrahlung des Sprechers. Die Hohen miissen deshalb elektronisch angehoben werden. Diese Charakteristik macht Nebengerausche besonders scharf und das Mikrofon neigt zu Riickkopplungen. Der Brustkorb des Menschen ist ein Resonanzraum, der aufgrund der Nahe zum Mikrofon einen unerwiinscht gro£en Einfluss auf die Klangfarbe der Stimme bekommt. Aufgrund dieser Nachteile werden heute haufig Headsets verwendet. Dabei handelt es sich um kleinste Mikrofone mit Kugelcharakteristik, die mit einem Kopfbiigel - ahnlich einer Brille - getragen werden. Das Mikrofon kann iiber
9.1 Mikrofone
107
einen Schwanenhals genau positioniert werden. Die Kapseln sind oft hautfarben ausgefiihrt, um dezenter zu wirken. Obwohl die Kugel tendenziell viel R a u m aufnimnit, scheint sie auf den ersten Blick nicht unbedingt fiir die Anwendung geeignet zu sein. Ini Zusamnienhang mit einem Pop-Schutz ergeben sich aber bessere Eigenschaften als mit einem Gradientenempfanger. Da die Mikrofone dicht vor dem Mund positioniert werden, hat m a n auch mit einer Kugel einen sehr hohen Nutzsignalanteil. Wann immer moglich sollte der Mediengestalter auf die Verwendung von Headsets hinwirken, vor allem wenn eine hohe Klangqualitat gefordert ist. 9.1.3.6
Rohrenmikrofone
Rohrenmikrofone (englisch: tube) sind Kondensatormikrofone, meist mit einer Groi^membran, deren ausgangsseitiger Impedanzwandler in Rohrentechnik ausgefiihrt ist. Rohrenmikrofone werden wegen des warmen Klangs geschatzt, sie khngen damit aber nicht neutraL Der Klang verandert sich aufierdem in Abhangigkeit der momentanen Betriebsdauer und in Abhangigkeit des Alters der Rohre. Rohrenmikrofone werden meist fiir Solisten verwendet, zum Beispiel fiir Gesang oder Violinen. Nachteilig ist ihr hoher Preis und der zusatzliche Aufwand, ein separates Netzteil mitzufiihren und aufzubauen. 9.1.4 Technische D a t e n Zu jedem Mikrofon gibt es ein Datenblatt, das die technischen P a r a m e t e r des Mikrofons beschreibt. Dazu gehoren einige Zahlenwerte und verschiedene Diagramme. Eines der Wichtigsten ist sicher das bereits beschriebene Richtdiagramm. Die anderen werden im Folgenden kurz besprochen. 9.1.4.1
Frequenzgang/Ubertragungsbereich
Der Frequenzgang wird in Haupteinsprechrichtung gemessen. Gerade bei Druckgradientenmikrofonen ist auch der Abstand zur Schallquelle wichtig. Aufgrund des Nahbesprechungseffektes andert sich der Frequenzgang mit dem Abstand zur SchaUquelle. Der Ubertragungsbereich ist die konstruktive Grofie, fiir welchen Arbeitsbereich das Mikrofon gedacht ist.
:
-"--"
-1(J
20
50
100
200
500
Ik
2k
5k
Frequenzgang MK 4 + CMC 6
A b b . 9.8. Frequenzgangdiagramm.
10k
20kHz
108 9.1.4.2
9 Schallwandler Empfindlichkeit
Die Empfindlichkeit - auch Feldleerlaufiibertragungsfaktor - wird in Millivolt pro Pascal ( m V / P a ) angegeben. Je hoher bei gleichem Sclialldruck die Ausgangsspannung ist, desto weniger Vorverstarkung ist notwendig. Entsprechend scliwach rausclit das Gesamtsystem. Gemessen wird der Ausgangspegel am unbelasteten Ausgang bei 1 kHz und einem Schalldruck von 1 Pa. Der Wert kann auch in d B y angegeben werden. 9.1.4.3 Ersatzgerauschpegel Der Ersatzgerauschpegel gibt an, wie stark das Mikrofon rauscht. Es wird als bewerteter Schalldruckpegel angegeben. Die Angabe ist damit frequenzunabhangig. Aufgrund der unterschiedlichen Bewertungskurven sind die Werte nur vergleichbar, wenn die Kurven bekannt und identisch sind. 9.1.4.4
Gerauschpegelabstand
Der Wert wird auch Gerauschspannungsabstand genannt. Er bezeichnet den Abstand vom Ersatzgerauschpegel zum Ausgangspegel bei einem EingangsschaUdruck von einem Pascal beziehungsweise 94dBspL- Auch diese Angabe ist bewertet. 9.1.4.5
Grenzschalldruckpegel
Der Grenzschalldruckpegel ist der hochste Schalldruck, der mit einem Klirrfaktor von weniger als 0,5% gewandelt werden kann. Gemessen wird der GrenzschaUdruckpegel bei 1 kHz.
9.2 Tonabnehmer Tonabnehmer wandeln mechanische Schwingungen in elektrische Signale um. Dabei gibt es zwei Hauptanwendungsfelder. Elektronische Musikinstrumente und Schallplattenspieler. Tonabnehmer fiir elektronische Instrumente werden im Abschnitt 7.3.4.1 behandelt. Die Bedeutung der Plattenspieler hat seit Einfiihrung der CD kontinuierlich abgenommen, so dass sie heute sowohl bei den Heimanwendern als auch als Medium fiir die Rundfunkiibertragung keine nennenswerte Rolle mehr spielen. Deshalb soUen die drei Verfahren nur kurz angesprochen werden.
9.3 Lautsprecher
109
9.2.1 Moving Coil ( M C ) / M o v i n g Magnet (MM) Beim Moving-Coil-Tonabnehmer ist die Nadel niit einer Spule verbunden. Der Magnet sitzt fest im Tonarm. Die Nadel iibertragt ihre Schwingung auf die Spule, die sich so im Magnetfeld bewegt. So wird eine Spannung induziert. Durcli die geringe Masse der Spule ist der Frequenzgang sehr gut. Demgegeniiber steht der Moving Magnet. Hier schwingt der Magnet mit der Nadel und die Spule steht fest. Da die Masse der Spule niclit kritiscli ist, kann sie mit mehr Windungen gebaut werden. Dadurcli steigt die Ausgangsspanung. Beiden Systemen gemeinsam ist ein verzerrter Frequenzgang. Das kommt daher, dass die induzierte Spannung von der Geschwindigkeit der Nadel abhangt. Die bewegt sich aber bei niedrigen Frequenzen langsamer, als bei hohen. Das fiihrt zu einem zu geringen Pegel fiir tiefe Frequenzen. Um das Problem zu beseitigen, muss der Frequenzgang iiber einen Phono-Vorverstarker korrigiert werden. 9.2.2 Kristallsysteme Kristallsysteme arbeiten nach dem piezoelektrischen Prinzip. Die Nadel iibt einen Druck auf den Kristall aus, der eine dazu proportionate Spannung abgibt. Der Vorteil ist, dass der Phono-Vorverstarker entfallt.
9.3 Lautsprecher Lautsprecher sind das Gegenstiick zum Mikrofon. Sie werden verwendet um elektrische Signale wieder in horbare Schwingungen umzuwandeln. Tatsachlich kann man Lautsprecher auch als Mikrofone verwenden. Die bei den Mikrofonen besprochenen Wandlerprinzipien finden sich im Lautsprecherbau wieder. Das Wort Lautsprecher wird synonym fiir einen einzelnen Lautsprecher, auch Chassis genannt, verwendet, aber auch fiir ein Gesamtsystem, bei dem mehrere Lautsprecher in einem Gehause vereinigt sind: eine Lautsprecherbox. Neben der Eigenschaften der Lautsprecher und der Bauart der Lautsprecherbox entscheidet die elektronische Beschaltung iiber die Klangqualitat. Wie und wo Lautsprecher in der Tontechnik eingesetzt werden zeigt der letzte Abschnitt. 9.3.1 Parameter Verschiedene Eigenschaften zeichnen einen Lautsprecher grundsatzlich aus. Erst das Gesamtkonzept einer Lautsprecherbox entscheidet letztendlich dariiber, wann ein Lautsprecher fiir eine Aufgabe geeignet ist. Ubertragungsbereich: Jede Lautsprecherbox ist fiir die Wiedergabe eines bestimmten Frequenzbereichs optimiert. Hier sollte der Frequenzgang weitgehend linear sein. Fiir Studiomonitore und HiFi-Lautsprecher gilt meist die 3-dB-Grenze, BeschaUungslautsprecher haben haufig hohere Toleranzen.
no
9 Schallwandler
Klirrfaktor: Der Klirrfaktor gibt die relative Menge nichtlinearer Verzerrungen an. G u t e Werte liegen unterhalb von einem Prozent. Lautsprecher sind damit die Komponenten mit dem hochsten zulassigen Klirrfaktor der gesamten Ubertragungskette. Ubergangsfrequenz: Melirwegesysteme nutzen Frequenzweiclien, die das Signal frequenzabhangig auf die verschiedenen Lautsprecher verteilen. Entsprechend gibt es eine oder melirere Ubergangsfrequenzen. Impedanz: Die Impedanz ist wichtig fiir die Auswalil des passenden Verstarkers. Sie ist ein Ma£ fiir den frequenzabhangigen Widerstand. Ilire Einheit ist das Ohm (i7). Beschallungslautsprecher soUten ohnehin nur mit dem passenden Controller und der passenden Endstufe betrieben werden. Doch auch hier muss auf die richtige Impedanz geachtet werden, wenn beispielsweise mehrere Lautsprecher an einer Endstufe betrieben werden soUen. In der Regel werden bis zu zwei Lautsprecher pro Endstufenkanal toleriert. Die Eingangsimpedanz nimmt dadurch ab, da es sich um eine Parallelschaltung von Widerstanden handelt. Die Endstufe muss dafiir eventueU auf die niedrigere Impedanz umgeschaltet werden. Wirkungsgrad: Der Wirkungsgrad gibt an, wie viel der elektrischen Leistung vom Lautsprecher in akustische Leistung umgewandelt wird. Der Wirkungsgrad ist sehr gering und liegt nur selten iiber 1%. Der Grofiteil der Eingangsleistung wird in W a r m e und akustische Blindleistung umgesetzt. Im Datenblatt angegeben wird normalerweise der Kennschalldruck. Gemessen wird der Schalldruck in einem Meter Entfernung bei einem W a t t Eingangsleistung. Er wird angegeben in d B / W / m . Belastbarkeit: Fiir die Belastbarkeit werden haufig mehrere Werte angegeben. Die Impulsbelastbarkeit ist die Leistung, die das System wenige Sekunden lang vertragt, ohne Schaden zu nehmen. Wichtiger ist die Nennbelastbarkeit, die besagt, welche Leistung ein normales Musiksignal dauerhaft haben darf. 9.3.2 C h a s s i s Bei einem Lautsprecherchassis geht es um die Wandlung von elektrischen Signalen in horbare Druckunterschiede in der Luft. Diese Wandlung geschieht iiber den Umweg eines mechanischen Antriebs. Dabei miissen Luftmassen bewegt werden, was Leistung erfordert. Deshalb sind Aspekte des Wirkungsgrads von gro£er Bedeutung, mit entsprechenden Auswirkungen auf die Dimensionierung der Bauteile. Die andere Kernanforderung ist die naturgetreue Wiedergabe des Nutzsignals. Wie immer muss in der Realitat ein Kompromiss zwischen Wunsch und Wirklichkeit gefunden werden. 9.3.2.1
Wandlerprinzipien
Allen Chassis gemeinsam ist ein Antriebsmechanismus, der mit einer schwingenden Membran verbunden ist. Diese Membran setzt die Luft vor ihr in
9.3 Lautsprecher
111
Bewegung und erzeugt so die horbaren Schallwellen. Unterschiede gibt es in den verwendeten Materialien, in der Ausformung der Membran und der Anpassung an die Luft. Zunachst werden Wandlerprinzipen beschrieben. In der Praxis wird fast ausschliefilich das Elektrodynamische eingesetzt. Wer sich im Zusammenhang mit Mikrofonen an den BegrifFerinnert, den wird es nicht verwundern, dass es unter den Lautsprechern auch Elektrostaten gibt. Die sind schon selten und werden in ihrer Exotik nur noch durch die Plasmalautsprecher iibertroffen, die lediglich der VoUstandigkeit halber erwahnt werden. Elektrodynamisch Bei elektrodynamischen Lautsprechern wird eine Spule in das Magnetfeld eines Dauermagneten eingelegt. Durch die Spule lauft die Signalspannung. Entsprechend der Schwingung des Nutzsignals andern sich die Ladungsverhaltnisse. Es kommt zur Anziehung beziehungsweise zur Abstoi^ung. Die Spule bewegt sich im Magnetfeld. An der Spule ist die Membran befestigt, die die Schwingung an die Luft iibertragt. Elektrostatisch Beim elektrostatischen Lautsprecher werden die Membran und eine Gegenelektrode aufgeladen. Zusatzlich wird die Signalspannung angelegt. Die Ladungsanderung sorgt dafiir, dass die bewegliche Membran von der starren Gegenelektrode angezogen oder abgestofien werden. Dass die Elektroden vorgeladen werden miissen spricht gegen den Einsatz dieser Technologic. Von Vorteil ist die gleichmafiige Krafteinwirkung auf die Membran. Welchen Vorteil das hat, wird im Abschnitt iiber die verschiedenen Membranausformungen noch deutlich werden. Plasmalautsprecher In Plasma- oder lonenlautsprechern wird durch Hochspannung die Luft zwischen zwei Elektroden ionisiert. Die Nutzspannung moduliert die Vorspannung, was die Ausdehnung des ionisierten Gases zur Folge hat. Der Vorteil der fast tragheitsfreien ,Membran' ist eine besonders hohe Impulstreue. Aber die Hochspannung, die benotigt wird ist unwirtschaftlich und stellt hohe Anforderungen an die Sicherheit. Auch der Wirkungsgrad ist sehr gering. 9.3.2.2 Membranausformungen Wie auch immer die Kraft auf die Membran iibertragen wird, es gibt verschiedene Bauarten, in der die Membran gebaut werden kann. Das Ziel dabei ist einmal, eine moglichst leichte Membran zu bauen, um eine moglichst hohe Impulstreue zu erreichen. Gleichzeitig muss die Membran aber auch moglichst
112
9 Sdiallwandler
stabil sein, um nicht in Partialschwingungen aufzubrechen. Fiir die verschiedenen Frequenzbereichen von Mehrwegesystenien werden haufig unterschiedliche Membranformen gewahlt. Das hangt damit zusammen, dass die Bauarten individuelle Vor- und Nachteile haben, die in verschiedenen Frequenzbereichen unterschiedlich stark zu Tage treten. Konuslautsprecher Die meisten Membranen - insbesondere auch im Bereich der Tief- und Mitteltoner - sind trichterformig. Am Rand ist der Spalt iiber einen elastischen Ring - der Sicke - mit dem aufieren Rahmen des Lautsprechers verbunden. Kalottenlautsprecher Bei Kalottenlautsprechern nennt man die Membran den Dom. Er ist die Kuppe einer Kugel. Eingesetzt werden sie fiir hohere Frequenzbereiche. Durch einen giinstigen Einbau in die Lautsprecherbox kann eine vorteilhafte Richtwirkung erzielt werden. Flachmembranlautsprecher Wie der Name schon sagt, ist die Membran bei dieser Bauart flach. Der Vorteil liegt darin, dass die Kraftiibertragung auf die Umwelt iiber die gesamte Menibranflache gleichphasig erfolgt. Schwierig ist eine Flachnienibran zu bauen, die steif genug ist, um voUstandig zu schwingen. Auf kleineren Flachen ist das leichter moglich und deshalb werden Flachmembranlautsprecher allenfalls im Mittel-Hochtonbereich verwendet. Bdndchenlautsprecher Die Bauform erinnert stark an ein Bandchenmikrofon. Vorteilhaft ist die geringe Membranmasse, was eine gute Impulstreue ermoglicht. Dagegen ist die Ausgangsleistung sehr gering. Einige Hochtonlautsprecher werden als Bandchenmikrofon ausgefiihrt. Horner Ein Horn sagt eigentlich nichts iiber die Form der Membran aus. Da aber die Membran in den anderen Fallen die Anpassung an das Ubertragungsmedium Luft iibernimmt und das Horn ein ebensolcher Anpassungsmechanismus ist, wird das Horn hier besprochen. Dabei schwingt die Membran in einer Druckkammer und treibt damit eine relativ geringe Luftmenge an. Der Trichter offnet sich zum Hornausgang und hin. Hornsysteme haben den Vorteil, durch eine niedrigere Ansteuerung des Lautsprechers im Inneren, nur verhaltnisma£ig wenig zu verzerren.
9.3 Lautsprecher
113
9.3.3 Lautsprecherbox Jeder Lautsprecher arbeitet nur in einem bestimmten Frequenzbereich annahernd linear. Um das gesamte horbare Spektrum durch Lautsprecher zu iibertragen, miissen mehrere Chassis kombiniert werden. Das sind die sogenannten Mehrwegesysteme. Aber auch einzelne Chassis werden in Lautsprecherboxen eingebaut um ungewohte akustische Phanomene zu verhindern. Durch die Konstruktion der Lautsprecherbox selbst wird versucht, die Parameter des Gesamtsystems zu optimieren. Verschiedene Konstruktionsmuster haben sich hier etabhert. 9.3.3.1 Akustische Phanomene Es gibt mehrere akustische Griinde dafiir, einen Lautsprecher in einem Gehause unterzubringen. Der Wichtigste ist der akustische Kurzschluss, der den sinnvohen Betrieb eines Lautsprechers aufierhalb einer Lautsprecherbox verhindert. Die Membran soU die vor ihr hegende Luft so komprimieren oder expandieren, dass die Druckwehe sich durch den Raum fortsetzen kann. Die Kompression auf der Vorderseite geht mit der Expansion der Druckverhaltnisse auf der Riickseite einher. Ware die Vorder- nicht von der Riickseite getrennt, dann fande der Druckausgleich direkt zwischen dem Druck auf der Vorderseite und dem Gegendruck auf der Riickseite statt. Den akustischen Kurzschluss kann man nur verhindern, indem man die Vorder- von der Riickseite trennt. Das kann durch die Montage an einer Trennwand geschehen oder durch den Einbau in eine Lautsprecherbox. Der Einbau in eine Wand nimmt dem Lautsprecher seine Transportabilitat, hat aber gute akustische Eigenschaften. Ein kleines und kompaktes Gehause lasst sich herumtragen, man muss dafiir aber Einschrankungen im Frequenzgang in Kauf nehmen. Der Frequenzgang einer Lautsprecherbox hangt unter anderem von ihren Dimensionen ab. Beugungseffekte treten immer dann auf, wenn die Wellenlange grofi ist gegeniiber dem Hindernis. Tiefe Frequenzen beugen sich also um die Lautsprecherbox herum und breiten sich kugelformig aus. Der Verlust der Leistung im Bassbereich durch die geringere Richtwirkung muss bei der Dimensionierung bedacht werden. Die tiefen Frequenzen, die sich um die Lautsprecherbox herumbeugen werden an der nachsten Wand reflektiert und iiberlagern die Wellen, die von der Box nach vorne abgestrahlt werden. Tiefste Frequenzen haben eine so gro£e Wellenlange, dass sie gegen phasenbedingte Ausloschung in normalgro£en Raumen relativ immun sind. Anders sieht es aus, wenn es um die Beschallung gro£er Hallen geht. Hier konnen durchaus Probleme auftreten. Deshalb wird versucht, die Grenzfrequenz moglichst weit nach unten zu verlagern. Die Gr6£e der Box hilft dabei, aber auch die Art der Aufstellung. Bildet man ein Lautsprechercluster, so gilt das gesamte Cluster als Hindernis und nicht nur die Gr6£e der einzelnen Lautsprecherbox.
114 9.3.3.2
9 Sdiallwandler Mehrwegesysteme
Daniit eine Lautsprecherbox einen gro£en Frequenzbereich verzerrungsfrei iibertragen kann, werden mehrere Lautsprecher in ein Gehause eingebaut. Hier spricht m a n von einem Mehrwegesystem. Mehrwegesysteme konnen aber auch die verschiedenen Lautsprecher in mehreren Gehausen unterbringen. Grundsatzhch unterschiedlich dabei ist die Beschaltung. Mehr dariiber, wie m a n den verschiedenen Lautsprechern ihre Signale zufiihrt, steht im Abschnitt 9.3.4. An dieser SteUe soUen Moglichkeiten aufgezeigt werden, wie die verschiedenen Chassis angeordnet werden. Neben dem Frequenzgang spielt auch die Phasenlage eine wichtige RoUe fiir die quahtativ hochwertige Wiedergabe. Fiir die Wiedergabe optimal ware ein einziger Lautsprecher. Da es aber keinen Lautsprecher gibt, der ahe Frequenzen korrekt abbilden kann, sind andere Losungen gefragt. Die bauhch einfachste Variante ist die Montage der Chassis auf einer gemeinsamen Frontplatte. Durch den einfachen Aufbau sind giinstige Losungen moghch. Da die Lautsprecher unterschiedhch tief sind, ist die Phasenlage aber bei dieser Losung nicht korrekt. Das wird bei der coplanaren Anordnung korrigiert, indem der Hochtoner nach innen versetzt wird. Damit stimmt die Phasenlage, aber der Schall kommt immernoch aus unterschiedlichen Richtungen. Bei Coaxialsystemen werden Mittel- und Hochtoner auf derselben Achse montiert. Das ist baulich relativ aufwandig, well eine Aufhangung entworfen werden muss, die stabil genug ist, den Schwingungen des Hochtoners Stand zu halten. Dieser muss so kompakt gebaut sein, dass er das Schallfeld des Mitteltoners nicht stort. Die Symbiose aus coplanarer und coaxialer Bauweise sind coinzidente* Systeme. Hier fallen nicht nur die Achsen der Lautsprecher zusammen, auch die Abstrahlebene ist dieselbe. Bei den SateUitensystemen geht es darum, die Basslautsprecher von den Hoch-Mitteltonern zu trennen. Der H a u p t g r u n d ist meist der Platz. Da die Gr6£e einer Lautsprecherbox abhangig von der tiefsten zu iibertragenden Frequenz ist, konnen die Boxen wesentlich kleiner gebaut werden, wenn sie nur hohe und mittlere Frequenzen iibertragen miissen. Die Hoch-/Mittelt6ner hei£en Satelliten, der Tieftoner ist der Subwoofer. Der Subwoofer iibertragt normalerweise Frequenzen unterhalb von 150Hz. Das ist moglich, well so tiefe Frequenzen nicht mehr geortet werden. 9.3.3.3
Konstruktionsmuster
Durch die Box werden die Einzelteile zu einem Ganzen, einem Funktionsblock verbunden. Sie hat einen erheblichen Einfluss auf die Funktionalitat des Gesamtsystems. Als akustisches Funktionselement soil die Box die Schwachen, coinzidieren bedeutet zusammenfallen
9.3 Lautsprecher
115
die an anderen Stellen des Lautsprechersystems entstehen abmildern. Im Wesentlichen gehort dazu die Vermeidung des akustischen Kurzschlusses. Das einfachste Bauprinzip t r a g t dem Rechnung, indem es die Chassis in einem geschlossenen Gehause einschliefit. Uber die kugelformige Ausbreitung tiefer Schallanteile wurde bereits gesprochen. Da gerade im tiefFrequenten Bereich das Gehor relativ unempfindlich ist, benotigt m a n hier eine grofie Leistung und Verluste kommen denkbar ungelegen. Das Bassreflex-Prinzip versucht, den riickwartig abgestrahlten Schall nutzbar zu machen. Dabei ofFnet m a n die Box an einer Stelle und verbindet die Riickseite des Tieftoners durch einen Kanal mit dieser Offnung. Der Eintritt in die Rohre hat dabei einen groi^en akustischen Widerstand, so dass es nicht zum akustischen Kurzschluss kommt. Die anderen Chassis sind durch Dammmaterial von der Bassreflex-OfFnung abgetrennt. Innerhalb des Bassreflexkanals konnen akustische Laufzeitgheder eingebaut sein, um die Phasenlage der reflektierten Frequenzen zu verbessern. Es gibt Lautsprecherboxen, die die W a n d e des Raumes, in dem sie gestellt werden, in die Schallabstrahlung einbeziehen. Dazu ofFnet m a n Riickwand und steht die Box so auf, dass der hinten austretende Schah der Wand reflektiert werden. Der Nachteil dieser Losung ist, dass die Box an bestimmten Positionen im R a u m richtig Funktioniert.
aufdie von nur
9.3.4 Elektronik Bisher wurde viel iiber die mechanisch-akustischen Elemente der Lautsprechersysteme gesprochen. Am Eingang hegt aber eine elektrische Wechselspannung an. Diese muss dem Chassis in geeigneter Weise zugeFiihrt werden. Die drei Elemente sind die Endstufe, die die notige Leistung hefert, um das Chassis anzutreiben, die Frequenzweiche, die daFiir sorgt, dass jeder einzelne Lautsprecher nur Frequenzen in seinem optimalen Arbeitsbereich von sich gibt und die die Balance der Lautsprecher eines Mehrwegesystems untereinander regelt und drittens der Controller, der die Arbeit des Lautsprechers iiberwacht und notfalls eingreift, um die Lautsprecher vor Beschadigungen zu schiitzen. 9.3.4.1 Endstufe EndstuFen konnen in die Lautsprecherbox integriert sein, kommen aber haufig auch als eigenstandiges Gerat vor. Man unterscheidet hier passive und aktive Lautsprecher. Neben der Unterscheidung, ob die EndstuFe intern oder extern zu finden ist, ist der wichtigere Aspekt die Frage, ob die EndstuFe vor oder hinter der Frequenzweiche sitzt. Sitzt die EndstuFe vor der Frequenzweiche, wird das gesamte Nutzsignal verstarkt. Anschliefiend wird in der Frequenzweiche das Signal auF die verschiedenen Wege auFgeteilt. So wird gearbeitet, wenn m a n eine externe EndstuFe hat, die eine Mehrwegebox antreibt. In der Box liegt die Frequenzweiche, die so dimensioniert sein muss, dass sie das verstarkte Signal verarbeiten kann.
116
9 Schallwandler
Der Vorteil des Verfahrens ist, dass man nur eine Endstufe benotigt. Ein einzelnes Kabel geniigt, um das verstarkte Signal zur Box zu transportieren. Sitzt die Endstufe hinter der Frequenzweiche, dann muss jeder Weg separat verstarkt warden. Es sind also melirere Endstufen notig. Die einzelne Endstufe muss aber niclit so aufwandig konstruiert sein, well der Arbeitsbereicli nur einen geringeren Frequenzgang umfassen muss und das Signal lediglicli mit Line-Pegel vorliegt. Satellitensysteme trennen das Signal bereits in der externen Endstufe und fiihren es iiber zwei getrennte Leitungen dem Subwoofer und dem Hoch-/Mittelt6ner zu. Aktivboxen wird ein Linesignal zugefiilirt, das in der Box zunachst in Frequenzbander aufgetrennt und anschlie£end verstarkt wird. Passive Lautsprecher finden sich vor allem im Heimbereicli, in dem mit Vollverstarkern und vor allem mit unsymmetrisclien Signalen gearbeitet wird. Da unsymmetrisclie Leitungen anfallig sind fiir Einstreuungen, waren nur kurze Kabelwege zu den Lautsprecliern oline Qualitatsverlust machbar. Im Studiobereicli sind Aktivlautsprecher selir beliebt. Bei Beschallungen kommen fast ausscliliefilicli passive Boxen zum Einsatz, die von externen Endstufen angetrieben werden. Fiir die Monitorbeschallung greift man hingegen gerne auf aktive Systeme zuriick. Basslautspreclier sind in der Regel immer separat vorhanden und werden von einer eigenen Endstufe mit dem Signal versorgt. 9.3.4.2 Frequenzweiche Die Frequenzweiche hat die Aufgabe, das Signal in mehrere Frequenzbereiche aufzutrennen. Die einzelnen Frequenzbander werden dann dem entsprechenden Chassis - oder der Endstufe - zugefiihrt. Die Frequenzweiche sorgt dafiir, dass ein Chassis nur die Frequenzen empfangt, die im optimalen Arbeitsbereich hegen. AuEerdem muss die Weiche so arbeiten, dass aUe Frequenzen des Nutzsignals im richtigen Verhaltnis von einem Lautsprecher abgestrahlt werden. Sie ist also mafigeblich an dem Gesamtklang der Lautsprecherbox beteiligt. Zum Einsatz kommen Tiefpassfilter oder Bandpassfilter fiir den Bassbereich, Bandpassfilter fiir die Mittenbander und Hochpassfilter im Hochtonbereich. Mehr iiber Filterschaltungen steht im Abschnitt 14.2.1.1. 9.3.4.3 Controller Controller priifen die Betriebsparameter eines Lautsprechers und regeln bei Bedarf die Leistung herunter oder limitieren das Ausgangssignal, um Beschadigungen an den Lautsprechern zu verhindern. Relevante Messgrofien konnen die Temperatur, der Eingangspegel oder die Membranauslenkung sein. Damit ein Controller richtig arbeiten kann, muss er die KenngroEen des angeschlossenen Lautsprechers kennen. Jede Lautsprecherbox hat also ihren eigenen Controller.
9.3 Lautsprecher
117
Controller kommen meist im Hoclileistungsbereicli, also bei Beschallungen zum Einsatz. Sie konnen in die Endstufe eingebaut sein oder zwisclien Endstufe und Lautsprecherbox angesclilossen werden. Manche Lautspreclierhersteller bieten Basisendstufen an, die mit Controllermodulen bestiickt werden, die zu der anzuschlie£enden Lautsprecherbox passen. 9.3.4.4 Konnektivitat Aktiv- und Passivlautspreclier werden mit grundsatzlicli anderen Signalen beschickt. Aktivlautspreclier erwarten ein Linesignal am Eingang. Sinnvoll und im Bereich der Tontechnik iiblich sind symmetrische Leitungen. Meist kommen XLR-Stecker zum Einsatz. Passive Lautsprecher werden mit bereits verstarkten Signalen versorgt. Diese sind entsprechend robust gegeniiber aufieren Einfliissen. Die Ubertragung erfolgt unsymmetrisch, oft iiber ein zweiadriges Kabel mit eventuell offenen Enden, die iiber Klemmen an die Endstufe angeschlossen werden. Fiir den Betrieb bei BeschaUungen empfiehlt sich die Verwendung eines verriegelbaren Steckersystems. XLR-Stecker wurden haufig verwendet, heute benutzt m a n meist Speakon-Verbindungen. Speakon hat einen Bajonett-Verschluss. Kabel werden mit Steckern versehen, in den Geraten werden Buchsen verbaut. Kabel werden iiber Kupplungsstiicke verlangert. Verwechslungen zwischen Lautsprecher- und Mikrofonkabeln werden durch das andere Steckersystem nahezu ausgeschlossen. Der wesenthche Vorteil der Speakon-Systeme ist aber die Moglichkeit, iiber ein Kabel zwei unterschiedliche Signale zu iibertragen. So geniigt ein Kabel von der Endstufe zu den M i t t e h / H o c h t o n e r n . Von dort aus wird ein kurzes Kabel zum Subwoofer weitergefiihrt.
9.3.5
Lautsprecheranordnungen
Nach den Chassis und den einzelnen Lautsprecherboxen ist auch die Anordnung der Lautsprecher interessant. Zu einer Lautsprecheraufstellung gehort immer auch die Abhorposition. 9.3.5.1 M o n o Uber einen einzelnen Lautsprecher lassen sich nur monofone Signale wiedergeben. Durch die Veranderung der Abhorposition andert sich nur die Klangfarbe aufgrund der Richtwirkung der Lautsprecher. Je weiter m a n sich aus dem Fokus herausbewegt, desto dumpfer wird der Klang, da hohe Frequenzen immer starker gerichtet abgestrahlt werden als tiefe. 9.3.5.2 Stereo Anordnungen mit zwei Lautsprechern sind fiir die stereofone Wiedergabe geeignet. Ob tatsachhch ein stereofoner Horeindruck entsteht hangt davon ab.
118
9 Sdiallwandler
ob ein Stereosignal wiedergegeben wird und von der korrekten Abhorposition. Die zwei Lautsprecher soUten mit dem Horer ein gleichseitiges, zumindest aber gleichschenkliges Dreieck bilden. Das Wesen der Stereowiedergabe ist die BreitenstaflFelung des Klangbildes. Der Horer ortet die verschiedenen Quellen im Signal an verschiedenen Stellen. Begonnen hat die Entwicklung mit dem sogenannten Ping-Pong-Stereo. Dabei wurden die Instrumente vollstandig entweder auf den hnken oder den rechten Kanal geroutet. Spater ging man dazu iiber, das Panorama kontinuierhch zu belegen. Erreicht wird der Stereoeffekt durch IntensitatsdifFerenzen zwischen dem hnken und dem rechten KanaL Bei der Schahortung an einer Stehe, an der kein Lautsprecher steht, spricht man von Phantomschallquellen. Tritt man aus dem optimalen Abhorpunkt, andert sich zunachst das Panorama. Was die Klangfarbe angeht, sind Stereoanordnungen robuster als einzelne Lautsprecher. Stereoanordnungen sind im Tonstudio meist mehrfach vorhanden. Die Nahfeldmonitore stehen in der Nahe des Technikers. Das Nahfeld ist dadurch charakterisiert, dass die Schallausbreitung kugelformig verlauft. Das ist nur in der Nahe einer SchallqueUe der FalL Je weiter man sich von der SchaUquelle entfernt, desto flacher wird die Kriimmung dieser KugeL Bei ebenen Wellenfronten spricht man vom Fernfeld. Fernfeldmonitore soUten in einiger Entfernung zum Abhorplatz aufgesteUt werden, damit die Wellenfront flach genug beim Horer eintrifft. Nahfeldmonitore entsprechen von ihrem Klang und der Leistung am ehesten der heimischen Abhorsituation. Deshalb werden sie vorwiegend eingesetzt, wenn fiir den hauslichen Einsatz produziert wird. Neben der Simulation der spateren Abhorsituation sollen sie dennoch erlauben, das Signal neutral zu analysieren. Fernfeldmonitore sind deutlich grower und werden fiir laute Abhorsituationen und als zwischenzeitliche Alternative genutzt.
Abb. 9.9. Lautsprecheranordnung bei Stereowiedergabe.
9.3 Lautsprecher
119
9.3.5.3 Mehrkanal Mehrkanalsysteme, meist unter dem Begriff Surround zusammengefasst, finden hauptsachlich Verwendung in bildgebundenen Medien, also im Kino und imnier haufiger auch im Heimkino. Mehrkanalaufnahmen von Musik sind derzeit noch eher selten, es gibt aber bereits Pilotversuche mit der Sendung von Surround-Aufnahmen. Kritisch bei dieser Technik ist die Abhorposition. Der Horer muss von den Lautsprechern umgeben sein. Die richtige Installation einer Mehrkanalanlage im heimischen Wohnzimmer ist deslialb nur scliwer zu realisieren. Quadrophonic (4-0) Der erste Ansatz des Melirkanaltons war in den 1970er Jahren die Quadrophonie, die mit den vier Kanalen vorne links, vorne reclits, hinten links und hinten reclits gearbeitet hat. Aufgrund des technischen Aufwands und ungeniigender akustischer Vorteile, konnte sich die Technik aber nicht durchsetzen. Problematisch war auEerdem, dass die Schallplatte, die damals im Endverbraucherbereich fiihrend war, nicht fiir die Aufzeichnung von vier diskreten Kanalen geeignet war. Bei der Quadrophonic wurden vier Lautsprecher im Quadrat angeordnet. Sie batten einen Winkel von jeweils 90° zueinander.
Abb. 9.10. Lautsprecheranordnung bei Quadrophonie.
Surround (5.1) 5.1 ist eine sehr haufige Anordnung fiir Filmton und hat die Kanale left, center, right, left surround, right surround und den zusatzlichen Basskanal LFE {Low Frequency Effects). Sie ist normalerweise gemeint, wenn man von Surround spricht. tJber den Mittenkanal werden die Dialoge abgestrahlt. Theoretisch konnte man das auch iiber eine Phantomschallquelle zwischen dem linken und dem rechten Kanal erreichen. Da sich aber das Panorama verschiebt, wenn
120
9 Schallwandler
man nicht in der Mitte zwischen den beiden Lautsprechern sitzt, wiirden die Kinobesucher auf den Aui^enplatzen die Dialoge nicht aus Richtung der Leinwand orten, sondern daneben. Da Surroundanlagen fiir das Heimkino immer mehr Verbreitung finden, werden auch reine Audioproduktionen niittlerweile in Surround angeboten. Der Rundfunk strahlt bereits Surround-Sendungen aus.
Abb. 9.11. Lautsprecheranordnung bei 5.1 Surround.
SDDS SDDS ist ein Kinoformat von Sony. SDDS ist ein variables System, die sieben Richtungskanale konnen voneinem Prozessor auf eine beliebige Anzahl tatsachlich vorhandener Wiedergabelautsprecher - meist 5.1 - umgerechnet werden. Zusatzlich zur 5.1-Anordnung hat SDDS einen Kanal fiir halbhnks und einen fiir halbrechts. Damit wird auf breiten Leinwanden die Ortung verbessert. SDDS wird ausschhefihch fiir Kinofilme verwendet. 9.3.5.4 Wellenfeldsynthese Ein neuer Ansatz der Beschahung ist die WeUenfeldsynthese. Dabei wird der zu beschaUende Raum von Lautsprechern umgeben, die alle mit einem vom Computer berechneten Signal versorgt werden. Die Summe aller dieser Signale erzeugt im Horraum eine Wellenformation, die das gewiinschte Horerlebnis verursacht. Das Besondere daran ist, dass Schallquellen simuliert werden konnen, die mitten im Raum stehen, oder sogar aui^erhalb. Im Gegensatz zu den stereofonen Verfahren, die die Besonderheit des menschhchen Gehors nachbilden, setzt die Wellenfeldsynthese an den Gegebenheiten der Schallausbreitung im Raum an.
9.4 Kopfhorer
121
^RRf^^^R
A b b . 9.12. Beispielhafte Lautsprecheranordnung bei Wellenfeldsynthese.
9.4 Kopfhorer Sobald Mikrofone ini Aufnahnieraum in Betrieb sind, erfolgen die Konimunikation sowie das Monitoring iiber Kopfliorer. Kopfhorer warden danach kategorisiert, wie viel Schall sie von aufien an das Ohr lassen. Man spricht deshalb auch von ofFenen oder geschlossenen Kopfhorern. Beide Systeme haben ihre spezifischen Vor- und Nachteile. Aui^erdem bevorzugen verschiedene Sprecher oder Musiker jeweils andere Merkmale, sei es in der Klangcharakteristik, in der Geschlossenheit oder der Ergonomie. 9.4.1 G e s c h l o s s e n e K o p f h o r e r Geschlossene Kopfhorer haben den Vorteil, dass das Ubersprechen auf die Mikrofone minimiert wird. Denn geschlossene Kopfhorer strahlen weniger Schall nach au£en ab, als ihre offenen Pendants. Das Ubersprechen ist ein wahrnehmbares P h a n o m e n , das allerdings nicht allzu schwer wiegt, solange das eingespielte Material sich mit dem fiir die Produktion verwendeten deckt. Das bedeutet, dass die Toleranz gegeniiber fertig produzierten Spuren grower ist, als die gegeniiber sporadisch angelegter Guide Tracks, das sind Hilfsspuren, die die Orientierung zum Beispiel fiir den Schlagzeuger verbessern. Musiker mogen geschlossene Kopfhorer im allgemeinen nicht besonders, well sie dadurch zu sehr von der Realitat abgeschirmt sind. Aufierdem erzeugen geschlossene Kopfhorer oft ein unangenehmes Druckgefiihl. In der Pop-Musik wird haufig mit sogenannten In-Ear-Monitorsystemen gearbeitet. Auch dabei handelt es sich um geschlossene Systeme, sogenannte Otoplastiken mit eingebauten Wiedergabesystemen. Otoplastiken sind an den Gehorgang angepasste Ma£anfertigungen. In der Friihzeit dieses Kopfhorermonitorings empfanden die Musiker haufig eine zu gro£e Distanz zum Publikum, was sich auf das bei einem Live-Konzert so wichtige Feeling ausgewirkt hat. Deshalb wird heute iiber sogenannte Ambience-Mikrofone der Raumeindruck dem Monitormix hinzugefiigt.
122
9 Schallwandler
9.4.2 OfFene K o p f h o r e r OfFene Kopfhorer verbessern zwar den Bezug zur Realitat, interagieren mehrere Musiker im Aufnahmerauni niiteinander, dann reicht das aber unter Umstanden noch nicht aus. Chore beispielsweise neigen zum ,Auseinanderfalien', well die einzelnen Sanger zu wenig Verbindung zu den Menschen neben ihnen haben. Oft wird dann eine Muschel vom Ohr abgehoben und - wichtig - an einer anderen Stelle am Kopf aufgesetzt. Ein lediglich abgehobener Kopfhorer stort eine Aufnahme empfindlich. Es gibt Kopfhorer, bei denen sich eine Muschel abnehmen lasst, oder die ohnehin nur mit einer Kapsel geliefert werden. Das hat den Vorteil, dass die nicht verwendete Seite des Kopfhorers keinen Schall in den R a u m abstrahlt. Die haufigste Ursache fiir Ubersprechen sind iibrigens nicht die benutzten Kopfhorer, sondern die unbenutzten, die offen im R a u m liegen, und bei denen die Lautstarke nicht heruntergedreht ist.
9.4.3
Kopfhorerverstarker
Die Kopfhorermischung wird normalerweise in der Regie erstellt und iiber eine Leitung in den Aufnahmeraum iibertragen. Dort wird mit dem Signal ein Kopfhorerverstarker gespeist, der meist mehrere Kopfhoreranschliisse bereit stellt. Zumindest die Lautstarke soUte fiir jeden Kopfhorer einzeln regelbar sein. Gangige Mischpulte konnen 4 unterschiedliche Mischungen gleichzeitig erstellen. So kann jeder Musiker seine eigene Monitormischung bekommen. Spielen mehr Musiker, als Monitorwege verfiigbar sind, dann kann die Mischung auch im Studio selbst erstellt werden. Fiir diesen Zweck gibt es Kleinmischpulte, die Einzelsignale oder Vormischungen aus der Regie bekommen und vom Musiker selbst zusammengemischt werden konnen. Diese Variante entlastet den Toningenieur, es gibt aber viele Musiker, die mit der Aufgabe iiberfordert sind, ihren eigenen Monitormix zu erstellen. 9.4.4 Druckkammerprinzip Kopfhorer funktionieren nach dem Druckkammerprinzip. Die Wellenlange ist abhangig von der Frequenz. Fiir tiefe Frequenzen wachst die Wellenlange schnell auf mehrere Meter an. Ist die Wellenlange grofier, als der R a u m , dann kann sich die Welle nicht ausbreiten. Da der Kopfhorer einen geschlossenen R a u m um das Ohr und die Membran bildet, der nur eine Ausdehnung von wenigen Zentimetern hat, konnten iiber die Wellenausbreitung kaum tiefere Frequenzen als 5 kHz abgestrahlt werden. Aber eben dieser geschlossene R a u m ermoglicht es, die tiefen Frequenzen dennoch wahrzunehmen. Die Bewegung der Membran fiihrt zu einer Anderung des Luftdrucks im Inneren der Druckkammer. Diese periodische Anderung des Luftdrucks wird als Schall wahrgenommen.
9.5 Analog-Digital-Wandler - AD-Wandler
123
9.5 Analog-Digital-Wandler — AD-Wandler Analog-Digital-Wandler - engliscli Analog Digital Converter, ADC - sind keine Scliallwandler ini engeren Sinne. Denn sie arbeiten niclit niit dem Schall direkt. Dieser wurde vorlier sclion in eine elektrisclie Wecliselspannung konvertiert. Dennocli soil er an dieser Stelle besproclien werden, weil er mittlerweile ein festes d i e d in der Ubertragungskette darstellt. In der Digitaltechnik werden alle Informationen in Form von Zahlenwerten gespeicliert. Die Verarbeitung geschieht auf der Basis mathematisclier Operationen. Durch Codierung wird die Information vom Signal getrennt. So konnen selbst kleine Anderungen im Signal zuverlassig gespeichert werden, wenn die Codierung eine zuverlassige Speiclierung der Zalilenwerte zulasst. Melir zum Thema Codierung stelit im Abschnitt 11.4.1 auf Seite 174. Kopier- und Ubertragungsverluste, wie sie bei analogen Medien auftreten, kann man in der digitalen Welt siclier vermeiden. Zusatzlich zu den eigentlichen Nutzdaten lassen sicli Mechanismen zur Fehlererkennung und Fehlerkorrektur in die Dateiformate integrieren. Damit werden digitale Signale unempfindlich gegen Storungen. Dadurcli sinken die technisclien Anforderungen an die Speichermedien und mit ihnen die Kosten. AUerdings fiihren zusatzliche Wandlungen zu Qualitatsverlusten, so dass man in heterogenen Studioumgebungen, in der Analog- und Digitaltechnik parallel eingesetzt werden, unter Umstanden in schlecliterer Qualitat produzieren muss, als das in einem rein analogen Studio moglich ware. Wie hocli der Preis ist, den man fiir diese Vorteile zalilen muss, wird kontrovers diskutiert. Die audiophilen Anhanger der analogen Tontechnik bringen gerne das Beispiel, dass eine AD-DA-Wandlung sei, als drelie man eine Kuh durch den Fleischwolf, um danach wieder eine Kuh daraus zu machen. Das ist sehr plakativ, aber fiir die Bewertung der Verluste durch die Digitalisierung zu stark vereinfacht. Tatsache ist, dass man fiir die Digitalisierung Informationen, die im Signal enthalten sind, aufgeben muss. Nach einer kurzen Einfiihrung in die binare Zahlendarstellung wird die Abtastung und die Quantisierung beschrieben, die in Kombination aus dem zeit- und wertekontinuierlichen Analogsignal ein zeit- und wertediskretes Digitalsignal machen. 9.5.1 Zahlensysteme Die Zahlenwerte, mit denen in der digitalen Welt gearbeitet wird, werden an die Arbeitsweise des Computers angelehnt und deshalb nicht im uns vertrauten Dezimalsystem angegeben. Der Computer arbeitet mit zwei Schaltzustanden namlich an und aus. Numerisch wird das ausgedriickt als 1 und 0. Ein einzelner dieser Zahlenwerte heifit Bit. Das Zahlensystem, das mit zwei unterschiedlichen Ziffern arbeitet, ist das Binarsystem. Ein Bit lasst sich also mit einer Ziffer im Binarsystem darstellen. Die nachstgroEere Einheit in der Computerwelt ist das Byte. Ein Byte ist eine Folge von 8 Bit. Jetzt kann
124
9 Schallwandler
jedes dieser Bits als eine binare Stelle ausgedriickt werden. Das Ergebnis sahe zum Beispiel folgendermafien aus: 01101001. Da die Darstellung grofier Datenmengen auf die Art etwas platzraubend und Uniibersichtlich ware, verwendet m a n haufig das Hexadezimale Zahlensystem. Das Hexadezimalsystem kennt 16 verschiedene Ziffern - 0-9 und A - F . Der hexadezimale Wert fiir die obige Binarfolge ware 69. Daniit m a n die Zahl von den Dezimalzahlen unterscheiden kann, markiert m a n hexadezimale Zahlenfolgen mit einem nachgestellten H, einem $-Zeichen oder mit dem Prafix Ox, also 0x69 in unserem Beispiel. Ebenso hangt m a n an binare Werte eine tiefgestellte 2 an.
Tabelle 9.1. Ubersicht iiber dezimale, hexadezimale und binare Werte. 4 dezimal 0 1 2 3 5 6 7 0x4 hexadezimal 0x0 0x1 0x2 0x5 0x6 0x7 0x3 binar OOOO2 OOOI2 OOIO2 OOII2 OIOO2 IOIO2 OIIO2 OIII2 11 12 dezimal 8 9 10 13 14 15 hexadezimal 0x8 0x9 OxA OxB OxC OxD OxE OxF binar IOOO2 IOOI2 IOIO2 IOII2 IIOO2 IIOI2 IIIO2 I I I I 2
Als Format fiir die Binarzahl babe icb das sogenannte Half-Byte gewablt. Also eine Folge von vier Bit. In der Praxis werden jeweils vier Bit durch eine hexadezimale Ziffer ausgedriickt. Aus der obigen Tabelle lassen sicb alle Bytemuster in hexadezimale Ziffernfolgen umrecbnen. So lassen sich behebige positive ganze Zahlen darsteUen. Bei der Digitalisierung geht es um die digitale Abbildung einer Wechselspannung. Eine Wechselspannung ohne Gleichspannungsanteil hat aber sowohl positive als auch negative Spannungswerte. Um die darzustellen, verwendet m a n das Zweierkomplement. Das Zweierkomplement wird aus dem positiven Wert gebildet indem m a n alle Bits kippt und 1 hinzuaddiert.
Tabelle 9.2. Bildung des Zweierkomplements einer Binarzahl. positiver Wert: alle Bits invertiert:
±^
01101001 10010110
I
Zweierkomplement (negativer Wert): 1 0 0 1 0 1 1 1
Der Grund fiir das recht kompliziert wirkende Verfahren ist, dass es nur einen Wert fiir NuU geben darf. Andere Verfahren b a t t e n das Problem, dass nicht nur eine + 0 sondern aucb eine -0 codiert werden konnte. Das Zweierkomplement vermeidet diese Problematik. Tabelle 9.3 zeigt, dass nur ein Wert fiir die Null existiert.
9.5 Analog-Digital-Wandler - AD-Wandler
125
Tabelle 9.3. Bildung des Zweierkomplements der Null. Vorgang 8 Bit Datenwort positiver Wert: 00000000 alle Bits invertiert: 11111111 +1 1 Zweierkomplement (negativer Wert) 1 0 0 0 0 0 0 0 0 9.5.2 Abtastung Das Analogsignal ist eine kontinuierliche Abfolge unendlich vieler Spannungswerte. Unendlich viele Werte lassen sich aber digital nicht darstellen. Bei der Abtastung werden einzelne Werte aus dem Analogsignal ausgewahlt - man spricht vom Sample, der Probe - und so die Menge der Daten auf ein digital speicherbares Mafi reduziert. Das klingt zunachst nacli einem gro£en Datenverlust. Die Abtastung selbst ist jedoch verlustfrei. Ein Verlust gescliielit allerdings bei der Vorbereitung auf die Abtastung. 9.5.2.1 Analoge Tiefpassfilterung Kernstiick der Abtastung ist das Sliannon'sche Abtasttheorem. Es besagt, dass sich eine komplexe Schwingung durch die Amplitudenwerte zweier beliebiger Punkte innerhalb eines Periodendurchgangs der hochsten zu iibertragenden Frequenz vollstandig beschreiben lasst. Das hei£t, es gibt eine obere Grenzfrequenz. Diese Grenzfrequenz wird auch Nyquist-Frequenz genannt, nach dem US-amerikanischen Physiker schwedischer Herkunft Harry Nyquist, an dessen Uberlegungen Shannon mit dem Abtasttheorem ankniipfte. Bei der Abtastungen miissen alle Signalbestandteile oberhalb dieser Grenzfrequenz bereits entfernt worden sein. Ansonsten treten Aliasing-Effekte auf, die der Abschnitt 9.5.2.2 erklart. Das bedeutet, dass die Filterung auf der analogen Ebene stattfinden muss. Dazu wird ein steilflankiger Tiefpassfilter verwendet, der zum Einen das Signal tatsachlich reduziert - die Vorbereitung zur Digitalisierung ist also verlustbehaftet - und zum anderen auch durch die unvermeidbaren Nichtlinearitaten analoger Filter hoherer Ordnung verfalscht. Wie gravierend ist dieser Verlust einzuschatzen? Das menschhche Gehor hat eine obere Grenzfrequenz von nicht mehr als 20 kHz. Diese Grenze sinkt im Verlauf des Lebens zusatzlich ab. Man kann also den Standpunkt vertreten, dass die Filterung nichthorbarer Frequenzen keinen Verlust bedeutet. Auch Systeme zur Audioaufzeichnung und Wiedergabe haben eine obere Grenzfrequenz. So hatten schon analoge Bandmaschinen fiir Frequenzen mit einer Wellenlange, die kiirzer war, als die Breite des Kopfspalts einen unbrauchbaren, kammfilterformigen Frequenzgang. Kritisch anzumerken bleibt jedoch, ob man eine neue Technologic mit der Qualitat einer Technik vergleichen soUte, die vor 70 Jahren entstanden ist.
126
9 Schallwandler
Ferner ist das Gehor nicht unbedingt die einzige Instanz, die fiir das Empfinden von Schallwellen zustandig ist. Auch nichthorbare Schwingungen haben unter Unistanden eine Wirkung auf den Menschen. Deshalb ist die obere Grenzfrequenz so hoch wie moglich anzusetzen. Mit der Grenzfrequenz muss aufgrund des Abtasttheorems auch die Abtastrate steigen. Aktuelle Tonstudiosysteme konnen mit Abtastfrequenzen von 96 kHz oder sogar 192 kHz arbeiten. Das Abtasttheorem besagt, dass zwei Samples pro hochster zu iibertragender Schwingung ausreichen. Um eine Frequenz von 20 kHz zu iibertragen reicht also eine Samplingfrequenz von 40 kHz. Das wiirde aber einen unendlich steilen analogen Tiefpassfilter erfordern, der sofort die maximale Sperrdampfung erreicht. Da das nicht moglich ist, wird die Samplingfrequenz hoher angesetzt. Bei der CD sind das 44,1 kHz. Jede weitere Vergrofierung erfordert mehr Speicherplatz, jede weitere Reduktion aufwandigere Tiefpassfilter. Gesucht ist eine Moglichkeit, die Anforderungen an den analogen Tiefpassfilter zu reduzieren, ohne den Speicherplatzbedarf in die Hohe zu treiben. Das erreicht man, indem die Abtastung mit einer hoheren Rate erfolgt, als das System spater verarbeiten wird. Diese Technik heifit Oversamphng und ist der Inhalt des Abschnitts 9.5.2.3. 9.5.2.2 Aliasing Die Tiefpassfilterung vor der Abtastung ist deshalb so wichtig, weil es sonst zu horbaren Storungen im Digitalsignal kommen wiirde. Diesen Effekt nennt man Aliasing. Den Tiefpassfilter vor dem Wandler kennt man deshalb auch unter dem Namen Anti-Aliasing-Filter. Ursachlich verantwortlich dafiir ist eine zu geringe Samplingfrequenz. Man spricht deshalb auch von Unterabtastung. Durch die Unterabtastung werden Frequenzen oberhalb der NyquistFrequenz an ihr in das horbare Spektrum gespiegelt. Bei einer Abtastfrequenz von 40 kHz und einer ungefilterten Frequenz von 30 kHz entsteht eine Frequenz von 10 kHz im Digitalsignal. Abbildung 9.13 zeigt, wie es dazu kommt. Auf der X-Achse sind Markierungen pro halber Periodendauer eingetragen. Zwischen zwei Markierungen miisste jeweils mindestens eine Abtastung erfolgen. Das ist bei der oberen Frequenz nicht gegeben. Die untere Kurve zeigt die resultierende Frequenz aus den gemessenen Abtastwerten der hohen Frequenz. 9.5.2.3 Oversampling Soil die hochste gespeicherte Frequenz bei 20 kHz liegen und wird mit 2-fachem Oversampling, also mit der doppelten Rate abgetastet - z.B. 88,2 kHz - dann ergibt sich fiir den analogen Tiefpassfilter, dass bei 20 kHz zu wirken beginnt und seine maximale Dampfung erst bei 44,1 kHz erreichen muss. Mit noch hoheren Raten sinkt die Flankensteilheit noch weiter ab. Frequenzen, die im Ubergangsbereich des Filters liegen - also zwischen 20 und 44,1 kHz - konnen nach der Digitalisierung und vor der Reduktion auf die endgiiltige Samplingfrequenz digital entfernt werden.
9.5 Analog-Digital-Wandler - AD-Wandler
\ I I I \i|
/I
|>
j\
>\ }
' I'
127
>
A b b . 9.13. Aliasing durcli Unterabtastung. 9.5.2.4 Tastung Die korrekte A b t a s t r a t e fiir den gewiinschten Frequenzgang ist unter Beriicksichtigung von Aliasing und Oversampling gefunden, das Signal wurde durch einen analogen Tiefpassfilter von storenden Frequenzen befreit. Jetzt konnen im erniittelten Takt die P r o b e n entnonimen werden. Dazu wird eine Sampleand-Hold-Schaltung verwendet. Sie nimmt einen momentanen Spannungswert auf und halt ihn fiir eine gewissen Zeit. Dieses Halten ist fiir die nachfolgende Quantisierung notwendig. Am Ende der A b t a s t u n g hat m a n ein vollstandig analoges, pulsamplitudenmoduliertes Signal. Es ist jetzt zeitdiskret, aber wertekontinuierlich. Erst im nachsten Schritt, der Quantisierung entsteht tatsachlich eine endliche, zeitund wertediskrete Datenmenge, die digital gespeichert werden kann. 9.5.3 Quantisierung Die momentanen Spannungswerte, die bei der A b t a s t u n g ermittelt wurden, haben beliebige Werte. Der endliche Zahlenvorrat der digitalen Speicherung erfordert, dass aus alien moglichen Spannungswerten eine bestimmte Anzahl herausgegriffen wird. Dazwischenliegende Spannungswerte werden dem nachstliegenden giiltigen Wert zugeordnet. Je mehr Spannungswerte abgebildet werden konnen, desto geringer ist die Abweichung vom tatsachlichen Wert. Gleichzeitig steigt damit aber auch die Anforderung an den spateren Speicherbedarf. 9.5.3.1
Quantisierungsrauschen
Die Abweichung zwischen dem tatsachlichen Spannungswert und dem quantisierten Spannungswert fiihrt zum sogenannten Quantisierungsrauschen. Zum
128
9 Schallwandler
Rauschen kommt es, da die einzelnen Abweichungen zufallig sind und die zufallige Verteilung von Spannung in einem Audiosignal aui^ert sich als Rauschen. Die Fehler bei der Quantisierung haben eine niaxiniale Amplitude einer halben Quantisierungsstufe. Digitale Systeme rauschen also. Diese Fehler treten iibrigens nicht nur bei der Wandlung auf. Imnier wenn im Verlauf der Produktion Berechnungen erfolgen, dann kommt es zu Rundungsfehlern aufgrund der begrenzten Rechengenauigkeit. AUerdings lasst sich dieses Rauschen sehr weit reduzieren. Zum einen durch eine ausreichende Dynamik. Die Dynamik digitaler Systeme ist direkt abhangig von der Auflosung, also der Anzahl der darstellbaren Spannungswerte. Das ist auch der Grund, weshalb im Tonstudio mit mindestens 20 Bit Auflosung gearbeitet wird, wahrend die digitalen Zielformate mit 16 Bit ausreichend dimensioniert sind. Im einfachsten Fall wird der Spannungsbereich in gleichma£ig grofie Quantisierungsstufen aufgeteilt. Man spricht von einem hnearen Wandler. Das ist insbesondere bei geringen Pegeln unvorteilhaft. Der Quantisierungsfehler hat bei linearen Wandlern immer dieselbe maximale Amplitude. Im Vergleich zu hohen Pegeln ist dieser maximale Fehler unbedeutend. Bei geringen Pegeln, ist der Anteil des Fehlergerauschs dagegen iiberproportional hoch. Man erkennt das Problem auch an der Verteilung der Zahlenwerte. Bei VoUaussteuerung stehen in einem System mit linearen 16 Bit 2^^ Werte zur Verfiigung. Steuert man das Signal auf-6dB aus, verbleiben nur noch 2^^ Werte, also genau die Halfte. Der Headroom fiir digitale Aufnahmen hegt bei -9dB, sodass auch in der Praxis die Halfte der Spannungswerte fast ungenutzt bleiben. Das kann man andern, indem man die Quantisierungsschritte fiir geringe Pegel kleiner macht, als die fiir hohe. So fiihrt ein moglicherweise recht hoher momentaner Wert zu einem recht hohen Quantisierungsgerausch wahrend es fiir geringe Signalamplituden ebenfalls geringer ausfallt. 9.5.3.2 Dithering Um das Quantisierungsrauschen weiter zu minimieren kann vor der Quantisierung ein Rauschsignal zum Eingangssignal hinzugegeben werden, das eine mittlere Amplitude einer halben Quantisierungsstufe hat. Das fiihrt dazu, dass der abgetastete Momentanwert um seinen tatsachlichen Wert pendelt. In der Summe entspricht das Ergebnis eher dem Original als die Quantisierung des ungeditherten Signals. 9.5.3.3 Noise Shaping Das Quantisierungsrauschen ist normalerweise iiber den Frequenzgang gleichmai^ig verteilt. Das Ohr hat keine lineare Empfindlichkeit. In manchen Frequenzbereichen hort man besser, in anderen schlechter. Das sogenannte Noise Shaping macht sich diesen Umstand zunutze, indem die Verteilung der
9.5 Analog-Digital-Wandler - AD-Wandler
129
Rauschanteile in Frequenzbereiche verschoben wird, in denen das Ohr unempfindlicher ist. Die Rauschenergie bleibt dabei gleich. Nur die Rauschempfindung wird reduziert. Besonders interessant ist das Noise Shaping im Zusamnienhang mit Oversampling. Hier werden Frequenzbereiche oberhalb des horbaren Bereichs zunachst gewandelt, spater jedoch durch Filter entfernt. Verschiebt m a n die Rauschanteile in dieses Frequenzband, dann wird es ebenfalls herausgefiltert. Erreicht wird die Verschiebung durch die Gegenkopplung des Fehlerwerts auf den Eingang. Noise Shaping ist essenziell fiir Sigma-Delta-Wandler, die im Abschnitt 9.5.4.2 beschrieben werden. 9.5.4 Technische U m s e t z u n g Der letzte Schritt der AD-Wandlung ist die Umsetzung des quantisierten Spannungswerts in einen numerischen digitalen Wert. Das ist die eigentliche Digitalisierung. Jedem giiltigen Spannungswert ist ein digitaler Wert zugeordnet. Dazu gibt es unterschiedliche Verfahren. Unterschieden wird zwischen Multibit- und 1-Bit-Wandlern. 9.5.4.1
Multibit-Wandler
Multibit-Wandler erzeugen digitale Datenworte der entsprechenden Breite. Es gibt verschiedene Verfahren, wie das erreicht werden kann. Schnelle Verfahren erfordern einen hohen Schaltungsaufwand, einfache Schaltungen wandeln relativ langsam. Die benotigten Geschwindigkeit und das Budget bestimmen die verwendete Technik. Am schnellsten ist das Parallelverfahren. Es ist sehr aufwandig, da fiir jeden moglichen Wert ein Komparator benotigt wird. Bei einem Acht-Bit-Wandler sind das bereits 255 Komparatoren. Moderne AD-Wandler fiir Audioanwendungen arbeiten mit 24 Bit und so mit iiber 16 Millionen Stufen. Besonders giinstig aber auch sehr langsam ist das Zahlverfahren, bei dem ein Sagezahngenerator den gesamten moglichen Spannungsbereich durchlauft. Der momentane Wert der Sagezahnspannung wird mit dem Eingangssignal verglichen. Der digitale Wert ergibt sich aus dem Zeitpunkt an dem Sagezahn und Eingangsspannung gleich sind. Der digitale Wert reprasentiert die Anzahl der Quantisierungsschritte bis dahin. Der Mittelweg ist das Wageverfahren. Es arbeitet nach dem Prinzip der sukzessiven Approximation, also der schrittweisen Annaherung. Hierbei wird zunachst das hochstwertige Bit gesetzt. Der angenommene Wert wird in eine Spannung zuriickgewandelt. Diese wird mit der Eingangsspannung verglichen. Liegt die Eingangsspannung hoher, dann bleibt das erste Bit und das zweite wird gesetzt. Liegt sie niedriger, dann wird das erste Bit wieder geloscht und das zweite gesetzt. Der Vorgang wiederholt sich, bis der korrekte Wert gefunden ist.
130
9 Schallwandler _,'-'aus DA-Wandler
eini
1
V \\ //"/ r Y
SAR: Sukzessives Approximationsreglster
DigitalAusgang
SAR
Takt
Abb. 9.14. Prinzipschaltbild eines AD-Wandlers nach dem Wageverfahren. 9.5.4.2 1-Bit-Wandler Der 1-Bit-Wandler, besser bekannt als Delta-Sigma-Wandler erzeugt einen Bitdatenstroni, der erst durch Dezimation in Bitdatenworte umformatiert werden muss. Man kann allerdings auch den Bitstrom direkt als Digitalsignal aufzeichnen. Das ist das Format der Super Audio CD, kurz SACD. Der Datenstrom wird unter dem Namen Direct Stream Digital (DSD) vermarktet. Der Speicherbedarf dieses Formats ist etwa vier Mai so gro£ wie der einer Audio CD. Eine SACD ist deslialb auch pliysikalisch eine DVD. Angeboten werden sie meist als Hybrid mit einer CD-Schicht, die von herkommliclien CD-Spielern abgespielt werden kann. Der Name 1-Bit-Wandler deutet bereits an, dass das Signal in lediglicli einem Bit aufgelost wird. Damit hatte das Signal bei den iiblichen Abtastraten eine sehr geringe Dynamik. Man arbeitet deshalb mit 64-fachem Oversampling. Das ergibt eine Abtastrate von 2,8224 MHz. Das Abtasttheorem erlaubt Frequenzen bis zur lialben Abtastrate. So waren Frequenzen bis iiber ein Megahertz iibertragbar. In der Praxis nutzt man lediglich die ersten einhundert Kilohertz. Dennoch hat der grofie Frequenzumfang einen Vorteil. Da sich das Quantisierungsrauschen gleichma£ig iiber den gesamten Frequenzbereich erstreckt, liegt der grofite Teil des Quantisierungsgerausch im unhorbaren Bereich. Der Schaltungsaufwand fiir 1-Bit-Wandler ist entsprechend geringer. So lassen sie sich, verglichen mit Multibit-Wandlern gleicher Qualitat, giinstiger produzieren.
9.6 Digital-Analog-Wandler - DA-Wandler Ein Digital-Analog-Wandler - englisch Digital Analog Converter, DAC macht aus einem digitalen Zahlenwert wieder eine analoge Wechselspannung. Dieser Schritt ist immer notwendig, wenn digitale Audiodaten in Schall gewandelt werden sollen. Bisher gibt es keine digitalen Lautsprecher, die das
9.6 Digital-Analog-Wandler - DA-Wandler Integrator
Analogeingang
131
Komparator getakteter Ausgang
1-Bit-DAC A b b . 9.15. Prinzipschaltbild eines 1-Bit-Wandlers.
ohne den Umweg einer DA-Wandlung erreichen konnen. Auch die existierenden sogenannten digitalen Lautsprecher verbergen in ihrem Gehause einen DA-Wandler. Auch hier wird zwischen Multibit und 1-Bit-Wandlung unterschieden. 9.6.1
Multibit-Wandler
Typisch fiir Multibit-Wandler sind Widerstandsnetzwerke, deren Widerstande je nacli Binarwort in den Stromkreis integriert oder von ilim getrennt werden. Die abfallenden Spannungen werden addiert am Ausgang ausgegeben. Beim sogenannten nR-Wandler werden die Widerstandswerte dem Stellenwert des jeweiligen Bits dimensioniert. Das minderwertigste Bit ist iiber den liochsten Widerstand mit dem Ausgang verbunden und fiihrt so zum geringsten Spannungsliub am Ausgang. Fiir jedes weitere Bit wird der Spannungswert halbiert. Der R2R-Wandler kommt mit zwei unterschiedliclien Widerstandswerten aus, funktioniert ansonsten aber ahnlicli. Nach der Wandlung muss der Spannungsverlauf noch durch eine Tiefpassfilterung geglattet werden.
R
R
R
A b b . 9.16. Prinzipschaltbild eines R2R-Wandlers.
132
9 Schallwandler
9.6.2 1-Bit-Wandler Der grofie Vorteil von 1-Bit-Wandlern ist, dass die DA-Wandlung sehr unkompliziert ist. Uber einen Tiefpassfilter kann der Bitstroni in das analoge Nutzsignal transforniiert werden.
10 Mischpulte
Das Herzstiick eines Studios ist das Mischpult. Zumindest war das lange Zeit so. Heute, im Zeitalter der digitalen Audioworkstations muss das Pult nicht mehr als dezidiertes Gerat vorhanden sein. Die Software kann die Aufgaben der Konsole simulieren. Dennoch hat es viele Vorteile, eine breit gefacherte Oberflache fiir die Bedienung zu haben. Die Parameter sind schnell im Zugriff, man kann mehrere Einstellungen gleichzeitig vornehmen. Platz- und Kostengriinde sowie eine nahtlose Integration konnen allerdings auch dafiir sprechen, den Software-Mischer der Workstation zu verwenden. Einen oft wirtschaftlichen Kompromiss bilden die Hardware-Controller, mit denen der eingebaute Misclier der Recording-Software bedient wird. Im Folgenden beginnt die Beschreibung am Beispiel analoger Pulte. Sie sind durcli die dezidierte Oberflache leicht verstandlich und eine gute Grundlage fiir digitale Pulte, die sich in weiten Teilen aus den analogen Geraten ableiten. Ein Mischpult ist ein Gerat, das Audioeingange mit Audioausgangen verbindet. Zwischen Ein- und Ausgang liegen Funktionsgruppen, die das Signal manipulieren. Welche Funktionsgruppen das sind ist von Mischpult zu Mischpult verschieden. Fast iiberall vorhanden ist eine Klangregelung, oft sind Dynamikprozessoren vorhanden. Weitere Funktionsgruppen werden haufig extern angeschlossen. Ein Mischpult muss also an verschiedenen Punkten im Signalweg Einschleifpunkte und Ausspielwege bereitstellen. Zusammenfassend kann man sagen: Die Hauptaufgaben eines Mischpults sind die Signalverteilung, die Signaliiberwachung und die Signalmanipulation.
10.1 Signalflussplane und Prinzipschaltbilder Der Aufbau aller Mischpulte ist in den Grundziigen vergleichbar. In vielen Details unterscheiden sie sich jedoch. Bei einem Gerat, in dem schon mal einhundert Signale parallel auf unterschiedlichen Wegen unterwegs sind, muss man immer den Uberblick behalten, wie das eine oder andere Signal flie£t. Man spricht vom Signalfluss. Diagramme, die die Verschaltung des Mischpults
134
10 Mischpulte
visualisieren heifien Signalflussplane. Es gibt verschiedene mehr oder weniger genormte Symbole die die Baugruppen symbolisieren. Bei der Beschreibung der verschiedenen Eleniente eines Pultes wird jeweils ein Symbol eingefiihrt. Nachdem alle Eleniente besclireiben wurden, werden sie zu einem funktionierenden Pult zusammengesetzt. Anscliliefiend kann der Signalfluss fiir die wiclitigsten Anwendungsfalle besprochen werden. Neben den Signalflussplanen gibt es Block- oder Prinzipschaltbilder. Sie stellen einzelne Baugruppen als Blackbox^ dar. Damit lasst sich der grundsatzliche Aufbau eines Gerats in verschiedenen Abstraktionsstufen darstellen.
Eingang—
Eingang
Hallgerat
—Ausgang
Ausgang
Abb. 10.1. Signalfluss eines Hallgerats auf unterschiedlichen Abstraktionsebenen. Einen groben Uberblick iiber den Aufbau praktiscli jeden Mischpultes gibt Abbildung 10.2. Mischpulte sind meist modular aufgebaut. Module sind zumindest die Eingangskanalziige, an der die Einzelsignale anliegen und eine Mastersektion zur SignalkontroUe, zur Abhorsteuerung und Verteilung der Summen. Bei Recordingpulten kommen zusatzlich noch weitere Eingange hinzu, an denen die Mehrspursignale anliegen. Sie sind konzeptionell mit den Eingangskanalziigen vergleichbar. Die Ahnlichkeit geht so weit, dass bei einer bestimmten Art von Pulten die Eingangskanale mit den Tape-Return-Kanalen kombiniert werden. Wie das funktioniert steht im Abschnitt iiber die Mischpultkonzepte.
10.2 Eingangskanalziige Die Eingangskanalziige bringen wie die Tape-Return-Kanale die Signale in das Pult hinein. Je mehr davon vorhanden sind, desto besser. Meist sind jeweils acht Stiick in einem Modul untergebracht. Viele Pulte lassen sich auf diese Art fast beliebig erweitern. Bei analogen Pulten sind die Eingangskanalziige meist in Mono ausgefiihrt. Stereoeingange findet man hingegen oft bei digitalen Pulten, bei virtuellen ^ Als Blackbox bezeichnet man ein geschlossenes System, von dem man nur die Schnittstellen kennt. Man weifi also was hineingeht und was herauskommt. Wie die Box das Ergebnis erzeugt bleibt jedoch im Verborgenen.
10.2 Eingangskanalziige Von Stagebox Von Tape Return
135
Von Mehrspur
Metering Abhore
C\i
Q>
CI)
(C
c c m .c O
o I! Q-
c
c
0) "D
c © CO
c
^_
Q.
© 0)
3
o c
to
^X
c
©
ID
© CC
1 ^
© Q.
© Q.
©
^to ^
3
< Zur Mehrspur
Zur Zweispur
Zum Master
A b b . 10.2. Prinzipaufbau eines Mischpults, bestehend aus Eingangskanalen, Mastersektion und Tape-Return-Kanalen.
Pulten und bei Sendepulten fiir den Rundfunk, da hier oft mit fertig produzierten Stereoquellen, zum Beispiel Tontragern gearbeitet wird. Stereoeingange analoger Pulte beherbergen die doppelte Elektronik, beide Signalwege werden aber iiber gemeinsame Regler gesteuert. Aus diesem Grund geht die weitere Beschreibung immer von Mono-Kanalziigen aus. Ein einzelner Eingangskanalzug sieht im Prinzipschaltbild folgendermafien aus: Signalverarbeitung;
• Eingangsstufe ISR; ^i
1 1
•
1 Line/Tape Q -
•
Klangregelung
1/
II EQ 1
1 Dynamics Comp. Exp. Limiter Gate
-i Ausgangsstufe : Pre
Post Direct Out
Mute
A b b . 10.3. Eingangskanalzug bestehend aus Eingangen, Funktionsgruppen und Ausgangen.
136
10 Mischpulte
10.2.1 Eingangsstufe Ublicherweise hat ein Eingangskanalzug einen Mikrofon- und mindestens einen Line-Eingang. Es kann jeweils nur einer der beiden Eingange verwendet werden. Welcher gerade aktiv ist, entscheidet ein Schalter auf der Oberseite des Mischpultes. Mit dem Vorverstarker - englisch gain - wird der Pegel in den Arbeitsbereich des Pultes verlegt. Damit werden Verzerrungen und Storgerausche niinimiert und die spatere Signalnianipulation kann in weiten Grenzen auf den Pegel wirken, ohne dass das Signal aus dem Arbeitsbereich austritt. Um Phasenfehler zu korrigieren, haben die P u l t e auEerdem noch eine Taste ( 0 ) , mit der die Phase des Signals gedreht wird. Da die interne Audiobearbeit u n g haufig unsymmetrisch funktioniert, wird das Signal in der Eingangsstufe desymmetriert. 10.2.1.1 Mikrofoneingang Anschliisse fiir Mikrofone sind normalerweise als XLR-Buchsen ausgefiihrt. Am Mikrofoneingang liegt eine bei groEeren Pulten kanalweise, bei kleineren Pulten global schaltbare Phantomspeisung an. Globale Schalter befinden sich haufig auf der Riickseite des Pultes und bleiben deshalb normalerweise immer an. Einzelne Schalter liegen auf der Oberflache des Eingangskanalzuges und konnen bei Bedarf an- und ausgeschaltet werden. Der Mikrofonvorverstarker hat eine sehr hohe Verstarkung. Die Ausgangsspannung mancher Mikrofone kann die Mikrofoneingange iibersteuern. Fiir solche Falle existiert meist eine schaltbare Dampfung, das sogenannte Pad. Bei manchen Pulten wirkt es nicht nur auf den Mikrofoneingang, sondern auf alle Eingange. Der Signalpegel wird durch das P a d normalerweise um 20 dB reduziert. 10.2.1.2 Line-Eingang Der zweite Eingang ist fiir Line-Pegel ausgelegt. Hier konnen elektronische Musikinstrumente, Effektgerate oder auch Tape-Return-Signale angeschlossen werden. Der Anschluss erfolgt symmetrisch, meist iiber eine 6,3 m m Stereo-Khnkenbuchse. Auch die Vorverstarkung des Line-Signals kann geregelt werden. W a h r e n d ein Mikrofonvorverstarker typischerweise nur Verstarkung kennt, kann der Line-Eingang haufig gedampft oder verstarkt werden. Das ist insbesondere dann der Fall, wenn das P a d ausschlie£lich auf den Mikrofoneingang wirkt. 10.2.1.3 Tape-Eingang Die Tape-Eingange diirfen nicht mit Tape-Return-Eingangen verwechselt werden. Tape-Return-Eingange sind Line-Eingange, an denen ein BandmaschinensignaP anliegt. Tape-Eingange sind dagegen unsymmetrische Eingange, Natiirlich gilt dies auch fiir jedes andere Aufzeichnungsgerat.
10.2 Eingangskanalziige
137
an die Consumergerate - Tape Decks oder Tuner - angeschlossen werden konnen. Das ist manchmal niitzlich, um etwas in das Studio zuzuspielen, vor allem aber Live-Pulte haben einige dieser Eingange, weil bei Beschallungen oft von entsprechenden Geraten zugespielt werden muss. Fiir die Tape-Eingange wird deshalb auch normalerweise kein voUwertiger Eingangskanalzug verwendet, sondern eine einfache Version, die nur die Eingange und die Ausgange bereitstellt. 10.2.2 A u s g a n g e Ausgange sind im Zusammenhang mit Eingangskanalziigen alle P u n k t e , an denen das Signal das Modul verlasst. Das kann, muss aber kein physikalischer Anschluss am Mischpult sein. Ausgange werden danach eingeteilt, ob sie sclialt- oder regelbar sind und ob es sich um einen Abzweig oder einen Einsclileifpunkt handelt. Einschleifpunkte heifien Inserts und sind im entsprechenden Abschnitt beschrieben. Im Zusammenhang mit Eingangskanalziigen gibt es meist nur einen dezidierten physikalischen Ausgang: den Direct Out. Alle anderen Ausgange verzweigen das Signal auf Sammelschienen. Die verschiedenen Arten von Sammelschienen werden im Abschnitt 10.2.2.2 genauer besprochen. 10.2.2.1 Inserts Das Signal wird aus dem Pult herausgefiihrt, beispielsweise in ein externes Gerat und von dessen Ausgang zuriick an den urspriinglichen Ort im Signalweg. Ein Insert - auch Insert Send Return genannt - ist also eine Ausgang-EingangKombination. Der Insert Send ist der Ausgang, der Eingang hei£t Insert Ret u r n . Der Anschluss ist oft unsymmetrisch als einzelne 6,3 m m Klinkenbuchse ausgefiihrt. Dabei nutzt m a n den Schaft des Klinkensteckers als gemeinsame Masse. Das Send-Signal liegt am Tip an, das Return-Signal wird am Ring eingeschleift. Bessere Pulte haben zwei symmetrische Khnkenbuchsen. So lange kein Stecker im Insert steckt, ist der Ausgang mit dem Eingang verbunden. Auch wenn m a n den Send belegt, wird der Signalweg noch nicht getrennt. Erst wenn in den Return ein Stecker eingesteckt wird, wird die urspriingliche Verbindung getrennt. Das hat den Grund, dass m a n nicht einfach zwei Signale zusammenmischen kann, indem m a n sie auf dieselbe Leitung steckt. Das liegt an der Impedanz. Der Eingangswiderstand muss bei der SpannungsUberanpassung immer wesentlich grofier sein, als der Ausgangswiderstand. Schaltet m a n aber zwei Ausgange an einen Eingang, so wahlt das Signal den Weg des geringsten Widerstandes. Das ist nicht der Eingang, sondern der andere Ausgang. Selten muss der Insert iiber einen Schalter aktiviert werden. Der Insert wird in erster Linie verwendet, um Ersetzungseffekte einzuschleifen. Bei Ersetzungseffekten wird das Eingangssignal durch das Ausgangssignal ersetzt. Das ist immer dann der Fall, wenn das Originalsignal nicht mehr
138
10 Mischpulte
benotigt wird. Inserts konnen aber auch dazu genutzt werden, ein Signal zu verdoppeln. Dazu verbindet man den Insert Send des signalfiihrenden Kanals mit dem Insert Return des Kanalzuges, der fiir das gedoppelte Signal genutzt werden soil. Man konnte bereits vor dem Pult das Signal mit Hilfe einer SplitBox verteilen, aber dann miisste man die Einstellungen der Eingangsstufe in beiden Kanalen vornehmen. 10.2.2.2 Sammelschienen Eine Sammelscliiene ist eine Verbindung von den Eingangskanalziigen zur Mastersektion. Melirere Eingangssignale konnen auf eine Sammelschiene gesclialtet oder geregelt werden. Die wichtigsten Sammelschienen sind die Busse, die Ausspielwege und die Subgruppen. Busse
Eigentlich ist ein Bus dasselbe wie eine Sammelschiene. In Beschreibungen von Mischpulten ist jedoch oft die Rede von 8-Bus-Pulten. Diese haben eine deutlich hohere Anzahl an Sammelschienen. Als Bus gezahlt werden jedoch nur die Wege, die zum Anschluss an die Bandmaschine vorgesehen sind. Deshalb soil hier mit dem Wort Bus auch nur diese Gruppe der Sammelschienen bezeichnet werden. Eingangssignale werden auf den Bus geschaltet. Die Schaltergruppe heifit Routing. Sie ist bei kleineren Pulten neben dem Pegelsteller untergebracht, die grofien Konsolen haben meist ein grofieres Routing ganz oben am Eingangskanal. Aus dieser Anordnung darf man aber nicht auf die Lage im Signalweg schlie£en. Das Routing greift das Signal immer hinter dem Pegelsteller ab. Das Routing ist meist paarweise schaltbar. Also auf eins und zwei oder drei und vier... Bei Mehrspuraufnahmen mochte man allerdings ein Monosignal immer nur auf eine Spur aufnehmen. Deshalb gibt es noch einen Regler, mit dem das Signal stufenlos auf beide Busse verteilt werden kann. Verwendet wird dafiir oft der Panorama-Regler. Wahrend der Aufnahme geht es aber nicht um die spatere Position im Stereobild, sondern lediglich um die technische Auswahl der Aufnahmespur. Deshalb wird in diesem Fall der Regler auch entweder ganz nach links oder ganz nach rechts gestellt. Die Unterscheidung, wann man eine technische und wann man eine akustische Gr6£e regelt ist nicht unwichtig und man soUte sich dariiber im Klaren sein. Regler, die eigens fiir das Routing vorgesehen sind, tragen normalerweise auf der Skala auch nicht die Bezeichnung hnks/rechts, sondern odd/even^. Genauso verhalt es sich iibrigens auch mit dem Fader. Bei der Aufnahme regelt man damit die technische Hohe des Pegels, bei der Mischung die Lautstarke in der Mischung.
ungerade/gerade
10.2 Eingangskanalziige
139
Ausspielwege Eigentlich miisste man analog zum englischen Begriff Auxiliary Output ,Hilfsausspielweg' sagen, aber da sie mehr als ein Notbehelf sind und sehr wichtige Funktionen erfiillen, finde ich den Begriff Ausspielweg treffender. Die AuxWege sind einzeln regelbar. Meist sind acht Aux-Wege vorhanden, bei kleinen Pulten oft nur vier. Der Vorteil eines regelbaren Ausspielwegs ist, dass auf der Sammelschiene spater eine eigene Mischung existiert, die unabhangig, beziehungsweise bedingt abhangig vom Hauptausgang des Pultes ist. Die Aux-Wege erfiillen vor alleni zwei Funktionen. Bei der Aufnalime und bei Bescliallungen wird dem Musiker seine Abliorniischung, der Monitor erstellt. Externe Effektgerate werden iiber Ausspielwege angesteuert, sofern das Originalsignal welter genutzt werden soil und der Effekt auf mehr als eine Quelle wirken soil. Je nacli Anwendungsfall wird das Signal vor oder nach dem Pegelsteller abgegriffen. Wo das Signal abgezweigt wird, wird iiber eine Taste eingestellt. Es kann fiir jeden Aux-Weg einen eigenen Sclialter geben oder fiir mehrere zusammen, entweder fiir alle Kanale oder auch pro Kanal. Der Abgriff vor dem Pegelsteller heifit Pre Fader, kurz Pre, der daliinter Post Fader oder Post. Pre-Fader-Aux-Wege sitzen entweder vor oder hinter den Modulen zur Signalmanipulation. In den meisten Fallen sinnvoll ist der Ausgang hinter den Funktionsgruppen. Sie werden fiir die Monitormischung verwendet. Und es spricht nichts dagegen, dem Musiker das entzerrte Signal auf den Kopfhorer zu geben. Da jeder Aux-Weg einzeln regelbar ist, lasst sich eine weitgehend unabhangige Mischung erstellen. Post-Fader-Aux-Wege liegen hinter dem Channel-Fader und damit auch immer hinter der Klangregelung und den Dynamikprozessoren. Sie werden in erster Linie verwendet, um Effektgerate zu beschicken. Im Gegensatz zu den Inserts handelt es sich um Erganzungseffekte, zum Beispiel HaUgerate. Das Originalsignal bleibt erhalten und wird zusatzlich einem Effektgerat zur Verarbeitung zugefiihrt. Solche Effekte werden mit dem Post-Fader-Signal beschickt, damit sich Anderungen am Pegelsteller auch auf den Effekt auswirken. Wenn das Originalsignal leiser wird, soil natiirlich auch der Hall zuriickgehen. Subgruppen
Eingangskanale - Busse - Mehrspur - Tape Return - Stereosumme Eingangskanale - Subgruppen
Stereosumme
Abb. 10.4. Signalfluss bei Verwendung von Subgruppen im Vergleich zum Einsatz von Bussen.
140
10 Mischpulte
Subgruppen sind ein BegriflF aus der Welt der Beschallung und des LiveRecordings^. Hier werden Instrumentengruppen auf Sammelschienen zusammengefasst. Zum Beispiel kann m a n alle Kanale eines Schlagzeugs auf eine Subgruppe legen. Die Subgruppen haben in der Mastersektion einen Pegelsteller, mit dem dann die Lautstarke der gesamten Gruppe auf einmal geandert werden kann. Subgruppen werden mit Hilfe des Routings gebildet. Der Unterschied zwischen den Subgruppen und Bussen ist, dass Busse einzeln am Ausgang abgegriffen werden und beispielsweise an die Mehrspurmaschine angeschlossen werden, die Subgruppen hingegen werden intern an die Summe weiter geroutet. Aui^erdem wirkt sich der Pegelsteller am Subgruppen- beziehungsweise Busausgang einmal auf die Lautstarke der Gruppe aus, einmal auf den Pegel der Aufnahmespur. Hier ist also wieder die Untersclieidung zwisclien einer teclinischen und einer akustisclien Einstellung siclitbar. In der Zeit digitaler Pulte sind die Eingange meist in Stereo ausgefiilirt. So auch die Subgruppen. Nimmt m a n das Beispiel mit der Sclilagzeuggruppe, dann ist das Subgruppensignal eine Stereovormischung. Man muss also auch eine Stereosubgruppe oder zwei Monosubgruppen verwenden. Anders verhalt es sich mit VCA-Subgruppen. Hier regelt der Subgruppenregler einen VGA (Voltage Controlled Amplifier). Das Audiosignal lauft nicht iiber diesen Regler sondern nur eine Steuerspannung. Deshalb lasst sich eine beliebige Anzahl an Eingangskanalen iiber eine VGA-Subgruppe regeln. Summen EbenfaUs nichts anderes als ein Bus ist eine Summe. Als Summe bezeichnet m a n aber die Hauptausgange eines Mischpults. Das ist oft eine Stereosumme, aber Mehrkanallosungen sind auf dem Vormarsch. Signale konnen iiber das Routing direkt auf die Stereosumme geschaltet werden. Angewendet wird das wahrend der Mischung, wenn die Kanalvielfalt auf das spatere Format - Stereo oder Surround - reduziert wird. Aber auch beim Live-Recording oder dem Live-Mix werden Signale, die nicht Teil einer Subgruppe sind, direkt an die Summe geroutet. 10.2.2.3 Ausgangsstufe Mit den Bedienelementen am Kanalausgang stellt m a n den Ausgangspegel fiir die Post-Fader-Ausgange ein, auEerdem liegt hier das Routing und der P a n o r a m a , bzw. Balance-Regler. Mindestens zwei Taster schalten den Kanal bei Bedarf s t u m m oder in den Solo-Modus. Mehr zu den Solo-Modi steht im Abschnitt 10.3.2.1.
Live-Recording heifit nicht zwingend, dass es sich urn eine Live-Aufnahme handelt. Es heifit lediglich, dass direkt auf das spatere Endformat gemischt wird.
10.2 Eingangskanalziige
141
Das Besondere an den Reglern der Ausgangsstufe ist, dass sie je nach Produktionsschritt unterschiedliche Aufgaben erfiillen. Bei der MehrspurAufnahme wird niit deni Kanal-Fader der Aufnahmepegel, also eine technische Gr6£e geregelt. Bei der spateren Mischung stellt derselbe Regler die Lautstarke des Kanals in der Mischung ein, regelt also eine akustiscli, kiinstlerische Grofie. Ebenso verhalt es sicli mit dem Panorama-Regler bezieliungsweise dem Balance-Regler. Das Routing ist meist paarweise ausgefiihrt. Man hat also einen Schalter fiir die Busse 1-2, 3-4, . . . Fiir Monosignale reicht eine einzelne Spur auf dem Aufzeichnungsgerat natiirlich aus. Deshalb wird der Panorama-Regler genutzt, um das Signal entweder auf die ,linke' oder auf die ,rechte' Seite des Routings zu legen. Bei aktivierter Routing-Taste 1-2 und Panorama auf Linksanschlag geht das Signal ausschlie£lich auf den ersten, bei Rechtsanschlag auf den zweiten Bus. Verwendet man den Direct Out zum Ansteuern des Rekorders, dann bleibt der Panorama-Regler ohne Wirkung. Wahrend ein Panorama-Regler einen Eingang und zwei Ausgange hat, hat ein Balance-Regler zwei Eingange und zwei Ausgange.
0 0 ' Pan
^ Balance
Abb. 10.5. Unterschied zwischen Panorama und Balance. Deshalb haben Stereo-Kanalziige einen Balance-Regler. Da die zwei Ausgangssignale auch zwei Spuren am Rekorder belegen, bleibt der BalanceRegler bei der Aufnahme in Mittelstellung. Bei der Mischung oder bei LiveAufnahmen dienen Panorama- und Balanceregler der Positionierung im Stereo- beziehungsweise Surround-Klangbild. Das Surround-Panning erfolgt entweder mittels zwei Panorama-Reglern, wobei einer zwischen rechts und links und der andere zwischen vorne und hinten regelt oder mittels eines Joysticks und einer virtuellen Positionierung im Raum. 10.2.2.4 Direct Out Der Direct Out sitzt am Ende des Eingangskanalzugs. Also hinter der Signalmanipulation und hinter alien Pegelstellern. Er ist normalerweise als symmetrischen Klinkenbuchse am Anschlussfeld zu finden. Er wird fiir die Mehrspuraufzeichnung genutzt. Den Direct Out zu benutzen bietet sich an, wenn die Anzahl der Eingangskanale der Spurenzahl des Mehrspurrekorders entspricht. Ein weiterer Anwendungsfall ist die Dekodierung bei MS-Stereofonie. Wie das funktioniert steht im Abschnitt 13.5.2.3. Direct Outs konnen nicht verwendet werden, wenn nur wenige Spuren zur Verfiigung stehen und mehr als ein Signal auf einer Spur aufgezeichnet werden muss. Das ist mit einem Direct Out nicht zu bewerkstelligen.
142
10 Mischpulte
10.2.3 Signalmanipulation Die iiblicherweise im Pult eingebauten Funktionsgruppen zur Signalverarbeitung sind Filter, Entzerrer und Dynamikprozessoren. Diese Funktionen werden fiir die meisten Quellen benotigt, so dass es durchaus sinnvoll ist, sie in jedem Kanal zur Verfiigung zu haben. Ein weiteres Merkmal der eingebauten Funktionen ist, dass es sich um ErsetzungseflFekte handelt. Ersetzungseffekte ersetzen das Eingangs- durch das Ausgangssignal. Anders verhalt es sich mit Erganzungseffekten, zum Beispiel Hallgeraten, bei denen das Effektsignal zum Originalsignal hinzugemischt wird. Ersetzungseffekte, die nicht im Pult eingebaut sind, konnen iiber den Insert eingeschleift werden. Dabei ist eine Verkettung niehrerer Gerate nioglich. Wie die Gerate zur Signalmanipulation aufgebaut sind, und wie sie verwendet werden steht im Kapitel 14.
10.3 Mastersektion Die Mastersektion ist die Steuerzentrale fiir alles, was nicht einem einzelnen Kanalzug zugeordnet werden kann. AuEerdeni finden sich hier die Vorrichtungen fiir die Signaliiberwachung und die Automation. 10.3.1 Bedienelemente Die Mastersektion beherbergt EinsteUungsmoghchkeiten, die fiir das gesamte Pult gelten. So werden Aux-Wege haufig zentral Pre oder Post geschaltet. Hinzu kommen die Statusschalter bei Recordingpulten, die spater in diesem Kapitel noch ein Thema sein werden. Weiter werden die Ausgangspegel der Sammelschienen in der Mastersektion geregelt. Dazu gehoren die Subgruppen oder Busse, die Aux-Master-Sends und der Master Fader. Der Master Fader regelt den Pegel der Stereosumme. AUerdings muss die Mischung insgesamt einen korrekten Pegel ergeben. Der Master Fader wird immer auf 0 dB gestellt und lediglich zum Ausblenden am Ende des Stiickes verwendet. Die Abhorlautstarke wird iiber einen separaten Regler eingestellt und nicht iiber den Master Fader, da der ja den Pegel der Summe regelt. Die Abhormatrix eines Pultes - eigentlich handelt es sich dabei nicht um eine Matrix sondern nur um eine Quellenanwahl - ermoglicht es, das Signal an verschiedenen Ein- und Ausgangen des Pultes abzuhoren. Aufierdem konnen weitere Quellen, die an das Pult angeschlossen sind, direkt abgehort werden, also auch ohne einen Kanal im Pult zu belegen. 10.3.2 Signaliiberwachung Wahrend der Produktion miissen die technischen und akustischen Gr6£en standig iiberwacht werden. Mischpulte stellen dazu optische und akustische
10.3 Mastersektion
143
Hilfsniittel zur Verfiigung. An verschiedenen Stellen ini Signalweg befinden sich Messpunkte. Die Messwerte konnen auf verschiedenen Geraten optisch wiedergegeben werden. 10.3.2.1 Pegel Der Pegel ist die wichtigste technische Groi^e bei der Aufnahme. Ohne einen brauchbaren Pegel liilft der sclionste Frequenzgang niclits. Der Pegel kann an den Eingangen und an den Ausgangen gemessen werden. Optisch iiberwacht wird der Pegel iiber eines der zahlreichen Pegelmessgerate, die nachfolgend besprochen werden. Solche Pegelmessgerate konnen fiir jeden Kanal vorhanden sein, oder nur fiir die Summen. Verschiedene Solo-Modi erlauben das gezielte Abhoren und Messen einzelner Kanale. Um die drei Solo-Modi PFL, AFL und Solo in Place geht es zunachst. Je nach Pult gibt es einen, mehrere oder alle Modi. Sie sind entweder iiber verschiedene Tasten schaltbar oder iiber einen einzigen Solo-Schalter und eine zentrale Einstellung, welcher Solo-Modus gerade aktiv ist. Danach werden die Referenzpegel genannt, mit denen man ini Studio konfrontiert ist. PFL - Pre Fader Hierbei handelt es sich um eine Sammelschiene. Sie liegt vor dem Kanal-Fader und ist in Mono ausgefiihrt. Sie wird verwendet, um ein Signal auf den richtigen Arbeitspegel zu bringen. Deshalb hegt sie hinter der Eingangsstufe. Ein Kanalsignal wird iiber einen Schalter auf den PFL-Bus geroutet. Normalerweise wird auch das zentrale Pegelmessgerat und der Studiomonitor auf den PFL-Bus geschaltet, sobald ein Signal dort aufgeschaltet wird. So kann man sehr schnell iiberpriifen, ob iiberhaupt ein Signal anliegt. Uber die Pegelanzeige wird es auf den Nominalpegel eingepegelt. PFL eignet sich auch zum Abhoren von Einzelsignalen wahrend einer Beschallung. Die Umschaltung der Abhore bezieht sich nur auf den Control-Room- und den Kopfhorerausgang, so dass die eigentliche Summe - also das Signal, mit dem die PA beschickt wird - unangetastet bleibt. AFL - After Fader Listening Am Kanalausgang sitzt der Abgriff zu einer weiteren Sammelschiene. Es handelt sich dabei um einen Stereo-Kanal. Man kann hier also ein einzelnes Signal in seiner Position im Stereobild abhoren und den Pegel kontroUieren. Auch hier wird normalerweise der Pegelmesser und die Abhore umgeschaltet. Auch AFL kann wahrend des laufenden Betriebs verwendet werden. Solo in Place Bei diesem Solo-Modus handelt es sich nicht um eine Sammelschiene. Man hort weiterhin die Stereosumme. Schaltet man einen Kanal auf Solo, dann
144
10 Mischpulte
werden alle anderen Kanale stumm geschaltet. Das hatte im laufenden Betrieb natiirlich Auswirkungen. Deshalb wird er nur wahrend der Mischung von Mehrspuraufnahnien verwendet. In Live-Pulten ist die Funktion nieist gar nicht vorhanden. Hort man einen Kanal Solo in Place ab, dann liort man zunaclist nichts anderes, als bei AFL. Der Vorteil liegt darin, dass einzelne Kanale Solo Safe geschaltet werden konnen. Damit werden sie nicht gemutet, wenn ein anderer Kanal Solo geschaltet wird. Das hat den Sinn, dass ein einzelnes Signal inklusive seiner Effekte abgehort werden kann. Das lasst sich liber AFL nicht so einfach erreichen. Schaltet man den gewiinschten Kanal AFL und das Hallgerat ebenso, dann hort man auch den Kanal mitsamt seinem Effekt, das Effektgerat erhalt aber nach wie vor alle Signale, die einen Hall bekommen soUen. Bei Solo in Place sind die anderen Kanale und damit auch die Aux Sends gemutet. Referenzpegel Unterschieden wird zwischen dem Studio- und Rundfunknormpegel auf digitaler und analoger Ebene, sowohl in Spannungs- als auch in Leistungsanpassung. 0 dBm sind definiert fiir 1 mW an 600 f2. Der Ursprung dieser Einheit kommt aus der Rundfunktechnik, bei der lange Zeit mit Leistungsanpassung gearbeitet wurde. Der Rundfunknormpegel liegt bei +6dBi„. Die Aussteuerungsanzeigen zeigen nicht den absoluten Pegel in dB,„ sondern den Pegel relativ zum Rundfunknormpegel. Zeigt das Messgerat 0 dB an, dann bedeutet das einen absoluten Pegel von +6dB,„. Heute wird auch beim Rundfunk mit Spannungsanpassung gearbeitet. Der auf die Spannung bezogene Referenzpegel liegt bei 0,775 V. Praktischerweise entspricht das der Spannung, die notig ist, um 1 mW Leistung an 600 i? zu erzeugen:
R'
R
60012
Die Zahlenwerte von dB^ und dB,„ sind also identisch. Der Internationale Studionormpegel liegt bei +4dBu, haufig wird in Deutschland aber auch auEerhalb des Rundfunks mit +6dBu gearbeitet, insbesondere dort, wo dem Rundfunk zugearbeitet wird. Fine weitere Grofie ist der Homerecording-Pegel. Er liegt bei -lOdBy- Die Einheit dBy ist auch als Tascam Level bekannt. OdBy entsprechen einer Spannung von einem Volt, der Homerecording-Pegel von -10 dBy entspricht einem Effektivwert von etwa 0,32 V. Das entspricht dem Ausgang von Consumergeraten. Der digitale Referenzpegel schlie£lich bezieht sich auf Vollaussteuerung. Entsprechend ist die Einheit dBps • FS steht fiir FuU Scale. Da es keine Werte iiber Vollaussteuerung geben kann, kann der dB-Wert nur negativ sein. Der Headroom - die Aussteuerungsreserve ist auf 9dB festgelegt. Damit liegt der digitale Normpegel bei -OdBps. Das entspricht gleichzeitig dem analogen Studionormpegel, also entweder +4 oder +6dBu. Bei Rundfunknormpegel: + 6 dBu = 0 dB = —9 dBps
10.3 Mastersektion
145
Overload Ein einfaches und vor allem in giinstigen Pulten gern verwendetes Anzeigegerat besteht aus einer einzelnen LED, die eine Ubersteuerung anzeigt. Sie ist vor allem dann sinnvoU, wenn die einzelnen Kanale nicht iiber eigene Pegelmessgerate verfiigen. VU-Meter Ein VU-Meter ist ein Gerat, das in erster Linie geeignet ist, um die Lautlieit eines Signals zu beurteilen. VU stelit fiir Volume Unit. VU-Anzeigen waren friiher Zeigerinstruniente, lieute werden genau wie bei den Peak-Metern, die im nachsten Abschnitt besproclien werden, LED-Ketten oder ahnliclie Leuchtmittel verwendet. Unterschiedlicli sind sie in Bezug auf die Ansprecli- und Abschwellzeiten. Das VU-Meter zeigt nach 300 ms den korrekten Wert an. Der Riickstellwert ist identiscli. VU-Meter sind auf Grund ihrer Traglieit nicht zum Pegeln von Signalen geeignet. Die Lautheit eines Signals lasst sicli mit ilinen jedocli abscliatzen. PPM - Peak Program Meter Um Pegelspitzen zu erkennen, sind VU-Meter - vor allem die Zeigergerate - zu trage. Deslialb hat ein PPM eine wesentlich kiirzere Integrationszeit von nur 10 ms. Dafiir ist die Abschwellverhalten deuthch verlangsamt. Es entspricht l,5s/20dB. Bei der Aufnahme sind Peak-Meter gut geeignet, um Ubersteuerungen zu vermeiden, bei der Mischung mochte man jedoch auch Aussagen iiber die Lautheit des Signals treffen. Deshalb lassen sich viele Messgerate zwischen VU und Peak-Charakteristik umschalten. Kombiinstrumente zeigen beide Werte gleichzeitig an. Auch wenn der Name Peak Meter die Anzeige der Spitzenwerte nahelegt, zeigt das PPM den Spitzenwert geteilt durch A/2 an. Das entspricht bei Sinusschwingungen dem Effektivwert. Die Einheit ist dB relativ zum jeweiligen Studionormpegel. Digitale
Aussteuerungsmesser
Bei digitalen Aufnahmen miissen Ubersteuerungen auf jeden Fall vermieden werden. Deshalb miissen digitale Pegelmessgerate die Signalspitzen zuverlassig anzeigen. Die Integrationszeit liegt hier bei maximal einer Millisekunde. Ubersteuerungen werden schon bei wenigen Samples angezeigt. Die Einheit ist dBps10.3.2.2 Phasenlage (Korrelation, Stereobild) Um die Phasenlage einer Mischung zu beurteilen, gibt es zwei gangige Gerate. Den Korrelationsgradmesser und das Stereosichtgerat.
146
10 Mischpulte
Korrelationsgradmesser Meist in das Pegelmessgerat integriert ist der Korrelationsgradmesser. Der Korrelationsgradmesser setzt zwei Signale miteinander in Bezieliung. Der Korrelationsgrad ist dabei die Phasenbeziehung der beiden Signale zueinander und entspricht der Cosinusfunktion. Angezeigt wird ein Wert zwischen -1 und 1. Ein Signal, das auf beiden Seiten identiscli ist - also ein Mono-Signal - bekommt den Wert 1. Beim anderen Extrem liegt ebenfalls dasselbe Signal auf beiden Kanalen, in einem ist jedocli die Phase gedrelit. Der Wert betragt - 1 . Der Mittelwert, also 0 gilt fiir alle Signale, die in keiner Bezieliung zueinander stehen. Das kann das Fehlen eines Kanals sein, Ping-Pong-Stereo, bei dem alle Kanale entweder ganz links oder ganz rechts liegen oder auch dasselbe Signal, das um 90° phasenverschoben ist. Auch dort besteht keine Phasen-Korrelation zwischen beiden Kanalen. Normalerweise liegt der Korrelationsgrad zwischen 0 und 1. Lediglich bei Orchesteraufnahmen ist es normal, wenn der Korrelationsgrad kurzfristig auch mal in den negativen Bereich geht. Der Korrelationsgradmesser war vor allem in der Zeit der Schallplatte wichtig, da negative Korrelationsgrade unter Umstanden nicht geschnitten werden konnten. Heute verwendet man das Gerat zum Aufspiiren von Phasenproblemen, die bei der Mono-Wiedergabe zu ungewollten Ausloschungen fiihren konnen. Stereo sichtgerdt Das Stereosichtgerat hat grofie optische und elektronische Ahnhchkeit mit einem OsziUoskop. Tatsachlich handelt es sich um ein zweikanaliges Oszilloskop, das in der X/Y-Betriebsart lauft und dessen Anzeige um 45° gedreht ist. Analoge Kathodenstrahler werden allerdings mehr und mehr durch digitale LCD-Displays ersetzt. Aus der Anzeige des Gerats kann man den Pegel, die Stereobreite und die Phasenlage der Kanale zueinander ablesen.
Mono
Stereo
nur links
Mono/Phase inv.
nur rechts
Stereo/Phase inv.
Abb. 10.6. Anzeige eines Stereosichtgerats.
10.3 Mastersektion
147
Stille wird als P u n k t in der Mitte der Bildflache dargestellt. Analoge Cerate tasten den Strahl in dieseni Fall nieist aus, urn ein Einbrennen zu verhindern. Vom Mittelpunkt ausgehend zeigt eine Skala den Pegel. Je melir Pegel anliegt, desto weiter nach au£en erfolgt die Darstellung. Monosignale sind eine senkreclite Linie. Mischt m a n ein Stereosignal dazu, dann breitet sich die Darstellung nach links und rechts aus. Je schwaclier die Auspragung der Senkrecliten ist, desto breiter ist das Stereosignal, und desto weniger monofone Bestandteile sind ini Signal zu finden. W a h r e n d Pop-Musik oft durch den Solo-Gesang, der meist in der Mitte liegt eine Verstarkung zur Mitte bin zeigt, ist die Darstellung klassiscber Orcbestermusik oft fast kreisformig. Drebt m a n einen Kanal eines Mono-Signals in der Pbase, dann ist das resultierende Diagramm nicht mebr senkrecbt sondern waagerecbt. Die waagerecbte Linie entspricbt einem Korrelationsgrad von - 1 . Fehlt ein Kanal, dann ist die Linie 45° nach hnks oder rechts geneigt, je nachdem welcher Kanal ausgefallen ist. Das entspricht einem Korrelationsgrad von 0. Bei Stereosignalen erkennt m a n einen moglichen Phasenfehler daran, dass die Darstellung insgesamt nicht in die Hobe sondern in die Breite geht. Fallt bei einem Stereosignal ein Kanal aus, dann zeigt das Stereosichtgerat iibrigens keine zur Seite gekippte Stereo-Darstellung, sondern, da der fiir Stereo notwendige zweite Kanal fehlt, eine entsprechend gekippte Linie. 10.3.2.3 Frequenzgang Gerate zur Messung des Frequenzgangs sind in Mischpulten eher selten anzutreffen. Sie sind aber ein Hilfsmittel zur Signabiberwachung und sollen deshalb an dieser Stelle besprochen werden. In digitalen Audioworkstations sind sie auch haufig eingebaut. Ansonsten findet m a n sie als externes Gerat, meist in Verbindung mit einem grafischen Terzband-Entzerrer. Die Gerate hei£en Analyzer. Sie zerlegen das Spektrum in seine Frequenzbander und bilden so den momentanen Frequenzgang ab. Ein Haupteinsatzgebiet ist die Entzerrung von Raumen, zum Beispiel vor Beschallungen. Dazu wird Rosa Rauschen auf die Lautsprecher der Beschallungsanlage gegeben. Der Analyzer zeigt den Frequenzgang an, der dann mit dem grafischen Equalizer korrigiert wird. Dadurch erhalt m a n einen ,linear' klingenden R a u m . Das muss nicht immer gewiinscht sein. Oft soil der R a u m bereits den Charakter des spateren P r o g r a m m s unterstiitzen. Dafiir verwendet m a n dann keinen Rauschgenerator, sondern ein reales Signal, das dem spateren Live-Programm ahnelt und m a n stellt den EQ nicht nach der Analyzer-Anzeige ein, sondern nach Gehor. Aber korrekt ist natiirlich die erste Variante.
10.3.3 A u t o m a t i o n Eine Automation soU die Bedienung des Pultes vereinfachen. Unter dem Begriff Automation werden an dieser Stelle alle Einrichtungen zusammengefasst.
148
10 Mischpulte
die den Zustand eines Mischpults speichern oder dynamisch verandern konnen. 10.3.3.1 M u t e g r u p p e n Mutegruppen sind ein einfaches Hilfsmittel, um nicht benotigte Kanale gesammelt zu aktivieren beziehungsweise zu deaktivieren. SinnvoU ist das zum Beispiel bei Beschallungen niit wechselnden Programniinhalten. So konnen mit einem Knopfdruck alle Kanale der Band stummgeschaltet warden, wahrend auf der Biihne moderiert wird oder ein Sketch aufgefiihrt wird. Mutegruppen miissen zunachst definiert werden. Dazu mutet m a n alle Kanale, die in einer Mutegruppe vertreten sein sollen und speicliert dann die Einstellung auf eine freie Mutegruppe. Melirere Mutegruppen konnen gleiclizeitig aktiv sein. Deslialb definiert m a n sie nach Funktionsgruppen. Es gibt Kanale, die den gesamten Abend nicht verwendet werden. Diese sollten in einer eigenen Mutegruppe zusammengefasst werden. Ebenso die Kanale der Band. Die Mutegruppe mit den unbelegten Kanalen bleibt den gesamten Abend aktiv, die der Band wird inimer dann aktiviert, wenn keine Musik gespielt wird. Mutegruppen beeintrachtigen die Einflussmoglichkeiten im Eingangskanalzug nicht. Soil die Band gemutet sein, aber der Keyboarder soil einen Umbau untermalen, dann kann m a n die Keyboard-Kanale offnen, ohne die Mutegruppe deaktivieren zu miissen. So bleiben die anderen Kanale gemutet. Eine solche manuelle Anderung hat auch keinen Einfluss auf die gespeicherte Gruppe. 10.3.3.2
Snapshot-Automation
Reichen die Moglichkeiten von Mutegruppen nicht aus, dann kann eine Snapshot-Automation verwendet werden. Der Snapshot bezieht sich nur auf die Mute-Schalter. Vor allem fiir szenische Darbietungen ist eine solche Automation sinnvoll. Fiir jede Szene werden alle Kanale gemutet, die nicht verwendet werden und ein Snapshot wird gespeichert. W a h r e n d der Vorstellung ruft m a n die Snaps nacheinander durch einen Tastendruck auf. Wie genau m a n Szenen unterteilt, bleibt jedem selbst iiberlassen, die Anzahl der moglichen Schnappschiisse ist aber begrenzt. Es bietet sich an, nicht jeden Wechsel auf der Biihne mit einem eigenen Snapshot zu wiirdigen. Tritt ein einzelner Schauspieler auf oder ab, dann kann m a n die Anderung gut auch manuell vornehmen. Kanale, die frei sind, sollten nicht iiber die SnapshotAutomation sondern iiber eine Mutegruppe stummgeschaltet werden. So lassen sich weitere Kanale bei Bedarf schneU aktivieren ohne dass sie vom nachsten Snapshot gleich wieder gemutet werden. 10.3.3.3 Total Recall Produktionen werden haufig nicht an einem Tag abgeschlossen. Oft liegen sogar langere Zeitpunkte zwischen den Mischungsterminen. Total Recall spei-
10.3 Mastersektion
149
chert den niomentanen Zustand eines Pultes, damit man ihn anschliefiend wiederherstellen kann. In der analogen Welt war das sehr kompliziert, well fiir jeden Taster, der gespeichert werden soUte, eine Vorrichtung geschafFen werden musste, die die Einstellung iiberpriift. Deshalb werden nur bei groi^en analogen Produktionspulten alle Parameter gespeichert. Digitale Pulte operieren nur mit Zahlenwerten, die ohne gro£en technischen Aufwand gespeichert und wieder abgerufen werden konnen. Die Bedienung ist dabei zwischen analogen und digitalen Pulten grundsatzlich unterschiedlich. In analogen Pulten wird fiir jeden Parameter angezeigt, ob er hoher oder niedriger eingestellt werden muss. Das ist so, well jeder Wert einer dezidierten Schalter- und Reglerstellung zugeordnet ist. Bei digitalen Pulten wird meist mit zustandslosen Tastern und Endlosdrehgebern gearbeitet, die ebenfalls keinen tatsachlichen Zustand haben. So konnen die digitalen Werte wieder in den Speicher eingelesen werden, ohne dass ein Regler angefasst werden muss. Eine Ausnahme bilden die Fader, die heute haufig motorisiert sind, und deshalb automatisch eingestellt werden konnen. Total Recall ist nur dann sinnvoU, wenn wirklich alle Reglerstande erfasst werden. Denn eine Speicherung der Faderstande ist ohne Kenntnis iiber die Vorverstarkung und die Einwirkung von Entzerrern und Regelverstarkern auf den Signalpegel wertlos. 10.3.3.4 (MIDI)-Mute-Automation Die bisher vorgestellten Automationstypen speicherten jeweils einen Zustand des Pultes oder Telle davon. Die EinsteUungen wurden jedoch manueU aufgerufen. Reproduzierbare Mischungen, die sich iiber die Zeit andern, erfordern eine Information iiber die jeweilige Position im Stiick. Das bedeutet, dass das Pult mit einer Zeitinformation versorgt werden muss, oder von einem Gerat ferngesteuert werden muss, das iiber eine solche Zeitinformation verfiigt. Bei der MIDI-Mute-Automation handelt es sich um eine solche Vorrichtung, bei der die Zustande der Mute-Schalter iiber die Zeit gesteuert werden. Was MIDI genau ist, ist im Abschnitt 11.6 erklart. Wichtig fiir das Verstandnis ist auch die Synchronisation, die im Kapitel 12 beschrieben ist. MIDI arbeitet mit relativ hohen zeitlichen Abweichungen. Digitale Pulte konnen eine solche Automation auch auf der Basis anderer Protokolle realisieren. Meist verfiigen sie aber ohnehin iiber weitreichende Automationsmoglichkeiten, die im nachsten Abschnitt erklart werden. Eingesetzt wird eine solche Automation iiberall dort, wo ein zeitlich exakt wiederkehrendes Programm stattfindet. Das ist im Studio bei der Mischung so, es kann aber auch bei Live-Veranstaltungen - zum Beispiel bei Musicals der Fall sein. Hier miissen aber Havariestrategien entwickelt werden, die einen Umstieg von der zeitgebundenen Automation auf eine manuelle SnapshotAutomation ermoglichen. Der Sequenzer kann im Pult integriert sein oder extern vorhanden sein. Es iibernimmt die Speicherung der Steuerdaten entlang der Zeitleiste. Er muss
150
10 Mischpulte
mit dem Aufzeichnungsgerat zeitverkoppelt sein. Harddiskrecording-Systeme bieten meist sowohl Audio-Spuren, fiir die Tonaufzeichnung, als auch MIDISpuren zum Aufzeichnen von Steuersignalen an. Damit ist die Synchronitat bereits gegeben. 10.3.3.5 Dynamische Automation Was in der analogen Welt nur den High-End-Pulten vorbehalten war, gehort bei den digitalen und virtuellen Pulten heute schon fast zur Standardausstattung. Viele Parameter lassen sich iiber die Zeit automatisieren. Das sind nicht nur die Mute-Schalter, sondern auch die Kanal-Fader, die deswegen heute haufig motorisiert sind, die Aux Sends und manchmal sogar die EinsteUungen der Filter. So lassen sich hochdynamische Mischungen erzeugen. Eine solche Mischung kann nicht in einem Durchgang erstellt werden. Man konzentriert sich statt dessen auf einen oder zwei Parameter, die man einstellen mochte. Die anderen Parameter werden, sofern ihre Automationsdaten bereits aufgezeichnet wurden, abgespielt. Das bedeutet, dass die Kanale unterschiedliche Zustande kennen. Sie hei£en normalerweise read, write und update. Alle Kanale stehen immer auf read, sofern sie nicht gerade bearbeitet werden soUen. Aufgezeichnete Daten werden abgespielt, Kanale, zu denen keine Automationsdaten vorliegen, verandern sich iiber die Zeit nicht. Der Kanal, der bearbeitet werden soU, wird zunachst in den Write-Modus geschaltet. Im Write-Modus werden alle vorherigen Daten iiberschrieben. So lasst sich eine erste Mischung erstellen. Danach sind moglicherweise an manchen Stellen leichte Anderungen notwendig. Diese werden mit dem Update-Modus erledigt. Solange kein Parameter verandert wird, wird die bestehende Mischung abgespielt. Sobald man jedoch eingreift, werden die neuen Daten aufgezeichnet. Meist sind in den Reglern Sensoren untergebracht, die auf Beriihrung reagieren. So merkt das System, wann der Tontechniker Anderungen vornimmt. Lasst man den Regler wieder los, dann wird der Parameter mit einer festglegten Riicklaufzeit wieder auf den alten Automationswert zuriickgefiihrt. 10.3.4 Steckfeld In festen Studioumgebungen ware es sehr unergonomisch, an der Riickseite des Mischpultes Kabel ein- und auszustecken. Bei der Vielzahl an Anschliissen, die dort existieren, ware eine fliegende Verkabelung auch sehr uniibersichtlich. Ein Steckfeld - englisch Patchbay - schafft hier Abhilfe. Ein Steckfeld legt aUe denkbaren Anschliisse einer Studioumgebung offen. So konnen an einer zentralen Stelle mittels kurzer Kabel die Verbindungen hergestellt werden. Um nicht jede Verbindung erst stecken zu miissen, werden Standardverbindungen fest verdrahtet. Diese sogenannten Hardpatches funktionieren nach dem Muster der Inserts. Das hei£t, dass die Ausgange genutzt werden konnen, das Signal abzugreifen, ohne dass das Hardpatch getrennt wird. Das passiert erst, wenn ein Kabel in den Eingang gesteckt wird.
10.4 Mischpult-Bauformen
151
Angeordnet sind die Kanale normalerweise waagerecht nebeneinander, die verschiedenen Aus- und Eingange untereinander. Typischerweise beginnt die Patchbay mit den Ausgangen der Stagebox. Sie sind normalerweise hardgepatched auf die Mikrofoneingange des Pultes. Die Direct Outs sind mit den Eingangen der Mehrspurmaschine verbunden und deren Ausgange liegen sowohl an den Eingangen der Tape-Return-Sektion an, als auch an den LineEingangen der Eingangskanalziigen. Auch die Inserts der Kanale liegen an der Patchbay auf. Die Aux-Wege sind eventuell mit den Eingangen der Effektgerate vorbelegt. Eine Patchbay ist nicht zwingend notwendig, aber in vielen Fallen sinnvoll. • • • •
Die Kanalbelegung am Pult ist unabhangig von der Belegung der Patchbay Die Mehrspurmaschine kann flexibel angesteuert werden. Sind mehr Effektgerate als Ausspielwege vorhanden, dann konnen die Effekte liber die Patchbay flexibel verbunden werden. Einzelne Effekte konnen so auch in die Inserts der Eingangskanale eingeschleift werden.
10.4 Mischpult-Bauformen Verschiedene Aufgabenbereiche stellen unterschiedliche Anforderungen an die Ausstattung und den Funktionsumfang eines Mischpults. Die Haupteinsatzgebiete sind die Aufnahme, die Beschallung und die Sendung. Beschallungspulte unterscheiden sich dadurch, ob sie fiir die FOH-Mischung oder die Monitormischung verwendet werden, und ob das Programm einen szenischen Ablauf hat oder nicht. Recordingpulte unterscheiden sich in der GroEenordnung und der Anpassung an die Aufzeichnungsmedien. Sendepulte haben grundsatzlich einen ahnlichen Aufbau wie Beschallungspulte, sind jedoch normalerweise mit zusatzlichen Summen und erweiterten Kommunikationseinrichtungen ausgestattet. 10.4.1 Beschallungs- und Sendepulte Bei dieser Anwendung geht es darum, die ankommenden Signale direkt in das gewiinschte Zielformat zu mischen. Neben der Beschallung und der Sendung gehort auch das Live-Recording dazu, also die Aufnahme ohne den Umweg iiber eine Mehrspuraufzeichnung mit anschliefiender Mischung. Durch die direkte Verbindung von Eingangen und endgiiltiger Mischung entsteht die Notwendigkeit, alle relevanten Parameter im direkten Zugriff zu haben. 10.4.1.1 FOH - Front of House Die Mischung fiir das Publikum wird Front of House genannt.
152
10 Mischpulte
Ein- und
Ausgdnge
Am Pult liegen alle Eingangssignale an. Neben den Eingangskanalen fiir die Quellen muss das Pult auch Eingange fiir die EflFekt-Riickwege bereitstellen. Ausgangsseitig werden weder Direct Outs noch Busse benotigt. Die Signale werden direkt oder indirekt iiber Subgruppen an die Summen geroutet. Die Anzahl der Summen ist dabei variabeL Kleinere Beschallungen werden 2- bis 3-kanalig gefahren. Bei groi^eren Beschallungen kommen noch Wege fiir die Delay-Lines dazu, die aber auch von der Stereosumme aus beschickt werden konnen. Eine haufige Anforderung ist auch ein Mitschnitt oder eine Ausspielung fiir die Video-Dokumentation oder anwesende Journalisten^. Fiir solche Aufgaben eignen sich Ausspielmatritzen. Hier liegen die Gruppen- und die Summenausgange an und konnen individuell zusammengemischt werden. Das ist der reinen Ausspielung der Stereosumme vorzuziehen, well die Mischung fiir die PA auf die Raumakustik abgestimmt ist, die auf der Ausspielung nicht wahrnehmbar ware. Bessere Mitschnitte benotigen zusatzliche Mikrofone im Saal, mit denen die Atmosphare iibertragen wird. Diese Mikrofone gehen nicht auf die Summe, aber iiber eine eigene Gruppe auf die Ausspielung in der Matrix. FOH-Monitoring Gibt es einen separaten Monitormischer auf der Biihne, dann werden die Signale dort gesplittet. Entgegen dem Wortsinn ,spalten' werden sie verdoppelt und einmal an den Monitormischer und einmal an den FOH-Mischer verteilt. Sinn der Splitter ist die Unabhangigkeit der jeweiligen Mischung von der anderen. Muss die Monitormischung vom FOH-Platz aus gemacht werden, dann spricht m a n auch vom Front of House Monitoring. Das bedeutet, dass der Tontechniker noch weitere Ausgange iiberwachen muss. Die Kommunikation mit der Biihne ist aufgrund der gro£en Distanz nicht allzu dezent moglich. Deshalb ist ein separater Monitor-Mischer auf der Biihne bei grofieren Veranstaltungen die bessere Wahl. Ist das aber nicht moglich, dann muss der Techniker einen Teil der Ausspielwege Pre Fader schalten konnen und fiir die Monitor-Mischung verwenden. Es miissen also ausreichend Ausspielwege fiir die Effektbeschickung und die Monitorwege vorhanden sein und sie miissen unabhangig voneinander P r e oder Post Fader geschaltet werden konnen.
10.4.1.2 Monitorpulte Mit der Monitormischung werden die Akteure auf der Biihne mit einer Mischung versorgt. Diese Mischung muss auf die Bediirfnisse der Musiker abgestimmt sein. Es geht dabei nicht um klangliche Schonheit - auch wenn sie dennoch angestrebt werden soU - sondern darum, dass der Musiker alle Welche Ausspielungen erfolgen diirfen und sollen, muss in Abstinimung mit dem Veranstalter erfolgen.
10.4 Mischpult-Bauformen
153
fiir das Zusammenspiel notwendigen Informationen seines Spiels und das der anderen Musiker erhalt. Der Monitormischer wird an der Seite der Biihne untergebracht, daniit die Musiker leicht Kontakt mit dem Techniker aufnehmen konnen um Anderungswiinsche zu aui^ern. Es ist hilfreich, wenn vorab ein Satz an Kommandos verabredet wird. Ein- und Ausgdnge Am giinstigsten ist es, wenn jedem Musiker den kann. Deshalb verfiigen Monitorpulte rechtigter Ausgange. Jeder Eingang kann werden. Es ergibt sich ein matritzenartiges
eine eigene Mischung erstellt weriiber eine grofie Anzahl gleichbeauf jeden der Ausgange geregelt Prinzipschaltbild.
Eingange
Ausgange
Abb. 10.7. Prinzipschaltbild eines Monitormischers. Der Tontecliniker hat meist eine eigene Monitorbox, auf der er iiber PEL Einzelsignale ablioren kann. Klangregelung Viele Monitorpulte haben nur eine eingesclirankte Klangregelung. Die Erfahrung zeigt aber, dass sich Musiker uniso wohler fiihlen, je besser ihr MonitorMix klingt. Deshalb soUte man auch fiir die Monitormischung eine Klangregelung und Effekte einsetzen. 10.4.1.3 Sendepulte Auch im Sendepult werden die Eingange direkt auf das Zielformat gebracht. Dass das Signal nicht an Ort und Stelle konsumiert oder aufgezeichnet wird, ist dabei unerheblich. Der zentrale Unterschied dieser Pulte liegt in der Anbindung an die Aufienwelt. Vorgesprdche Wahrend einer Sendung konnen Leitungen von verschiedenen Orten gleichzeitig oder nacheinander auflaufen. Der Moderator einer Sendung mochte mit seinem Gesprachspartner ein Vorgesprach fiihren. Dieses Vorgesprach darf natiirlich nicht an die Aufienwelt dringen.
154
10 Mischpulte
n-1 Die Summe aller Signale ist n. n-1 ist die Menge aller Signale abziiglich eines bestimmten Signals. Dieses Signal ist normalerweise eine ankommende Leitung. Dieses Signal muss natiirlicli walirend des Gesprachs auf den Sendeweg geschaltet werden, es darf aber niclit auf dem Riickweg zum entfernten Gesprachspartner liegen. Dieser wiirde sich dann durch den Ubertragungsweg verzogert selbst lioren. Das ist natiirlicli sehr irritierend, sein eigenes Echo auf dem Ohr zu haben und muss deshalb auf alle Falle vermieden werden. Genauso muss die ankommende Leitung frei vom Riickprogramm sein. Auch die zugeschaltete Leitung muss also n-1 fiihren. Fiir Anfanger recht schwer zu durchschauen ist die Frage, wer einen Fehler macht. Folgende Faustregel kann dabei helfen: Hort man selbst ein einzelnes Echo (des Signals, das man herausgibt), dann liegt der Fehler auf der anderen Seite der Leitung. Hort man mehrere Echos des gesamten Signals, dann haben vermutlich beide einen Fehler gemacht. Klingt aUes richtig, dann kann es sein, dass man selbst den Fehler gemacht hat. Wenn man nicht explizit darauf achtet, ob die richtigen Signale auf die Riickleitung gehen, dann iibersieht man den Fehler sehr leicht. Es ist deshalb notwendig, den Techniker auf der anderen Seite der Leitung darauf aufmerksam zu machen, wenn man nicht n-1 als Riickprogramm erhalt. Anstelle von n-1 gibt es auch den Begriff Mix-Minus. 10.4.2 Mehrspur-Recording-Pulte Bei der Mehrspuraufnahme unterscheidet sich das Format der Aufnahme von dem Abhorformat. Abgehort wird je nach Studioausstattung und Zielformat in Stereo oder Surround. Aufgenommen wird aber ein zum Beispiel 24-kanaliges Signal. Aus der Mehrspuraufnahme wird bei einem zusatzlichen Arbeitsschritt - der Mischung - ein Stereo- oder Surroundsignal erzeugt. Doch schon um die Aufnahme abzuhoren, muss eine Ausspielung im Format der Abhoranlage erfolgen. Deshalb endet der Signalfluss nicht wie bisher am Ziel - hier der Mehrspuraufnahme - sondern wird von dort weitergefiihrt, zuriick in das Mischpult, in das spatere Zielformat iiberfiihrt und auf den Lautsprechern ausgegeben. Abbildung 10.8 zeigt einige wichtige Prinzipien. Effektriickwege und die Audioausgange sequenzergesteuerter Klangerzeuger werden nicht aufgezeichnet und die aufzuzeichnenden Signale der Eingangskanale werden nicht auf die Summe geroutet. Um diesen erweiterten Signalfluss abzubilden, gibt es verschiedene Bauformen, im Wesentlichen die Split- und die Inline-Pulte. Neben den Eingangskanalen und der Mastersektion ist zusatzlich eine Tape-Return- oder auch Monitorsektion vorhanden. Split- und Inline-Pulten gemeinsam ist, dass zur Aufnahme und Wiedergabe einer Spur auf der Bandmaschine mindestens ein Eingangskanalzug und ein Tape-Return-Kanalzug notwendig sind. Unterschiedhch ist jedoch die Anordnung dieser Kanale. Split-Pulte haben fiir die
10.4 Mischpult-Bauformen Input Mic
FX
155
clpc riC'iUiii
Expander
oooooo
Aux/PreAux/PostRouting -
-^2J—* Monitormix -0-^FX-Send ^z5—»Master
Direct Out < S i i 6 6
6666
j Tape Retujrn
Mehrspur A b b . 10.8. Signalfluss einer Mehrspuraufnahme.
Tape-Return-Wege komplette Kanalziige mit eigener, wenn auch haufig reduzierter Klangregelung und EflFektbeschickung. Der Nachteil dieses Konzeptes ist der hohere Platzbedarf und der groEere technische Aufwand durch die zusatzlichen Kanale. Vorteilhaft ist hingegen die groi^ere Anzahl voUwertiger Kanale bei der Mischung. Werden viele synthetische Instrumente verwendet, die bei der Mischung am Pult anliegen, ist ein Split-Pult durchaus sinnvoll. Da die Eingangskanalziige von den Tape-Return-Kanalziigen getrennt sind, ergibt sich eine bessere Ubersicht. Bei Inline-Pulten existiert im Kanalzug ein zweiter Signalweg, der fiir das Tape-Return-Signal verwendet wird. In der einfachsten Form besteht er lediglich aus eineni physikalischen Eingang, einem P a n o r a m a und eineni Pegelsteller. Grofiere P u l t e haben nieist einen zweiten, oft kleineren Fader und ein kleines Routing fiir den Monitorweg. Hinzu komnit, dass die Funktionsgruppen ganz oder teilweise dem einen oder anderen Weg zugeordnet werden konnen. Inline-Pulte sind sehr kompakt und bei wenigen zusatzlichen Signalen in der Mischung liegen keine voUwertigen Kanale brach. Dafiir ninimt m a n eine gewisse Komplexitat und Uniibersichtlichkeit in Kauf. Mit den Recording-Pulten miissen zwei Arbeitsschritte durchgefiihrt werden: Die Aufnahme und die Mischung. Fiir jeden dieser Arbeitsschritte gibt es eine angepasste Grundkonfiguration des Pultes. Giinstiger- aber nicht zwingenderweise wird sie geladen, wenn der jeweilige Arbeitsschritt ansteht. Man Viele Aspekte der Signalverspricht vom Record- und dem Mixdown-Status. teilung im Recordingpult sind statusabhangig. 10.4.2.1 Record-Status Im Record-Status sind in den Eingangskanalziigen die Mikrofoneingange aktiv, da bei der Aufnahme davon ausgegangen werden kann, dass hauptsachlich Mikrofonsignale verarbeitet werden miissen. Von den Eingangskanalziigen gehen die Signale entweder iiber das Routing oder die Direct Outs auf die
156
10 Mischpulte
Mehrspurmaschine. Dort werden sie aufgezeichnet und liegen zusatzlich wieder am Ausgang an. Dieser Ausgang ist mit den Tape-Return-Eingangen im Mischpult verbunden und die Tape-Return-Eingange sind auf die Stereo- oder Surround-Summe geroutet. Die Funktionsgruppen sind in Inline-Pulten den Eingangen zugeordnet. Der Pegel wird iiber den Channel, die Abhorlautstarke liber die Monitor Fader geregelt. 10.4.2.2 Mixdown-Status W a h r e n d der Mischung sind die meisten Schallquellen bereits aufgezeichnet und werden von der Mehrspurmaschine abgespielt. An den Eingangskanalziigen sind jetzt die Line-Eingange aktiv. Dort hegen die Mehrspurausgange an. Als weitere Signale kommen EfFektsignale und die Audiosignale sequenzergesteuerter Instrumente dazu. Mikrofonaufnahmen sind bei der Mischung aui^erst uniibhch. In Inhne-Pulten wird der groi^e Fader fiir die Lautstarke des Tape-Return-Signals verwendet.
Tabelle 10.1. Statusabhangige Funktionen und ihre Einstellung. Punktion Eingang Grofier Fader Kleiner Fader EQ/Dynamics
Record-Status Mic Input Tape Input
Mixdown-Status Line Tape Return Input Tape
Statusabhangige Funktionen konnen oft zentral oder auch kanalweise umgeschaltet werden. Denn natiirlich konnen im Record-Status auch Line-Signale auf die Eingangskanalziige gelegt werden. Viele Tonmeister beginnen schon bei der Aufnahme mit der Mischung, dazu werden die Regler getauscht. Der Monitor Fader regelt dann den Pegel fiir die Mehrspurmaschine wahrend der Channel Fader bereits bei der Aufnahme die Mischung regelt. Diese Einstellung bleibt erhalten, wenn m a n den Status nach Abschluss der Aufnahme umschaltet und die Reglerumkehr riickgangig macht. 10.4.3 HardwarecontroUer und virtuelle Mischpulte Heute ersetzen mehr und mehr Digitale-Audio-Workstations (DAW) die herkommlichen Studioumgebungen. In ihnen sind Aufzeichnungsgerat, Mischpult, Schneidetisch und Effektgerate vereint. Das ist zum einen sehr sinnvoU. AUe Produktionsdaten liegen in einem System vor. Sie konnen einfach gespeichert und transportiert werden. Softwaresysteme sind kostengiinstiger zu realisieren, als hochwertige Studiogerate gebaut werden konnen. Die gesamte Produktion wird an einem Platz mit einer einheitlichen Bedienoberflache abgewickelt.
10.4 Mischpult-Bauformen
157
Die virtuellen Mischpulte der DAWs konnen andere Konzepte bereitstellen, als es von den in diesem Kapitel beschriebenen analogen Pulten bekannt ist. Dennoch orientieren sich viele an der traditionellen Spurorientierung. Signale konnen iiber virtuelle Busse und Inserts verteilt und mit virtuellen Pegelstellern verandert werden. Wer sich mit analogen Pulten auskennt, der hat meist mit den digitalen Pendants keine Schwierigkeiten. Dennoch sollte man sich immer mit den Konzepten der jeweiligen Software vertraut machen. Auch wenn die traditionelle Bedienung moglich ist, verschenkt man damit unter Umstanden Potential. Ein Beispiel: Bisher dachte man immer spurorientiert. Ein Instrument lag auf einer Spur und die Mischung war auf dieses Instrument ausgerichtet. Die Automation sorgte iiber den Zeitverlauf fiir die notige Flexibilitat. Heute existiert zumindest eine Software, die eine eigene Entzerrung und Effektbeschickung objektbasiert anbietet. Dabei wirken die Einstellungen der Spur als Basis und konnen fiir jeden beliebigen Ausschnitt aus dem Audiomaterial abgeandert werden. Verschiebt man diesen Ausschnitt in eine andere Spur, bleiben die Einstellungen erhalten. Das ist ein gutes Instrument, um die Anzahl der Spuren zu begrenzen. Sie sind heute zwar nur noch aus Marketinggriinden bei einigen Programmen limitiert, aber die Ubersichtlichkeit leidet unter der Haufung von Spuren fiir moglicherweise nur kurz auftretende Gerausche. Die neuen Moglichkeiten, die die virtuellen Pulte bieten, werden der Verbreitung dieses Konzepts weiter Vorschub leisten. Sie haben aber auch gravierende Nachteile. Einen Fade mit der Maus an einem virtuellen Fader ist nicht gerade eine komfortable Angelegenheit. In den seltensten Fallen ist das Ergebnis mit der Reglerbewegung eines richtigen Faders zu vergleichen. Auch der Zeitaufwand in der Mischung ist wesentlich hoher. An einem tatsachlichen Pult lassen sich viele Einstellungen in vielen verschiedenen Kanalen gleichzeitig durchfiihren. Da am Computer aber immer nur eine Maus zur Verfiigung steht, sind simultane Anderungen mehrerer Parameter von Hand nicht moglich. Als Alternative stellen die Programme parametrisierte Verlaufe oder grafische Kurvenwerkzeuge bereit. Lautstarkekurven in eine Spur zu malen fiihrt meines Erachtens zu keinen brauchbaren Ergebnissen. Lautstarkeverlaufe iiber Parameter einzustellen erlaubt eine genaue Steuerung, im Ergebnis verfehlt das jedoch haufig den organischen Zusammenhalt mit dem Audiomaterial, da die Manipulation zu indirekt erfolgt. Auf mackie.com wird das sehr treffend beschrieben: „Mixing with your computer keyboard an mouse can be like tying your shoes with chopsticks"^. Abhilfe schaffen hier Hardwarecontroller, die als Fernsteuerung der virtuellen Mischpulte dienen. Manche DAW-Hersteller bieten zu ihren Produkten gleich einen passenden Hardwarecontroller an, es gibt aber auch universelle Controller, die mit verschiedenen Programmen arbeiten konnen. Sehr interessant sind auch Pulte, die als Controller arbeiten konnen. So nutzt man sie als Wandlereinheit fiir die Aufnahme und als Controller fiir die Mischung. www.mackie.com/products/mcu/index.html
158
10 Mischpulte
10.4.4 Sonstige M i s c h p u l t k o n z e p t e Zwei weiter Mischpultkonzepte sollen kurz erwahnt werden: Das 8-Bus-Pult und der Channel Strip. 10.4.4.1 8-Bus Das 8-Bus-Prinzip entstand Anfang der 1990er Jahre, als diverse digitale Achtspurrekorder den Low- und Mid-Budget-Markt umkrempelten und die teuren und wartungsintensiven analogen Mehrspurbandmaschinen ablosten. Die Bedienung unterschiedet sich nicht von anderen Recordingpulten, die Ansteuerung der Bandmaschine geschieht iiber das Routing. 10.4.4.2 C h a n n e l Strips Gerade in kleinen Projektstudios und auch im Bereich der Produktion elektronischer Musik, in der wenige analoge Signale verarbeitet werden miissen, ist es sinnvoU, ein oder zwei hochwertige analoge Eingangskanalziige und entsprechend hochwertige Wandler zu haben. So kann der Gesang beispielsweise analog aufbereitet werden, optimiert gewandelt und dann im digitalen System weiterverarbeitet werden. Die erhaltlichen Kanalziige entsprechen haufig denen aus erfolgreichen analogen Pulten.
11 Aufnahme- &: Ubertragungstechnik
Die Aufnahme ist eine zentrale Aufgabe fiir den Mediengestalter. Selbst bei Live-Veranstaltungen soil oft ein Mitsclinitt oder eine Ausspielung fiir die Kamera erstellt werden. Die Klangspeiclierung ist aufierdem essentiell fiir die Produktion von Tontragern. Man untersclieidet nach der Art der Aufnahme zwischen dem Live-Recording, bei dem sofort in das Zielformat gemischt wird und der Mehrspuraufzeichnung, bei der die Mischung zu einem spateren Zeitpunkt nachgeholt wird. Es gibt verschiedene Aufzeichnungsmedien, von denen die bandgestiitzten immer welter von den harddiskbasierten Systemen verdrangt werden. Zuletzt kann nicht nur das Audiomaterial selbst aufgezeichnet werden, sondern auch Steuerbefehle, mit denen elektronische Musikinstrumente reproduzierbar gesteuert werden konnen.
11.1 Profi- und Consumerformate Es gibt eine Vielzahl unterschiedlicher Aufzeichnungsmedien. Einige sind fiir die Produktion konzipiert, die anderen eigenen sich besonders als Verbraucherformat. Ein Medium, dass in der professionellen Produktion verwendet werden soil, muss eine hohe Qualitat aufweisen. Das gilt sowohl fiir den Klang, als auch fiir die mechanische Robustheit, wenn man zum Beispiel an Tonbander denkt, die wahrend einer Mischung standig vor- und zuriickgespult werden. Gerade diese mechanische Belastbarkeit macht aber die Medien sehr teuer, die Klangqualitat schlagt sich vor allem im Preis der Rekorder nieder. Aufierdem miissen die Formate die notwendigen Bearbeitungsschritte erlauben. Datenreduzierte Formate, die fiir den Vertrieb iiber das Internet interessant sind, lassen sich nicht so ohne weiteres schneiden. Damit - und natiirlich aus Griinden der Qualitat - scheiden sie fiir den Produktionsbereich aus. Im Consumerbereich macht man Abstriche in der Qualitat und der Haltbarkeit um einen giinstigeren Preis zu erzielen. Aufierdem miissen die Tontrager kompakt genug sein, um sie in gro£er Zahl im heimischen Wohnzimmer unterbringen
160
11 Aufnahme- & Ubertragungstechnik
zu konnen. Sie soUen leicht zu h a n d h a b e n sein, das war der Vorteil der Kompaktkassette gegeniiber dem Tonband. Fiir die Hersteller von Tontragern ist von gro£er Bedeutung, dass sich das Format schnell und in grofien Mengen kopieren lasst. Analoge Verfahren waren da anspruchsvoller, als die heutigen Digitalformate.
11.2 Analoge Audioaufzeichnung Es gibt drei analoge Speichermedien, die fiir unterschiedliche Anwendungen verwendet werden. Als Tontrager fiir die Verbreitung war die Scliallplatte lange Zeit die wichtigste und qualitativ beste Losung. Im Kino verwendet m a n Liclittonformate um Bild und Ton auf einen Trager zu bekonimen. Die wichtigste Rolle spielte jedocli das Magnetband. Es diente als Mehrspur- und Mastermascliine im Studio und war auch zu Hause das Medium, auf das direkt aufgezeiclinet werden konnte. Fiir neue Produktionen spielt die analoge Audioaufzeichnung eine immer geringere Rolle. Sehr haufig allerdings wird der Mediengestalter immernoch mit alten Aufnahmen auf analogen Medien konfrontiert. 11.2.1 M a g n e t t o n Fiir die Magnettonaufzeichnung braucht m a n sowohl ein Gerat, das die Aufzeichnung vornimmt, als auch das Tonband als Tontrager. Tonband und Bandmaschine miissen aufeinander abgestimmt sein. Sowohl was die Abmessungen, als auch was die Magnetisierungseigenschaften angeht. 11.2.1.1 Tonband Das Tonband, wie es heute eingesetzt wird, besteht aus einer stabilen Tragerschicht aus Kunststoff, auf der eine magnetisierbare Nutzschicht aufgebracht ist. Bis dahin war es aber ein weiter Weg. Die ersten Tonbander bestanden aus Stahlband, das mit einer sehr hohen Geschwindigkeit laufen musste, um verniinftige Ergebnisse zu produzieren. Die Spielzeit war entsprechend kurz. Dennoch waren die Spulen so schwer, dass sie nur von leistungsstarken Motoren angetrieben werden konnten. Spater verwendete m a n Papier als Tragerschicht, das allerdings die notwendige Festigkeit vermissen lie£. Wer es ganz genau wissen mochte, dem sei die Magnetband Story^ von G. Redlich ans Herz gelegt. Die Tragerschicht muss alle auftretenden mechanischen Belastungen auffangen und darf seine Form dabei nicht verandern. Die magnetisierbare Nutzschicht hat je nach Zusammensetzung ganz bestimmte magnetische Eigenschaften, die bei der Aufnahme beriicksichtigt werden miissen. Deshalb muss eine Bandmaschine auf eine bestimmte Bandsorte ^ http://www2.niagnetbandmuseuni.info/magnetband_story 1.0.html
11.2 Analoge Audioaufzeichnung
161
- und am besten auf jede Charge neu - eingemessen werden. Nur fiir diese eine Bandsorte arbeitet die Bandmaschine dann optimal. Abgespielt werden konnen allerdings alle Bander, unabhangig von ihrem Fabrikat. Wichtig fiir eine dauerhafte Speicherung ist, dass das Bandmaterial magnetisch hart ist. Das bedeutet, dass die Magnetisierung nach Wegfall des Magnetfeldes erhalten bleibt. Die magnetische Harte lasst sich iiber die Hystereseschleife ausdriicken. Sie zeigt was passiert, wenn ein Gegenstand einem magnetischen Feld ausgesetzt ist. Zunachst ist der Gegenstand - in diesem Fall ein Tonband - noch nicht magnetisiert. Befindet sich das Tonband im Einfluss eines Magnetfelds, dann steigt die Magnetisierung des Bandes, bis aUe Teilchen ausgerichtet sind. Eine weitergehende Magnetisierung ist nicht mehr moglich - das Band ist gesattigt. Diesen Ablauf beschreibt man mit der Neukurve. Sie wird nur bei der ersten Magnetisierung durchlaufen. Reduziert man nun die Starke des Magnetfeldes, dann geht auch die Magnetisierung des Bandes zuriick, aUerdings nicht bis auf NuU. Die Remanenz beschreibt, wie stark die Magnetisierung ist, nachdem das externe Magnetfeld abgeschaltet wurde. Mochte man die Magnetisierung ganz aufheben, dann muss man ein gegenlaufiges Magnetfeld einer bestimmten Starke anlegen. Wird diese Starke iiberschritten, dann kommt es wiederum zur Magnetisierung des Tonbands, nur diesmal mit entgegengesetztem Vorzeichen. Je hoher die umgekehrte Feldstarke (Koerzitivfeldstarke) sein muss, um die Remanenzflussdichte aufzuheben, desto grower ist die magnetische Harte des Materials. Flussdichte (B)
Neukurve •- Koerzitivfeldstarke - Remanenzflussdichte
Abb. 11.1. Hystereseschleife.
11.2.1.2 Bandmaschinen Bandmaschinen sind komplizierte mechanische Gerate. Aufgabe der Mechanik ist der korrekte Bandtransport. Zu den elektronischen Funktionseinheiten gehoren die Tonkopfe, die fiir das Lesen und Schreiben der Bander verant-
162
11 Aufnahme- & Ubertragungstechnik
wortlich sind und die meist externe Rauschunterdriickung zur Signaloptimierung. Bandmaschinen werden - vor allem aber wurden - in drei grundsatzlichen Formen gebaut: Zweispurmaschinen wurden als Mastermaschinen und fiir den Schnitt eingesetzt. Mehrspurmaschinen waren fiir die Aufzeichnung der Einzelsignale bei Mehrspurproduktionen. Die Perfolaufer bilden die dritte Gruppe, die perforierte Tonbander fiir Filmtonproduktion nutzten. Bevor es aber um den speziellen Aufbau geht, sollen die zwei wesentlichen Baugruppen einer Bandmaschine erlautert werden. Bandtransport Die Bandmaschine hat zwei WickelteUer. Der hnke wird Supply Reel, der rechte Take Up Reel genannt. Das Band lauft also wahrend der Widergabe von links nach rechts. Die Wickelmotoren laufen inimer gegeneinander, um einen Bandzug aufzubauen. Jedoch sorgt eine Schlupfkupplung dafiir, dass der eigentliche Vortriebsmechanismus das Band in die richtige Richtung transportieren kann. Die Wickelmotoren sind nicht fiir den Bandvortrieb wahrend der Wiedergabe zustandig. Die Drehzahl miisste abhangig vom Wickeldurchmesser verandert werden, um eine konstante Bandgeschwindigkeit am Tonkopf zu erreichen. Deshalb kommt ein zusatzlicher Motor zum Einsatz: Der Capstan. Der Capstan ist eine MetaUwelle, gegen die das Band mit Hilfe einer Gummiandruckrolle gedriickt wird. Je nach Modell verlauft die Bandfiihrung iiber eine oder mehrere Umlenkrollen. Auf beiden Seiten des Capstans befinden sich Bandzugfiihler, die die Starke, mit denen die Wickelmotoren arbeiten, regelt.
Abb. 11.2. Prinzip des Bandtransports.
Aufzeichnung und Wiedergabe Die Magnetisierung erfolgt iiber Tonkopfe. Ein Tonkopf hat die Aufgabe, eine Wechselspannung in ein magnetisches Feld oder ein magnetisches Feld in eine Wechselspannung umzuwandeln. Realisiert wird das durch einen von einer Spule umwickelten Metallring. Dieser Ring ist an einer Stelle unterbrochen. Diese Unterbrechung ist der Kopfspalt. Durch den Kopfspalt treten die Feldlinien des magnetischen Feldes aus dem Ring aus und konnen so das Tonband beeinflussen. Die Breite des Kopfspalts definiert die obere Grenzfrequenz des
11.2 Analoge Audioaufzeichnung
163
Systems. Es konnen nur Frequenzen iibertragen werden, bei denen wahrend einer Periodendauer der Bandvorschub grofier ist, als die Breite des Kopfspalts. Der Frequenzgang hangt also aufier von der Breite auch von der Bandgeschwindigkeit ab. Je schneller das Band lauft, desto mehr Hohen werden aufgezeichnet und abgespielt. Neben der Breite hat auch die genaue Justage des Azimuths - des Kopfspalts - einen gro£en Einfluss auf die Grenzfrequenz und die Phasenlage. Abbildung 11.3 zeigt die Auswirkung eines falsch eingestellten Kopfspalts auf die obere Grenzfrequenz. Der Azimuth des Aufnahmekopfs muss 90° zur Bandlaufrichtung betragen, der Wiedergabekopf wird nach dem Pegelton auf dem abzuspielenden Tonband eingestellt. War der Aufnahmekopf richtig eingestellt, dann muss auch der Wiedergabekopf rechtwinklig zur Bandlaufrichtung eingestellt werden.
Abb. 11.3. Breiterer Kopfspalt durch falsch eingestellten Azimuth. Bei der Aufzeichnung wird neben dem Nutzsignal auch eine zusatzliche hochfrequente Schwingung iibertragen. Diese HF-Vormagnetisierung sorgt fiir eine bessere Dynamik. Eine Bandmaschine hat nicht nur einen Tonkopf, sondern drei. Zuerst wird das Band geloscht. Das iibernimmt der Loschkopf. Das Ziel ist, das Band in einen moglichst neutralen Zustand zu versetzen. Das geschieht mittels eines schneU wechselnden Magnetfelds. Durch den Bandtransport schwacht sich dieses Signal langsam ab und so wird die bisherige Magnetisierung weitgehend neutralisiert. Anschliefiend kann das Band neu beschrieben werden. Das iibernimmt der Aufnahmekopf oder Schreibkopf. Entweder zur HinterbandkontroUe direkt nach der Aufnahme oder auch zum Abspielen bereits bespielter Bander dient der dritte Kopf. Der Abspielkopf wird Sprechkopf oder Repro genannt. 2TR -
Zweispurmaschinen
2TR steht fiir 2 Track. Als Tonband wird 1/4-Zoll-Band verwendet. Umgangssprachlich heifien sie auch ,Schniirsenkel' oder ,38er'. Die zwei Spuren einer Zweispurmaschine beherbergen natiirlich den linken und den rechten Kanal eines Stereosignals. Aber auch Monoprogramm kann auf eine Zweispurmaschine aufgenommen werden. Unterschiede gibt es auch in der Bandgeschwindigkeit. Um anzuzeigen, was auf dem Band zu finden ist, also ob es sich um eine Mono- oder Stereoaufnahme handelt, und in welcher Geschwindigkeit das
164
11 Aufnahme- & Ubertragungstechnik
Band aufgenommen wurde, gibt es verschiedene Vorspannbander, die vor das Programni geschnitten werden. Tabelle 11.1. Farbcodes fiir Bandgeschwindigkeit und Programmart. Programni L Geschwindigkeit Sonstiges End- und Zwischenband Mono 15 Zoll/Sekunde Stereo 15 Zoll/Sekunde Standardformat. Entspricht etwa 38cm/Sekunde Mono blau 7,5 Zoll/Sekunde Stereo blau-weifi 7,5 Zoll/Sekunde Mono weifi 30 Zoll/Sekunde Stereo schwarz-weifi 30 Zoll/Sekunde 15 Zoll/Sekunde Rauschunterdriickung schwarz-weifi-rot Stereo Telcom C4 Farbe gelb rot rot-weifi
Gelbband ist das am haufigsten verwendete Zusatzband. Es wird an das Ende eines Bandes geschnitten und bei Bandern niit niehreren Titeln auch zwischen die einzelnen Titel. Sucht man auf so einem Band einen bestimmten Titel, dann muss man wahrend des Vorspulens nur die Gelbbander zahlen. Auf einem fertig konfektionierten Tonband ist nie Stille vor oder nach der Modulation zu finden. Das Vorspannband geht immer bis zum Anfang der Modulation, am Ende folgt sofort ein Gelbband. So lasst sich die Zeit leicht ermitteln und im Sendebetrieb sieht man das Ende eines Titels bereits kurz vorher. Tonbandgerate, die fiir den Sendebetrieb ausgelegt sind, verfiigen iiber einen optischen Sensor, der die Grenze des Vorspannbands zum Tonband erkennt und stellen das Band automatisch auf den Anfang des nachsten Titels ein. Schwarz-Wei£-Rot-Band weist darauf bin, dass die im deutschen Rundfunk friiher haufig verwendete Rauschunterdriickung Telcom C4 eingesetzt wurde. Mehr zu den Rauschunterdriickungssystemen steht spater in diesem Kapitel. MTK -
Mehrspurmaschinen
Die englische Bezeichnung Multitrack wird mit MTK abgekiirzt. Mehrspurmaschinen arbeiteten mit anderen Spurbreiten. Die iiblichen Breiten zeigt die Tabelle 11.2. Bei gleicher Bandbreite nimmt die Breite pro Spur mit steigender Spurenzahl ab. Das verschlechtert die Qualitat. Die Mehrspurproduktion im Overdub-Verfahren - also nacheinander wurde erst durch die Entwicklung eines speziellen Tonkopfs moglich. Dieser Tonkopf ist der Sync-Kopf. Er kann gleichzeitig aufnehmen und andere Spuren abspielen. Dadurch entfallt der sonst iibliche Zeitversatz zwischen Aufnahme-
11.2 Analoge Audioaufzeichnung
165
Tabelle 11.2. Spurbreiten analoger Mehrspurbandmaschinen. Breite Spureii 1/2" 8, 16 1" 16 2" 24 und Wiedergabekopf. Der Modus ist fiir jede Spur wahlbar. Soil eine Spur bespielt werden, dann wird sie Ready gesclialtet. Schaltet man die Maschine auf Wiedergabe, dann wird noch nicht aufgenommen. Erst wenn die Aufnahme aktiviert wird, dann wird auf die Ready-markierten Spuren aufgenommen. AUe anderen sind im Modus Safe und werden welter abgespielt. So sind Punch-In-Aufnahmen moglich. Mit der zeitliche getrennten Aufnahme mehrerer Instrumente entstand auch die Notwendigkeit des Monitorings. Das wird ebenfalls an der Bandmaschine konfiguriert. Ublicherweise gibt es drei Moglichkeiten: Input, Sync und Repro. Repro ist fiir die Mischung gedacht, bei der iiber den normalen Abspielkopf abgehort wird. Wahrend der Aufnahme ohne Punch In und Out kann in der Regie Repro abgehort werden. Sobald der Musiker aber selbst etwas horen miissen, stort der Zeitversatz zwischen Syncund Reprokopf. Input gibt das Eingangssignal am Ausgang aus. Der Musiker hort also immer das, was er gerade spielt. Sync gibt das Signal am Tonkopf aus. Das bedeutet, dass der Musiker sich nur wahrend der Aufnahme hort. Perfolaufer Diese Bander konne zwei bis 6 Spuren beherbergen, je nach Ausgabeformat der Filmmischung. Als Bander selbst kommt perforiertes Magnetband zum Einsatz, das normalerweise dieselbe Breite aufweist, wie das Filmmaterial, zu dem der Ton produziert werden soil. Da ein 35 mm breites Tonband fiir eine Stereomischung sehr komfortabel ware, greift man dort iiblicherweise auf ein 17,5 mm Magnetband zuriick, das aber wie der 35-mm-Film perforiert ist. Die bisherigen Maschinen arbeiteten alle mit einem bestimmten Tonbandformat. Perfolaufer lassen sich dagegen mit wenigen Handgriffen umriisten. Sowohl was die Anzahl der Spuren angeht, als auch die Breite des Bandmaterials. 11.2.2 Schallplatte Bevor die CD auf den Markt kam war die Schallplatte das meistvertriebene Medium. Eine gute Klangqualitat und ein schneller Zugriff auf alle Titel einer Platte machten sie so beliebt. Sie dienten lange Zeit auch als Sendemedium im Rundfunk. Problematisch ist die mechanische Belastung, die bei jedem Abspielen auftritt. Eine Nadel kratzt dabei durch die Rille der Schallplatte und nutzt sie so ab. Dadurch nimmt die Tonqualitat mit der Zeit ab. Zusatzlich
166
11 Aufnahme- & Ubertragungstechnik
konnen Kratzer entstehen, die sich durch unschones Knacken bemerkbar niachen. Staub setzt sich ebenfalls in den Rillen fest und verursacht unschones Knistern, wenn er nicht vorher entfernt wird. Vorganger der SchaUplatte waren Wachswalzen, die jedoch nicht besonders haltbar waren. Schahplatten aus Schehack folgten, die zwar Beriihrungen widerstanden, die aber leicht brechen konnten. Vinyl ist das heutige Material, das durch seine Flexibilitat kleinere Stofie gut abfangen kann, aber trotzdem hart genug ist, um dem Abrieb durch die Nadel zu widerstehen. Schahplatten gibt es in zwei Gr6£en. Das typische Album heifit Langspielplatte, kurz LP. Sie lauft mit einer konstanten Geschwindigkeit von 33 1/3 Umdrehungen pro Minute und hat einen Durchniesser von 30 cm. Auf einer Single werden einzelne Titel vertrieben. Sie ist mit 18 cm Durchniesser kleiner als eine LP und wird mit 45 Umdrehungen pro Minute abgespielt. Durch die hohere Umdrehungszahl erreicht man einen Qualitatsgewinn. Der Vorteil der geringeren Geschwindigkeit ist eine grofiere Spieldauer. Maxi-Singles sind so grofi, wie eine LP, werden jedoch mit 45 Umdrehungen pro Minute abgespielt und haben deshalb nur Platz fiir etwa zwei Titel pro Seite. Schahplatten werden beidseitig in sogenannter Flankenschrift beschrieben. Dabei wird in beide Flanken der Rille jeweils ein Kanal eingraviert. Die Plattenspieler haben entweder einen Direkt- oder einen Riemenantrieb. Wichtig ist der Gleichlauf, so dass die Plattenteller sehr schwer ausgefiihrt sein sollten. Der Tonarm, an dessen Ende die Nadel sitzt, ist entweder an einem Punkt drehbar befestigt oder wird bei den sogenannten Tangentialplattenspielern auf einer gleichbleibenden Achse in Richtung Plattenmitte vorgeschoben. Dadurch steht die Nadel immer senkrecht zur Rille.
Abb. 11.4. Radiale und tangentiale Tonarme. Wie die Tonabnehmer die Schwingung in ein elektrisches Signal umwandeln, ist im Abschnitt 9.2 beschrieben. Das Signal, das von einer SchaUplatte kommt ist stark verzerrt und muss deshalb iiber einen speziellen Phonovorverstarker korrigiert werden. 11.2.3 Lichtton Lichtton wird bei der Erstellung von Filmtonkopien mit auf den Filmstreifen belichtet. So ist eine Synchronitat von Ton und Bild bei der Vorfiihrung gewahrleistet. Der analoge Lichtton ist ein durchgehendes Band zwischen der
11.3 Analoge Audioiibertragung
167
Perforation und dem Bild, das je nach monientanem Pegel niehr oder weniger breite durchsichtige Bereiche enthalt. Diese Lichtdurchlassigkeit wird von einem optischen Sensor am Projektor aufgenommen und in eine Wechselspannung umgesetzt. Pro Tonspur existiert ein solches Band, das an die Computerdarstellung einer Wellenforni erinnert. Die Tonspur ist zuni Bild urn 21 Bilder vorversetzt. Das hat den Grund, dass die Tonspurabtastung nicht an derselben Stelle erfolgt, wie die Projektion.
11.3 Analoge Audioiibertragung Die Ubertragung analoger Audiosignale kann entweder drahtgebunden, oder drahtlos erfolgen. Unterschieden werden konnen die Verfahren auch durch ihre Reichweite. Wahrend Funkmikrofone nur fiir geringe Distanzen funktionieren, erreichen Radiowellen bei Bedarf einen Umkreis von vielen hundert Kilometern. 11.3.1 Kabelverbindungen Die einfachste und haufigste Methode, ein Signal von einem Ort zum anderen zu transportieren, ist eine Kabelverbindung. Symmetrische und unsymmetrische Signalfiihrung Bei der Signalfiihrung wird zwischen der kostengiinstigen aber storanfalligen unsymmetrischen und der schaltungstechnisch aufwandigen aber robusten symmetrischen Signalfiihrung unterschieden. Anstelle von unsymmetrisch wird auch der Begriff asymmetrisch verwendet. Unsymmetrisch Bei der elektronischen Signaliibertragung reichen prinzipiell zwei Adern. Eine fiihrt die Signalspannung, die andere liegt am Bezugspotential, der Masse. Diese Art der Signalfiihrung nennt man unsymmetrisch. Uber kurze Distanzen ist das eine preisgiinstige MogUchkeit, die auch sehr gut funktioniert. Die gesamte Verkabelung von Unterhaltungselektronik ist unsymmetrisch. Uber weite Strecken - in einem FuEballstadion zum Beispiel kommen leicht einige hundert Meter zusammen - ist die Leitung auEeren Storquellen ausgesetzt. Diese Einstreuungen fiihren zu KlangeinbuEen oder gar zu horbaren Storgerauschen. Ein weiterer Nachteil ist, dass ein Defekt einer Leitung sofort zum Signalverlust fiihrt.
168
11 Aufnahme- & Ubertragungstechnik
Symmetrisch Bei der synimetrischen Leitungsfiihrung gibt es drei Adern. Eine liegt wiederum am Massepotential (1, ground) an. Das eigentliche Signal wird zwei mal iibertragen. Einmal in Originallage (2, hot) und einmal in der Phase gedreht (3, cold). Am Eingang wird aus diesen beiden Signaladern die DifFerenz gebildet. Diese Differenz ergibt die Signalspannung. Externe Storquellen wirken gleichphasig auf beide Signaladern. Durch den nachgesclialteten Differenzverstarker losclien sie sicli wieder aus. Beim Ausfall einer der beiden Signaladern kommt das Signal - jetzt allerdings unsymmetrisch iibertragen und mit einem Pegelverlust von 6 dB - imniernoch am Enipfanger an. Der BegrifF symmetrische Signalfiilirung kommt daher, da das kalte Signal quasi eine Spiegelung des liei£en am Massepotential ist. Symmetrierung Die Symmetrierung eines Signals erfolgt entweder passiv iiber Transformatoren oder aktiv iiber Operationsverstarker. Untergebracht sind diese Sclialtungen in einer sogenannten DI- oder Line-Box. Der Unterscliied zwischen den beiden ist das Ubertragungverhaltnis. Wahrend eine Line Box den Pegel nicht andert, dampft eine DLBox den Pegel um iiblicherweise 20 dB. Da der Schaltungsaufwand fiir symmetrische Gerate deutlich grower ist, sitzen an den Eingangen vieler Gerate Desymmetrierer. Innerhalb des Gerats wird das Signal dann unsymmetrisch verarbeitet. Die Ausfiihrung der Ausgange kann sowohl symmetrisch sein, was fiir die Summen- und Gruppenausgange typisch ist, oder, wie bei den meisten Inserts, unsymmetrisch. 11.3.2 Telefon Das Telefon hat imniernoch eine gro£e Bedeutung fiir die aktuelle Berichterstattung. Ein Telefon ist iiberall verfiigbar, Gesprache konnen also zu fast jedem Ort gefiihrt werden, ohne dass spezielle technische Anlagen notwendig sind. Telefone funktionieren haufig auch dann, wenn andere technischen Einrichtungen zum Beispiel aufgrund eines Stromausfalls versagen. Nachteilig an Telefonverbindungen ist die schlechte Tonqualitat aufgrund hoher Storgerausche, eines schlechten Rauschspannungsabstands und des begrenzten Spektrums von 300Hz-3,5 kHz. Telefonie ist in Deutschland und weiten Teilen der Welt heute komplett digitalisiert. Auch die sogenannten analogen Anschliisse sind nur bis zur Vermittlungsstelle analog. Dort werden sie digitalisiert und so digital transportiert. Fiir die ankommende Leitung im Studio ist es technisch unerheblich, was fiir eine Art von Telefon der entfernte Gesprachspartner verwendet. Wann immer es moglich ist, sollte aus Griinden der Klangqualitat einer Festnetzverbindung der Vorzug gegeniiber einer Mobilfunkverbindung gegeben werden. IP-Telefonie hat derzeit noch eine deutlich schlechtere Klangqualitat als herkommliche Telefonleitungen. In Zukunft wird sich das aber sicher verbessern.
11.3 Analoge Audioiibertragung
169
Satellitentelefone funktionieren praktisch iiberall, wo die Sichtlinie zuni Satelliten frei ist. Die Qualitat einer Satellitenverbindung ist abhangig von der Sendeleistung des Telefons, der Verbindungsqualitat mit dem Satelliten und der Anschlussart, die verwendet wird. Die Bandbreite des Kanals ist flexibeL Feste Datenraten sind moglich, hohere Bandbreiten kosten allerdings auch entsprechend mehr. Im Studio wird kein herkommliches Telefon verwendet sondern ein Telefonhybrid. Ein Telefonhybrid verbindet die Telefonleitung mit der Studioumgebung. Die Ubertragung der Telefonsignale erfolgt iiber eine sogenannte Zweidrahtleitung. Das bedeutet, dass sowohl die ankommenden, als auch die abgehenden Signale iiber dieselben zwei Drahte laufen. Um Riickkopplungen zu vermeiden, miissen die beiden Signale im Telefonhybrid aufgetrennt werden. Nur das ankommende Signal darf auf den Mischpulteingang gelangen, auf die Riickleitung muss ein n-1-Signal geschaltet werden, dass der entfernte Gesprachspartner sich nicht verzogert zuriickhort. Die Trennung des ankommenden Signals vom abgehenden erfolgt mittels einer sogenannten Gabelschaltung. 11.3.3 Modulationstechniken Um Audiosignale iiber gro£e Entfernungen zu transportieren, muss m a n sie in einen Frequenzbereich verlagern, der keinen so gro£en Dampfungen unterliegt. Die elektromagnetischen Frequenzbander eignen sich fiir diesen Zweck. Dazu moduliert m a n die Nutzfrequenz auf eine Tragerfrequenz. Dabei kann jeder P a r a m e t e r der Tragerschwingung - ihre Amplitude, ihre Frequenz oder ihre Phase - moduliert werden. Fiir den Rundfunk wichtig sind die Modulation der Amplitude und die der Frequenz. 11.3.3.1 A m p l i t u d e n m o d u l a t i o n — A M Die Amplitudenmodulation ist eine verhaltnismai^ig einfache Modulationsform, sowohl was den Aufwand fiir die Codierung und die Decodierung angeht, aber auch in Bezug auf das Arbeitsprinzip der Technik. Amplitudenmodulierte Signale findet m a n bei Lang-, Mittel- und Kurzwellensendern. Modulation Als Tragerschwingung dient eine Sinusschwingung, zum Beispiel mit der Frequenz von 200 kHz und einer konstanten Amplitude. Auf diese Frequenz soil nun eine Nutzfrequenz von 1 kHz aufmoduliert werden. Dazu bildet m a n die beiden Seitenschwingungen, das sind die Frequenzen, die zu beiden Seiten des Spektrums den Abstand der Nutzfrequenz zum Trager haben, hier also 201kHz und 199 kHz. Diese drei Schwingungen addiert m a n und erhalt das amplitudenmodulierte Signal. Das Nutzsignal ist normalerweise keine einzelne Frequenz, sondern ein Frequenzband. Anstelle der Seitenschwingung spricht
170
11 Aufnahme- & Ubertragungstechnik
man hier vom Seitenband. Das Verfahren fiir komplexe Signale ist aber dasselbe. Die Schwingung wird einmal zuni Trager hinzuaddiert und einmal vom Trager abgezogen.
Abb. 11.5. Amplitudenmodulation. Wesentlich fiir das Funktionieren der AM ist, dass die Tragerfrequenz wesentlich hoher als die hochste Nutzfrequenz ist. Es sieht zwar so aus, als ob das Signal nur aus einer Frequenz besteht. Das ist allerdings nicht richtig. Auch die Frequenzen der Seitenbander sind im Signal entlialten. Das ist der Grund, weslialb zwisclien den Tragerfrequenzen der Rundfunksender grofiere Abstande verbleiben miissen. Ein weiterer Parameter, den man beacliten muss ist der Modulationsgrad. Er beschreibt das Verhaltnis der Spannungsspitzen des Nutzsignals zu denen des Tragersignals. Je grower der Modulationsgrad ist, desto hoher ist der Storspannungsabstand. Allerdings steigt damit die Anfalligkeit fiir Ausloschungen der Tragerfrequenz durch Phasenverschiebungen - den sogenannten selektiven Tragerschwund. Demodulation Soil das AM-modulierte Signal decodiert werden, wird das Signal gleichgerichtet. Dadurch kappt man die negativen Halbwellen und die verbleibende Amplitude beschreibt das Nutzsignal um einen Gleichspannungsanteil versetzt. Dieser Gleichspannungsanteil wird entfernt. Anschhefiend glattet man die Kurve, um die Spitzen der Halbwellen der Tragerfrequenz zu reduzieren. Varianten Das Tragersignal ist eine periodische Schwingung. Sie ist voUstandig vorhersehbar und enthalt deshalb keine Information. Um mehr Sendeleistung fiir die eigentliche Information zu verwenden, kann man auf die Ubertragung der Tragerfrequenz ganz oder teilweise verzichten. Im Empfanger muss sie aber mit korrekter Frequenz, Amplitude und vor allem auch Phasenlage wieder hinzugefiigt werden, um das Signal zu decodieren. Dieses Verfahren hei£t ZM fiir Zweiseitenbandmodulation mit unterdriicktem Trager oder SCAM (Suppressed Carrier AM). Um Bandbreite zu sparen verzichtet man auf die Ubertragung eines Seitenbandes. Denn die Information des Nutzsignals ist in beiden Seitenbandern voUstandig enthalten. Das fiihrt zur sogenannten Einseitenbandmodulation (EM). Auch hier kann auf die Ubertragung der Tragerfrequenz verzichtet werden.
11.3 Analoge Audioiibertragung
171
11.3.3.2 Frequenzmodulation- F M Die Amplitudenmodulation ist sehr anschaulich, well die Nutzsignalfrequenz als Frequenz und die Nutzsignalamplitude als Amplitudeniiberlagerung am Schaubild zu erkennen ist. Bei der Frequenzmodulation herrschen andere Zusammenhange. Die Frequenz des Tragersignals verandert sich in der Geschwindigkeit der Nutzfrequenz. Die Amplitude des Nutzsignals au£ert sich in der niaxinialen Anderung der Tragerfrequenz.
A b b . 11.6. Frequenzmodulation (oben), unmodulierte Tragerfrequenz (unten).
Sobald ein Modulationssignal vorliegt, andert sich die Frequenz des Tragers standig. Deshalb spricht m a n bei der Betrachtung der Frequenz nur noch von der Augenblicksfrequenz. Die halbe Differenz zwischen der maximalen und der niinimalen Augenblicksfrequenz ist der Modulationshub. Er entspricht auch der Differenz zur originalen Tragerfrequenz. AF = ^{f2 - fi) = f2 -
IT
Fine weitere wichtige Grofie ist der Modulationsindex. Er beschreibt das Mafi der Aussteuerung des Signals. AF V
/M
Modulation Genau wie bei der AM ist die F M eine Addition der Tragerschwingung und der Summe (Schwebung) der beiden Seitenfrequenzen, beziehungsweise Seitenbander. Allerdings ist die Phase der Schwebung aus den beiden Seitenfrequenzen gegeniiber der Tragerfrequenz um ^ verschoben. Vergleicht m a n ein Mittelwellenprogramm mit einem UKW-Sender, dann hort m a n sehr deutliche Unterschiede. Frequenzmodulierte Signale haben gegeniiber den amplitudenmodulierten eine um Faktor 5 reduzierte Storanfalligkeit. Natiirlich lasst sich das nicht einfach durch eine Phasenverschiebung von 90° erreichen. Es muss iiber zusatzliche Bandbreite teuer erkauft werden. Der Aufbau des Spektrums ist nicht wie bei der AM statisch. Der Anteil der Tragerfrequenz variiert ebenso, wie die Bandbreite. Mit steigendem Modulationsindex kommen immer mehr Seitenfrequenzen dazu. Sie sind ganzzahlige Vielfache der Modulationsfrequenz.
172
11 Aufnahme- & Ubertragungstechnik fsn = fT±
nfM
Das bedeutet, dass die Bandbreite mit steigendem Modulationsindex ansteigt. Je hoher der maximale Frequenzhub ist, desto geringer ist die Storanfalligkeit. Deshalb nimmt m a n zugunsten der Qualitat diesen Bandbreitennachteil in Kauf. Um Storfaktoren weiter zu mildern, werden hohe Frequenzen vor der Modulation verstarkt und im Empfanger wieder reduziert. Dieses Verfahren nennt m a n Preemphasis, beziehungsweise Deemphasis. Demodulation Die Demodulation gescliielit auf verschiedene Arten, nie jedocli direkt. Die F M wird immer zunachst in eine AM umgewandelt. Erst dann wird das Nutzsignal durcli die AM-Demodulation gewonnen. Sclialtungen zur FM-AMModulationsumwandlung und AM-Demodulation nennt m a n Diskriminatoren. 11.3.4 Mittelwelle, Kurz- und Langwelle Mittel-, Kurz- und Langwellensender verwenden die Amplitudenmodulation fiir ihre Programme. 11.3 zeigt die Frequenzbander und ihre Wellenlangen.
Tabelle 11.3. Frequenzbereiche fiir Kurz- Mittel- und Langwelle. Bezeichnung Langwelle Mittelwelle Kurzwelle
Abkiirzung LW MW KW
Frequenzbereich 30 - 300 kHz 300 kHz - 3 MHz 3 MHz - 30 MHz
Wellenlange 1km - 10km 100m - 1km 10m - 100m
Kurzwelle Kurzwellen zeichnen sich durch eine besonders hohe Reichweite aus. Das kommt daher, dass in die Atmosphare abgestrahlte Wellen von ihr zuriickgeworfen werden. Sie konnen mehrmals zwischen Erdoberflache und Atmosphare pendeln und so die gesamte Erde umrunden. Kurzwellenradios sind deshalb auch unter dem Begriff Weltempfanger bekannt. AUerdings andern sich die Reflexionseigenschaften der Atmosphare mit der Tages- und Jahreszeit, weshalb die Sender auf verschiedenen Frequenzen senden miissen. Alternative zur analogen, klanglich schlechten Kurzwelle sind das Digital Radio Mondial (DRM) und vor allem die Webradio-Angebote.
11.3 Analoge Audioiibertragung
173
Mittelwelle Mittelwellensender werden heute noch betrieben, um Gebiete zu versorgen, die liber UKW nur niit groi^eni Aufwand erreicht werden konnten, die aufierhalb der Reichweite bestehender UKW-Sendeanlagen liegen oder fiir die keine UKW-Frequenzen mehr verfiigbar sind. Klanglich bleibt die Mittelwelle weit hinter UKW zuriick, so dass sie heute eher als Notlosung anzuselien ist. Aucli die Mittelwelle kann in Entfernungen bis 1000 km durch die Reflexion an der Atmospliare empfangen werden. AUerdings werden Mittelwellen schlecliter reflektiert. Langwelle Die Langwelle hat eine gro£e Reichweite und wird deshalb von wenigen, meist offentlich-rechtlichen Programmen fiir Sendungen in das Ausland verwendet. Die praktische Bedeutung ist gering. 11.3.5 U K W UKW steht fiir UltrakurzweUe und wird umgangssprachlich fiir UKW-Rundfunk verwendet. Aber auch Fernsehprogranime werden iiber die verschiedenen Frequenzbander der UltrakurzweUe verwendet. UKW-Horfunk ist FMmoduliert. Die heute gangigen Frequenzen liegen im VHF-Band II von 87,5 bis 108 MHz. Der englische Begriff VHF steht fiir Very High Frequency. Insgesamt fallen alle Frequenzen zwischen 30 und 300 MHz in den Begriff Ultrakurzwelle. Das entspricht einer Wellenlange von 1 ni bis 10 m. Die Senderreichweite liegt nur bei maximal 200 km und hangt auEerdem stark von der geografischen Lage. Flachland eignet sich fiir die Ausbreitung der Wellen besser. Die Bandbreite eines UKW-Senders betragt 75 kHz. Benachbarte Sender liegen normalerweise mindestens 100 kHz auseinander. 11.3.6 U H F UHF steht fiir Ultra High Frequency. Es handelt sich um Dezimeterwellen mit einer Wellenlange zwischen 10 cm und 1 m. Das entspricht einer Frequenz von 300 MHz bis 3 GHz. Sie haben in der Tontechnik eine grofie Bedeutung in der Funkiibertragung von Biihnensignalen zum Mischpult. Am haufigsten werden sie fiir Funkmikrofone verwendet. Zwischen dem Sender und dem Empfanger soUte Sichtkontakt bestehen. Zur Sicherung des Empfangs kommen DiversityEmpfanger zum Einsatz. Diese haben zwei unabhangige Antennen. Das empfangene Signal wird verglichen und auf das jeweils bessere wird umgeschaltet. Fiir den Betrieb der Funkanlagen sind Frequenzen definiert, die in Deutschland und normalerweise auch im europaischen Ausland genehmigungsfrei verwendet werden diirfen. Uber die genauen Bedingungen soUte man sich im Vorfeld einer Veranstaltung informieren.
174
11 Aufnahme- & Ubertragungstechnik
Die gangigen Gerate konnen zwischen verschiedenen Frequenzen umgeschaltet werden. Meist stehen 16 Kanale zur Verfiigung. 1st ein Kanal gestort, kann so auf einen anderen ausgewichen werden. Natiirlich kann inimer nur ein Gerat auf einer Frequenz verwendet werden. Die Storungen konnen aber auch von anderen elektrischen Geraten ausgehen, auf deren Betriebszustand man unter Umstanden keinen Einfluss hat. Deshalb sollte man immer mindestens eine Frequenz freihalten, auf die man notfalls ausweichen kann.
11.4 Digitale Audioaufzeichnung Wesentlich wichtiger als die analogen Verfahren sind heute die digitalen Audioformate. Wahrend die analogen Aufnahmen immer in einem direkten Zusammenhang mit dem Audiosignal standen, ist bei der digitalen Signalspeicherung die Information vom Datenstrom getrennt. Fiir die Digitalisierung muss man sicli Gedanken iiber die Informationen maclien, die in einem Audiosignal stecken, auf welche man Wert legt, und welche vernaclilassigt werden konnen. Durch die begrenzte Kapazitat eines Kanals wird man zu diesen Gedanken gezwungen. Einige der tlieoretisclien Aspekte soUen im Abschnitt iiber die Informationstlieorie angesproclien werden. 11.4.1 Informationstheorie Die Informationstheorie beschaftigt sich mit der Ubertragung von Signalen von einem Sender zu einem Empfanger iiber einen gestorten Ubertragungskanal. Diese Ubertragungskette wurde von dem US-amerikanischen Mathematiker Claude Shannon in der Mitte des 20. Jahrhunderts definiert. Die mathematische Leistung bestand und besteht in dem Nachweis, dass Informationen iiber diesen gestorten Kanal mit einer beliebig kleinen Fehlerrate iibertragen werden konnen. Die mathematischen Details soUen hier nicht erortert werden, aber an einer fehlerarmen Ubertragung ist der gemeine Mediengestalter sehr wohl interessiert. Um dem Wesen der Informationsiibermittlung auf die Spur zu kommen, lohnt sich eine Betrachtung der wichtigsten Aussagen der Informationstheorie. Gerade auch wenn es darum geht, analoge und digitale Systeme miteinander in Beziehung zu setzen. Abbildung 11.7 zeigt das Modell der Nachrichteniibertragung.
Nachrichtenquelle — Sender — Ubertragungskanal — Empfanger — Nachrichtensenke
Nachrichtenkanal Abb. 11.7. Ubertragung von Nachrichten von der Quelle zur Senke.
11.4 Digitale Audioaufzeichnung
175
Sender, Ubertragungskanal und Empfanger bilden den Nachrichtenkanal. Sowohl in der analogen, als auch in der digitalen Nachrichteniibertragung ist der Nachrichtenkanal ein elektronisches System. Die Nachrichtenquehe hingegen kann im Fall der Tontechnik ein sprechender Mensch sein, ein singender Vogel oder ein Sinfonieorchester. Der Sender hat also die Aufgabe, das Signal zu wandeln, in eine Form zu bringen, in der das Signal iiber den Ubertragungskanal iibertragen und vom Empfanger decodiert werden kann. Der Empfanger ist also das technische Gegenstiick zum Sender und wandelt das Signal wieder in eine von der Senke nutzbare Form. Die Informationstheorie ist nicht auf Audiodaten beschrankt. Konkrete Beispiele sollen sich hier aber auf die Tontechnik beziehen. Betrachtet man die Ubertragungskette, dann denkt man sofort an den Weg vom Schallerzeuger zum Schallempfanger, zum Beispiel an ein Telefongesprach oder eine Sportreportage im Radio. Der Reporter ist die Nachrichtenquehe. Er spricht in sein Mikrofon, das ist zusammen mit dem Rest der Ubertragungstechnik - einem Mischpult und einer Sendeeinheit der Sender. Der Ubertragungskanal ist der Weg des Signals iiber die ISDN-Leitung in das Funkhaus und von dort iiber die Sendeanlage zu den Rundfunkempfangern. Das Radio als Empfanger wandelt die Wellen wieder in horbaren Schah, der von der Nachrichtensenke, dem Sportsfreund aufgenommen wird. Sendung und Empfang konnen aber auch zeitlich voneinander getrennt sein. Das ist der FaU bei der Aufzeichnung. Der Ubertragungskanal schlie£t dann die Speicherung auf einem Tontrager mit ein. Jede Komponente eines Systems kann in Unterkomponenten unterteilt werden, auf die die Ubertragungskette und ihre Gesetze ebenfalls anwendbar sind. Das Kinderspiel ,StiUe Post' iUustriert sehr anschaulich, wie ein Ubertragungskanal in verschiedene Subsysteme aus Sender und Empfanger zerfallen kann, die iiber einen offensichtlich gestorten Ubertragungskanal, hier ist das die Luft, miteinander verbunden sind. Im Beispiel des Sportreporters ist so ein Subsystem das Mikrofon als Sender, das Mikrofonkabel als Ubertragungskanal und das Mischpult als Empfanger. 11.4.1.1 Nachricht, Signal, Alphabet Die Quelle sendet Nachrichten aus, die Senke empfangt diese Nachricht. Innerhalb der elektronischen Ubermittlung von Nachrichten spricht man von einem Signal. Die Ubertragung von Nachrichten ist unabhangig von ihrem Wert fiir die Senke. Auch schlechte Radioprogramme werden gesendet. Wer ihnen zuhort ist selbst schuld. Eine Nachricht ist die Auswahl von Zeichen aus einem Alphabet. Alphabete zeichnen sich durch ihren endlichen Zeichenvorrat aus. Unterschiedliche Alphabete kennen unterschiedlich viele Zeichen. Der Zeichenvorrat bestimmt die Anzahl der moglichen Werte, die eine Nachricht pro Zeichen annehmen kann. Das Alphabet der deutschen Sprache (a-z, a, 6, ii, fi und das Leerzeichen) besteht aus 31 Zeichen. Dagegen gibt es mehrere Tausend chinesische Schriftzeichen. Auch Zahlensysteme arbeiten mit unterschiedlichen Zeichenvorraten. Das Dezimalsystem bietet die zehn Ziffern von 0-9, das Dualsystem kennt nur die zwei Werte 0 und 1. Trotz dieser Un-
176
11 Aufnahme- & Ubertragungstechnik
terschiede lasst sich jeder Begriff sowohl durch das chinesische, als auch das deutsche Alphabet darstellen. Das geschieht durch die Verbindung mehrerer Zeichen zu einem Wort. Je langer die Worter sind, desto mehr Werte konnen sie annehmen. Die in der Coniputertechnik gangigen Wortbreiten sind Vielfache von 8 Bit. Die aktueUen Betriebssysteme arbeiten mit 32 SteUen, die nachste Generation wird 64-Bit-Worter verarbeiten. Nachrichtenquellen senden kontinuierhch Nachrichten. Sind die einzelnen Werte unabhangig voneinander, dann spricht man von einer gedachtnislosen QueUe, beriicksichtigt die QueUe ihre vorhergehenden Werte, dann hat sie ein Gedachtnis. Ein Beispiel fiir eine gedachtnislose QueUe ist ein Wiirfel. Bei jedem Wurf ist die Wahrscheinlichkeit fiir jede Zahl gleich grofi, dass sie geworfen wird. Bei einem Kartenspiel hingegen ist die Wahrscheinlichkeit, dass eine bestimmte Karte fallt abhangig von den bereits gespielten Karten. Nimmt man ein lineares digitales Audiosignal als Nachrichtenquelle, dann sind iibliche Eckpunkte eine Samplingrate von 44100 oder 48000 Hertz. Das bedeutet, dass die QueUe bis zu 48000 Nachrichten pro Sekunde versendet. Die Auflosung betragt 16 Bit. Damit lassen sich 2^^ = 65536 unterschiedliche Werte ausdriicken. Der Zeichenvorrat ist im Binarsystem lediglich zwei, die Potenzierung kommt durch die 16-Bit-Wortbreite zustande. Die Quelle selbst hat kein Gedachtnis. 11.4.1.2 Information, Entscheidungsgehalt, Entropie Das Ma£ fiir die Information ist in der Digitaltechnik das Bit. Die Informationsmenge 1 Bit reicht aus, um zwei Zustande zu unterscheiden. Also etwa 0/1, an/aus, entweder/oder. Aufgrund dieser Unterscheidungskraft spricht man auch vom Entscheidungsgehalt. Information kann nur in Nachrichten enthalten sein, deren Werte zufallig und nicht vorhersehbar sind. Ein periodischer oder gleichformiger Signalverlauf hat keinen Informationsgehalt. Der Entscheidungsgehalt ist umso grofier, je geringer die Wahrscheinhchkeit ist, mit der ein Wert auftritt. Da eine Quelle mit Sicherheit ein Zeichen aus dem Alphabet X = {xi, X2, ...,x„} sendet, ist die Gesamtwahrscheinlichkeit, also die Summe der Einzelwahrscheinlichkeiten, immer genau 1. Jede Einzelwahrscheinlichkeit hat einen Wert 0 < P(xj) < 1. Den Entscheidungsgehalt kann man durch sogenannte Codebaume visualisieren. Die Verzweigungen beschreiben die Entscheidungen, die Blatter die moglichen Werte. Die Anzahl der Entscheidungen, die man bis zum endgiiltigen Wert treffen muss, bestimmt den Informationsgehalt der Nachricht. Abbildung 11.8 zeigt den Codebaum fiir die Darstellung von 8 moglichen, gleich wahrscheinlichen Werten. Um zu einem beliebigen Wert zu kommen stehen drei Entscheidungen an. Der Entscheidungsgehalt der Nachricht hegt also bei 3 Bit. Berechnen lasst er sich, indem man den Zweierlogarithmus zur Anzahl der darzustellenden Werte berechnet.
11.4 Digitale Audioaufzeichnung Bit 1 I Bit 21 Bit 3
177
ErGobnis
0
000
1
001
0
010
1
oil
0
100
1
|101|
0
110
1
111
Abb. 11.8. Codebaum fiir die Darstellung von 8 Werten. X = {l,2,
..., 8};H{X)
= ld8 = :i
Der Logarithmus gibt an, mit welcher Zahl ich die Basis potenzieren muss, um den gegebenen Wert zu erhalten. Damit ist klar, dass die Wortbreite einer Binarzahl groi^er oder gleich dem Zweierlogarithmus der Anzahl der Werte sein muss. 6^ = n; log^n = e; log2n = Idn Informationen einer Nachrichtenquelle miissen nicht mit derselben Wahrscheinlichkeit auftreten. Um den Informationsgehalt einer solchen Nachrichtenquelle zu bestimmen, berechnet man den mittleren Informationsgehalt, die sogenannte Entropie. Diese ist die Summe der nach ihrer Wahrscheinlichkeit gewichteten Informationsmengen der einzelnen Zeichen des Alphabets.
HiX) =
J2Pi^iMl/Pixi))
Je seltener ein Zeichen auftritt, desto grofier ist sein Informationsgehalt. Die Entropie wird maximal fiir einen Zeichenvorrat mit gleichen Wahrscheinlichkeiten. Sie entspricht dort dem Entscheidungsgehalt der Quelle. Die Visualisierung solcher Nachrichtenquellen mit unterschiedlichen Wahrscheinlichkeiten fiihrt zu asymmetrischen Codebaumen. Abbildung 11.9 zeigt ein Beispiel fiir eine solche Quelle mit vier Werten und den angegebenen Wahrscheinlichkeiten: „ Das wichtig ist man medien
/ xl x2 x3 x4 lyl/2 1/4 1/8 1/8
Wissen um die Wahrscheinhchkeit, mit der ein Zeichen auftritt ist fiir die verlustfreie Datenreduktion. Zur wirtschaftlichen Codierung durch die begrenzte Kapazitat der Ubertragungskanale und Speichergezwungen, iiber die spater noch gesprochen werden muss.
178
11 Aufnahme- & Ubertragungstechnik Wertewahrsclieinlichkeit
Bit 1 [Bit 21 Bit 3 ,0
Ergebnis A = 0
B = 10 C = 110 D = 111
A b b . 11.9. Codebaum einer Nachrichtenquelle mit unterschiedlichen Wahrscheinlichkeiten. 11.4.1.3 Relevanz, Irrelevanz, R e d u n d a n z Aus der Sicht des Empfangers gibt es relevante Informationen, irrelevante Informationen und Redundanz. Relevant ist die Menge aller Informationen in der Nachricht, die fiir den Empfanger wichtig sind. Irrelevant ist die Menge aller Informationen in der Nachricht, die fiir den Empfanger unwichtig sind. Redundanz nennt m a n Bestandteile einer Nachricht, ohne zusatzlichen Informationsgehalt. Sie ist definiert als die Differenz zwischen dem Entscheidungsgehalt der Quelle und ihrer Entropie. Redundanz ist wichtig fiir die Fehlererkennung. Fiir eine platzsparende Speicherung muss die Redundanz jedoch so weit wie moglich reduziert werden. Wann Redundanz hinzugefiigt, und wann sie entfernt wird, wird im Abschnitt iiber die Codierung noch beschreiben werden. Redundanzreduktion fiihrt zu verlustfreier Datenreduktion. Verzichtbar fiir den Empfanger ist die irrelevante Information. Es ist allerdings schwierig, sie zu ermitteln und zu isolieren. Dabei ist auch auf die Unterschiede auf der Empfangerseite Riicksicht zu nehmen. Fiir den einen Empfanger irrelevante Signalbestandteile konnen fiir einen anderen Empfanger durchaus relevant sein. Irrelevanzreduktion fiihrt zu verlustbehafteter Datenreduktion. Auf die Audiowelt iibertragen sind die relevanten Informationen alle Frequenzen im horbaren Bereich. Verzichtbar sind Frequenzen, die aui^erhalb des horbaren Bereichs liegen oder vom Gehor verdeckt werden. Die Filterung der unhorbaren Frequenzen ist eine Kernanforderung der Digitalisierung. Die Reduktion der verdeckten Signalbestandteile wird fiir die Audiodatenreduktion verwendet. Da es sich hier um irrelevante Informationen handelt, spricht m a n auch von Irrelevanzreduktion. 11.4.2 Codierung Codierung soil die Informationen moglichst giinstig darstellen. Giinstig kann bedeuten, dass die Daten moghchst platzsparend gespeichert werden sollen. Es
11.4 Digitale Audioaufzeichnung
179
kann aber auch bedeuten, dass sie sehr sicher iibertragen werden sollen. Dazu komnien Anforderungen durch die Leitung, deren Spezifikation durch den Code eingehalten werden muss. Man unterscheidet demnach auch zwischen Quellencodierung, Kanalcodierung und Leitungscodierung. Zunachst soil das gewandelte Signal aber das analoge Original mogliclist naturgetreu wiederspiegeln, die Signalform bewaliren. 11.4.2.1 Signalformcodierung Wenn man von der Codierung im Ralimen der Informationstheorie spriclit, dann st6£t man kaum auf den Begriff der Signalformcodierung. Allerdings trifft der Mediengestalter haufig auf diese Codes, weslialb die Wiclitigsten kurz genannt werden sollen. Pulsecodemodulation - PCM Die Umsetzung der quantisierten Spannungswerte in digitale Codeworte heifit in seiner reinen Form Pulsecodemodulation - kurz PCM. Die PCM speichert jeden Zalilenwert in einem digitalen Wort fester Breite. Jedes Wort besclireibt den zugeliorigen Spannungswert eindeutig. Allerdings ist das Verfaliren ziemlicli speiclierintensiv. Dijferentielle Pulsecodemodulation - DPCM Anstelle des gesamten Wortes wird bei der DPCM nur der Abstand zum vorhergelienden Wert gespeichert. Diese Werte sind in den meisten Fallen deutlicli kleiner als der gesamte Spannungswert, nie jedocli grower. So lasst sich Speiclierplatz einsparen. Allerdings ist zur Ermittlung des zugehorigen Spannungswertes immer auch das vorhergehende Sample als Referenz notwendig. Ansonsten lasst sich nicht ermitteln, auf welchen Wert sich die gespeicherte Differenz bezieht. Ebenso wirken sich Fehler auf den gesamten folgenden Datenstrom aus. Deshalb kann in regelmafiigen Abstanden ein vollstandiger Abtastwert iibertragen werden, um das System zu rekalibrieren. Adaptive Dijferentielle Pulsecodemodulation - ADPCM Bei der ADPCM wird die Datenrate welter reduziert, indem der wahrscheinliche Verlauf vorhergesagt wird. Gespeichert wird nur die Differenz zum vorhergesagten Wert. Arbeitet die Vorhersage sehr gut, was vor allem bei gleichformigen, tonalen Signalen moglich ist, dann kommen extrem kleine Werte zustande. Bei schlecht vorhersagbaren gerauschhaften Signalen ist die Datenreduktion unter Umstanden schlechter. Die ADPCM wird fiir die Audiodateniibertragung iiber ISDN haufig verwendet.
180
11 Aufnahme- & Ubertragungstechnik
11.4.2.2 Quellencodierung Ein Signal enthalt redundante Informationen, die keinen Informationswert besitzen. Aufierdem sind Teile der Information fiir den Empfanger irrelevant. Quellencodierung bedeutet, dass man sich auf die relevanten Teile des Signals konzentriert und diese mogliclist okonomiscli digital abbildet. Auf jeden Fall wird dazu die Redundanz so weit es moglicli ist entfernt. Die Irrelevanzreduktion ist teilweise notwendig, teilweise aber aucli fakultativ. In der professionellen Studioteclmik sind verlustfreie Formate vorzuziehen, also solche, bei denen keine Informationen verworfen werden. Streng genommen findet bei der Wandlung immer eine Irrelevanzreduktion statt, insofern meint verlustfreie Codierung den Erlialt aller Informationen, die nacli der Wandlung nocli im Signal vorhanden sind. Irrelevanzreduktion bedeutet immer eine Qualitatseinbufie und ist deslialb im Studioalltag niclit optimal. Dennoch wird in den Rundfunkanstalten hauptsaclilich mit datenreduzierten, verlustbeliafteten Formaten gearbeitet. Redundanzreduktion Redundanz entsteht durcli niclit genutzte Datenworter. Diese Datenworter reprasentieren keinen giiltigen Wert und konnen deslialb nicht im Datenstrom vorkommen. Das Ziel der Redundanzreduktion liegt darin, einen Code zu finden, der keine ungiiltigen Werte darstellen kann. Ein Code, der die Redundanz ganz entfernt, liei£t Optimalcode. Man kann die Redundanz entfernen, indeni man variable Codewortlangen verwendet. Ein bekannter Vertreter fiir einen solchen Code ist der Huffman Code. Die Konstruktion des Huffman Codes wird im Folgenden exemplarisch fiir den Entwurf von Codes mit variabler Codewortlange gezeigt. Haufige Werte bekommen kurze Worter, seltene Werte langere. Werte, die niclit auftreten, werden gar nicht in den Code aufgenommen. Uni einen Huffman Code zu konstruieren, entwirft man den Codebaum, indeni man alle Walirscheinliclikeiten notiert und die zwei kleinsten Walirscheinliclikeiten addiert. Der addierte Wert gelit in die Liste der Einzelwalirscheinliclikeiten mit ein. Das wiederholt man, bis der Baum vollstandig aufgebaut ist. Der Code aus Abbildung 11.10 entsteht also, indem zunachst die kleinsten Einzelwahrscheinlichkeiten von E und D zusammengezahlt werden. Die nachstkleinsten Wahrscheinlichkeiten sind die von C und aus der Summe von D und E. Im nachsten Schritt sind die Wahrscheinlichkeiten von B und A am geringsten. Die resultierende Wahrscheinlichkeit von 0,6 und die Summe der Wahrscheinlichkeiten von C, D und E ergeben die Gesamtwahrscheinlichkeit von 1,0. Auf die Entscheidungswege werden jetzt die Bits aufgetragen. Die hohere Wahrscheinlichkeit bekommt die 0, die niedrigere die 1. Man konnte das aber auch umdrehen.
11.4 Digitale Audioaufzeichnung Wertewahrscheinlichkeit
Ergebnis
y1,0
0
0 Oj^ 0,22^ ^~ ;
\J :. i iL.
181
0.6
\i \J ^ 1 O
/ \J :. lIL. f •
\.^
A B C D E
= = = = =
00 01 11 100 101
V* ^ O \J
A b b . 11.10. Konstruktionsmuster eines Huffman Codes. Irrelevanzreduktion Bei der Irrelevanzreduktion warden Informationen aus dem Signal entfernt, von denen m a n annimmt, dass sicli der Empfanger niclit dafiir interessiert. Bei der Analog-Digital-Wandlung wird zunaclist das Signal begrenzt. Es wird davon ausgegangen, dass Frequenzen aufierhalb des horbaren Bereichs verworfen werden konnen. Dieser Schritt wird durch einen analogen Tiefpassfilter realisiert. Es handelt sich um eine Bandbreitenbegrenzung. Weitere nicht horbare Frequenzen sind solche, die von anderen verdeckt werden. Diese Frequenzen werden iiber ein Hormodell ermittelt. Das ist eine Naherung an das Horempfinden. Diese Datenreduktionsmechanismen entfernen die am eliesten verziclitbaren Signalbestandteile. Das bedeutet aber nicht, dass es sich dabei nur um Irrelevanz handelt. Ubertreibt m a n die Reduktion, dann fallen dem Algorithmus auch horbare Signalbestandteile zum Opfer und es kommt zu horbaren Verzerrungen. Die Reduktionsverfahren arbeiten meist mit konstanten Datenraten, die an den Ubertragungskanal angepasst werden. Nicht jedes Signal ist aber gleich gut fiir die Datenreduktion geeignet. Man muss also bei der Reduktion eine R a t e finden, die iiber den Kanal iibertragbar ist, und die das P r o g r a m m so wenig wie moglich beeintrachtigt. 11.4.2.3 Kanalcodierung Nachdem bei der Quellencodierung die Redundanz entfernt wurde, ist es an der Zeit, fiir die Ubertragung iiber einen gestorten Kanal Redundanz hinzuzufiigen. Diese Redundanz dient der Fehlererkennung und der Fehlerkorrektur. Redundanz ist nicht gleich Redundanz. Deshalb ist es sinnvoU, zunachst eine Quellencodierung auf ein Signal anzuwenden und anschlie£end eine Kanalcodierung. Fehlererkennung Fehler in einem digitalen Signal sind Bitwechselfehler. Das bedeutet, dass eine 1 zu einer 0 wird oder umgekehrt. In jedem Wort - hier wird davon ausgegangen, dass es sich um Blockcodes handelt, die eine feste Wortbreite haben -
182
11 Aufnahme- & Ubertragungstechnik
konnen ein oder niehrere Fehler auftreten. Die Fehlererkennungsniechanismen konnen nur eine bestimnite Anzahl von Fehlern erkennen. Grundlage fiir die Erkennung von Fehlern ist die Redundanz. Das bedeutet, m a n fiigt Werte ein, die im Signal niclit vorkonimen konnen. Findet der Empfanger einen solchen Wert, dann kann er siclier davon ausgelien, dass der Wert bei der Ubertragung verfalsclit wurde. Redundanzfreie Codes hingegen haben keine unmoglichen Werte. Jeder Bitfehler fiihrt zu einem falschen aber giiltigen Wert. Acht Werte haben einen Informationsgehalt von 3 Bit. Kommt es bei der Ubertragung zu einem Fehler, dann entsteht auf jeden Fall ein neues Codewort, das einen giiltigen Wert reprasentiert. Jedes veranderte Codewort ergibt wieder ein giiltiges Datenwort. Eine Fehlererkennung ist so nicht moglich. Im zweiten Schritt wird Redundanz hinzugefiigt, indem ein zusatzliches Bit angefiigt wird. Dieses Bit wird so gesetzt, dass die Anzahl Einsen im Codewort immer gerade ist. Man spricht hier von einem Paritatsbit. Damit sind acht Werte in 4 Bit codiert. Tritt ein Bitfehler in einem Wort auf, dann fiihrt das in jedem Fall zu einem Codewort, dem kein giiltiger Wert zugeordnet ist. Ein Bitfehler kann sicher erkannt werden, da die P a r i t a t nicht mehr stimmt. Treten allerdings zwei Fehler auf, dann stimmt die P a r i t a t wieder und der Fehler bleibt unentdeckt. Die Eigenschaft, wie viele Fehler erkannt werden konnen ist abhangig von der Hamming-Distanz. Die Hamming-Distanz sagt aus, wie viele Codeworte zwischen zwei giiltigen Werten liegen. Das hei£t, wie viele Bits mindestens verandert werden miissen, um von einem giiltigen Codewort zu einem anderen zu kommen. In dem Beispiel ist die Hamming-Distanz zwei. Die Veranderung eines beliebigen Bits fiihrt immer zu einem ungiiltigen Wert. Verandert m a n 2 Bit, erreicht m a n das nachste giiltige Codewort.
22°
/ wof—I
,111
/ |<|oi 101
oil
010
/
000'^^
/
001
000 = A 001 = ungiJltig 010 = ungultig 011 = B 100 = ungiJltig 101 = C 110 = D 111= ungiJltig
A b b . 11.11. Illustration des Bit-Abstands bei einem Code mit der Hamming Distanz 2. Nach [21].
Der vorgestellte Fehlererkennungsmechanismus trifft keine Aussage dariiber, welches Bit verandert wurde. Das bedeutet, dass der Empfanger eine eigene Vorschrift besitzen muss, wie mit fehlerhaften Codewortern zu verfahren ist. Benotigt eine Anwendung unbedingt den richtigen Wert, dann muss ein fehlerhafter Block erneut iibertragen werden. In der Audiotechnik reichen
11.4 Digitale Audioaufzeichnung
183
haufig aber auch Naherungswerte. Hier kann der Empfanger durch Interpolation oder Stummschalten des Ausgangs darauf reagieren. Ein Mittel zur Fehlervermeidung ist das sogenannte Interleaving, bei deni naclifolgende Werte durclieinandergewiirfelt werden. Hintergrund ist die Annahme, dass haufig sogenannte Biindelungsfehler auftreten, das bedeutet, dass eine Storung zu einem bestimmten Zeitpunkt oder an einem bestimmten Ort eines Datentragers auftritt und dort melirere nebeneinanderliegende Datenblocke bescliadigt. Tabelle 11.4. Ubertragung mit und ohne Interleaving. Originaldaten Biindelungsfehler Verwiirfelte Daten Biindelungsfehler Nach De-Interleaving
1112 2 2333444 1 1 1XXX333444 1234 1 2341234 123XXX341234 1X12X2333X44
Tabelle 11.4 zeigt Datenfehler mit und ohne Interleaving. Zeile 1 stellt die zu iibertragenden Daten dar. Ein Biindelungsfehler ohne Interleaving fiihrt dazu, dass das zweite Datenwort voUstandig verloren ist. Um es zu rekonstruieren, benotigt man einen Code, der in der Lage ist, drei Fehler zu korrigieren. Der Code benotigt entsprechend viel Redundanz. Wirkt der Fehler hingegen auf die verwiirfelten Daten, ist der Fehler pro Datenwort geringer. Es werden zwar mehr Blocke beschadigt, insgesamt reichen aber einfachere Fehlerkorrekturmechanismen, um die Fehler zu beheben. So benotigt man weniger Redundanz und spart entsprechend viel Speicherplatz oder Ubertragungskapazitat. Fehlerkorrektur Fehlerkorrekturmechanismen arbeiten auf zwei unterschiedliche Arten. Eine echte Fehlerkorrektur entfernt den Fehler und stellt so den fehlerfreien Ursprungszustand wieder her. Demgegeniiber greifen Vorkehrungen zur Fehlerverdeckung, wenn der Fehler nicht mehr korrigiert werden kann, es aber nicht unbedingt notwendig ist, aufgrund dieses Fehlers den Vorgang abzubrechen. Die Audio-CD ist ein gutes Beispiel dafiir. Zunachst soUen Fehler, die beim Lesen der CD auftreten korrigiert werden. Ist das nicht moglich, zum Beispiel well die CD zu stark verkratzt ist, dann soU deswegen die Wiedergabe moglichst nicht beendet werden. Deshalb versucht man die fehlerhaften Werte zu interpolieren. Bei der Interpolation wird aufgrund des Signalverlaufs vor und nach der Storung der wahrscheinliche Wert ermittelt. Das passiert zum Beispiel durch Wertwiederholung oder durch Mittelwertbildung. Der Ausgang wird erst dann stumm geschaltet, wenn das Signal so stark gestort ist, dass eine sinnvolle Interpolation nicht mehr moglich ist. Interpolationen sind bei guten Geraten nicht wahrnehmbar.
184
11 Aufnahme- & Ubertragungstechnik
Ini Consumerbereich legt man grofien Wert auf eine robuste Technik, die auch einen harteren Unigang niit deni Material verzeiht und die Fehler nicht offen zu Tage treten lasst. Denigegeniiber niochte man im professionellen Bereich Fehler reclitzeitig erkennen um darauf reagieren zu konnen und man moclite in der bestmoglichen Qualitat produzieren. Interpolation ist hier also nur bedingt hilfreich. Um die Daten gegen Fehler abzusichern, muss man Korrekturmechanismen einsetzten, die fehlerhafte Daten nicht nur erkennen sondern auch beheben konnen. Wie schon bei der Fehlererkennung ist auch bei der Fehlerkorrektur die Anzahl der behebbaren Fehler begrenzt. Ein Code mit der Hamming-Distanz 3 kann einen Fehler korrigieren. Die Hamming-Distanz 3 besagt, dass zwischen zwei wertbesetzten Codewortern zwei ungiiltige Codeworter liegen. Tritt ein Bitfehler auf, dann hat das verfalschte Wort zum richtigen einen Unterschied von einem Bit, zum nachsten giiltigen Codewort einen Unterschied von zwei Bit. Das zeigt, dass ein einzelner Fehler korrigiert werden kann, indem man das nachste giiltige Wort verwendet. Zwei Bitfehler in einem Wort werden zwar erkannt, fiihren aber zu einer falschen Korrektur, da dann das nachste giiltige Wort nicht das urspriinglich richtige ist. Ein anderes Verfahren zur Ermittlung korrigierbarer Fehler ist die kreuzweise Paritatspriifung. Neben den Paritatsbits, die fiir die Fehlererkennung eingesetzt werden, wird ein Priifwort einer bestimmten Anzahl an Wortern erstellt. Dieses zusatzhche Wort wird dann in den Datenstrom eingefiigt. Zeigt eines der Paritatsbits einen Fehler an, kann durch die Auswertung des Priifworts der Ort des Fehlers ermittelt werden. 1
1
0
0
0
0
1
1
1
1
®
1
0
0
0
0
t Abb. 11.12. Kreuzweise Paritatspriifung.
11.4.2.4 Leitungscodierung Nach Quellen- und Kanalcodierung liegen die Daten vor, die iiber den gestorten Kanal transportiert werden soUen. Aufgabe der Leitungscodierung ist es nun, sie in eine Form zu bringen, die bestmoglich an den Ubertragungskanal angepasst ist und die es dem Empfanger ermoglicht, die Daten korrekt zu empfangen, zu interpretieren und in das Ausgabeformat zu wandeln. Um das zu gewahrleisten, muss man die Parameter des jeweiligen Kanals kennen.
11.4 Digitale Audioaufzeichnung
185
Der grundsatzliche Aufbau eines Ubertragungskanals soil im folgenden kurz besclirieben werden. Der Ubertragungskanal ist in seiner Bandbreite, in seiner Dynaniik und in der Ubertragungsdauer begrenzt. Diese Begrenzung kann teclinische Griinde haben, einer Spezifikation folgen oder den Umgebungsbedingungen gescliuldet sein. In jedem Fall kann ein Signal nur dann iibertragen werden, solange es die Grenzen des Kanals nicht sprengt. Visualisieren kann man den Kanal in Form eines Quaders. Die drei Dimensionen stehen fiir die drei Parameter, die den Kanal begrenzen. Die Bandbreite ist die Differenz zwischen der grofiten und der kleinsten iibertragbaren Frequenz. Die Dynamik ist der Rauschspannungsabstand, also die Differenz zwischen dem Rauscliteppich und der VoUaussteuerung. Der dritte Parameter ist die Zeit, die fiir die Ubertragung zur Verfiigung stelit. Das Produkt aus Bandbreite und Dynamik ist die Kanalkapazitat. Sie bezeiclinet die Informationsmenge, die pro Zeiteinheit iibertragen werden kann.
^
^ E
-
^
CO
c >^ Q
^ ^ ^ ^ Bandbreite
Abb. 11.13. Der Nachrichtenquader. Bei der Ubertragung eines Signals versclilechtert es sich permanent. Storungen, die auftreten konnen, sind einmal der Energieverlust durcli weite Ubertragungswege, Dynamikverlust durch Rauschen und Uberspreclien sowie Verzerrungen durch die Tiefpasscharakteristik von Ubertragungskanalen. Bei der analogen Ubertragung verschmelzen die Storeinfliisse mit dem Nutzsignal. Bei digitalen Kanalen hingegen wird die Qualitat der codierten Informationen nicht beeintrachtigt, solange das digitale Signal noch fehlerfrei reproduziert werden kann. Digitale Signale konnen also durch sogenannte Repeater empfangen und neu generiert werden. So lassen sich auch lange Strecken verlustfrei iiberbriicken. Die Dynamik eines Kanals ist umso kritischer, je mehr Abstufungen das Signal hat. Ein Binarsignal, das in Form einer Rechteckspannung iibertragen wird, benotigt eine relativ geringe Dynamik, da nur zwei Zustande unterschieden werden miissen. Mehrwertige Codes, bieten zusatzliche Ubertragungskapazitat, erfordern aber auch mehr Dynamik. Die Bandbreite des Signals hangt davon ab, wie oft sich der Zustand des Signals verandert. Auf den ersten Blick ist es nahehegend, die Digitalsignale direkt in eine Rechteckspannung umzuwandeln, bei der zum Beispiel eine 0
186
11 Aufnahme- & Ubertragungstechnik
durch 0 Volt und eine 1 durch +5 Volt iibertragen wird. Die hochstmogliclie Frequenz erlialt man, wenn man ein Signal hat, in dem sicli Nullen und Einsen permanent abwechseln. Eine lange Abfolge von Nullen oder Einsen hingegen verursacht eine Frequenz von OHz. Deshalb und aus Griinden der Taktung liber die gleich noch gesprochen wird, verwendet man Signale, die einen periodischen Verlauf liaben, der durch das Signal moduliert wird. So erreicht man letztlich eine Bandbreite von beispielsweise lediglich einer Oktave. Ein Beispiel fiir einen solchen Leitungscode ist der Biphase Mark.
1
1 0 1 1 1 0 0 0 1 1 0 1
Abb. 11.14. Beispiel fiir einen Spannungsverlauf eines Biphase Mark. Ein Leitungscode, der auf jeden Fall regelmafiig seinen Spannungswert andert, vermeidet zwei weitere Probleme. Gleichspannung kann normalerweise nicht iibertragen werden. AuEerdem muss der Empfanger Informationen iiber den digitalen Takt aus dem Signal extrahieren konnen, um es zu decodieren. Digitale Signale mit haufigen Spannungswechseln liefern diesen Takt. Man spricht hier von selbsttaktenden Codes. Eine weitere haufige Anforderung an einen Leitungscode ist die Verpolungssicherheit. Hierbei gehen die Informationen auch dann nicht verloren, wenn die Signaladern am Empfanger vertauscht wurden. Man unterscheidet unipolare Codes von bipolaren Codes. Unipolare Codes arbeiten mit nur einer von Null abweichenden Spannung, beispielsweise + 1V. Bipolare Codes verwenden zusatzlich die zugehorige negative Spannung, hier -1 V. Gleichspannungsanteile entstehen, wenn iiber mehrere Impulse der positive oder negative Spannungswert gleich bleibt. Wird die digitale Eins durch 1 V iibertragen, die digitale Null durch OV, dann fiihrt eine lange Abfolge von Einsen zu einem Gleichspannungsanteil, eine lange Folge von Nullen jedoch nicht. Um diese lange Abfolge zu vermeiden kann der Code bei jedem Bit eine Riickkehr zum NuUpotential vorschreiben (Return to Zero - RZ) oder man verwendet bipolare Codes, die eine digitale Eins abwechselnd mit einer positiven und einer negativen Spannung darstellen. Das sind die AMI-Codes. AMI steht fiir Alternate Mark Inversion. Es gibt ihn als AMI-RZ und AMINRZ (Non Return to Zero). Beide sind gleichspannungsfrei. Der Takt kann aus dem Datenstrom rekonstruiert werden, wenn in regelmafiigen Abstanden Potentialunterschiede auftreten. Auch hier fiihrt eine lange Abfolge von Einsen zum Verlust des Taktes. Anders als bei der Forderung nach Gleichspannungsfreiheit darf es aber auch keine lange Abfolge von Nullen geben, da ansonsten auch dabei der Takt verloren geht. Eine unkontrollierte Anzahl von gleichen Spannungswerten lasst sich vermeiden, indem
11.4 Digitale Audioaufzeichnung
187
groEere Wortbreiten verwendet werden, als fiir die Ubertragung notwendig waren. Alle giiltigen Werte werden dann in einer Codetabelle neuen Werten zugeordnet, die eine maximale Lauflange eines Spannungswerts garantieren. Dabei beriicksichtigen sie auch alle moglichen Wertefolgen. Solche Codes nennt man Run Length Limited - kurz RLL. Leitungscodes, die aufgrund langer mogliclier Folgen gleicher Werte niclit selbsttaktend sind, konnen iiber die Lauflangenlimitierung selbsttaktend gemacht werden. Verpolungssiclierheit entsteht, wenn niclit die digitalen Signale direkt in Spannungswerte iibersetzt werden, sondern in Spannungswechsel. Angenommen, die digitale Bins wird durch einen Spannungswechsel codiert, die Null als kein Spannungswechsel, dann ist unerheblich, ob an einer Stelle ein Spannungswechsel von 0 V auf 1 V die digitale Bins darstellt oder der Wechsel von 1V auf 0 V. Die Spannung andert sich und damit handelt es sich um eine Bins. Bin solcher Code ist der Biphase Mark oder auch der AMLRZ. Abbildung 11.15 zeigt eine Auswahl verschiedener Codes, Tabelle 11.5 fasst ihre unterschiedlichen Bigenschaften zusammen.
bipolar NRZ
unipolar RZ Bipliase Marl<
n rui_n. ji_n. ruirLrLrLRTLr 1 1 0
1 0
0 0 1 0
1
Abb. 11.15. Ubersicht iiber unterschiedliche Codes.
Tabelle 11.5. Verschiedene Leitungscodes und ihre Eigenschaften. Code Selbstaktend Gleichspannungsfrei uni-/bipoIar Bipolar NRZ nein bipolar ja Unipolar RZ nein unipolar ja AMI RZ nein bipolar ja AMI NRZ nein bipolar ja unipolar Biphase Mark ja ja
11.4.3 Medien Die Palette der digitalen Speichermedien ist breit. Da digitale Informationen an jedes Medium angepasst werden konnen, haben sich viele unterschiedliche Formate entwickelt. Binige davon haben sich aber fiir bestimmte Anwendungsfalle in der digitalen Audiobearbeitung als besonders giinstig erwiesen.
188
11 Aufnahme- & Ubertragungstechnik
Digitale Audioformate konnen verlustfrei oder verlustbehaftet sein. Verlustfreie Formate transportieren alle Bestandteile des Signals innerhalb ihres Frequenzbereichs. Verlustbehaftete Formate entfernen gezielt unhorbare Signalbestandteile und sparen so Speicherplatz beziehungsweise Bandbreite ein. Die Datenrate kann fest oder variabel sein. Die Speicherung geschieht entweder auf Magnetband, auf mechanisch beweglichen magnetischen, magnetooptischen oder optischen (Wechsel)-Datentragern oder elektronisch auf Speicherkarten. 11.4.3.1 Magnetische Speichermedien Das herkommliche Magnetband war vor allem in der Anfangszeit der digitalen Audioproduktion das vorherrschende Medium. Heute kommen zumeist festplattenbasierte Systeme zum Einsatz. In beiden Fallen handelt es sich aber um magnetische Speichermedien. Magnetband So wie analoge konnen auch digitale Audiosignale auf Magnetband aufgezeichnet werden. Das Verfahren ist dasselbe. Da im Gegensatz zu den analogen Aufnahmen nur zwei unterschiedliche Werte aufgezeichnet werden miissen, geniigt eine geringere Spurbreite. Deshalb gibt es digitale Mehrspurrekorder mit bis zu 48 Spuren. Die Aufzeichnung geschieht entweder longitudinal, also mit feststehenden Tonkopfen oder auf Schragspuren mit einer rotierenden Kopftrommel. Zwei Formate wurden eingesetzt. Das DASH-Format der Firma Sony zeichnete 2, 24 oder 48 Spuren mit einer Tiefe von 16 Bit auf einem hochstens 1/2-Zoll breiten Tonband auf. Eine bessere Auflosung wurde spater durch zusammengefasste Spuren ermoghcht. DASH steht fiir Digital Audio Stationary Head und bedeutet nichts anderes, als „Digitale Audioaufzeichnung mit feststehenden Tonkopfen". Konkurrenz hatte Sony durch die Firmen Otari, Mitsubishi und AEG, die mit dem ProDigi-Format - kurz PD - bis zu 32 Spuren auf ein maximal ein ZoU breites Tonband aufzeichneten. Vor allem in der Anfangszeit der digitalen Musikproduktion waren Festplatten noch sehr teuer. Mit Tonband war ein relativ giinstiges und erprobtes Aufzeichnungsmedium verfiigbar. Nach der Produktion konnte ein neues Band aufgelegt werden und das Studio war sofort wieder einsatzfahig. Der grofie Nachteil aller bandgebundenen Verfahren sind die mechanisch aufwandigen und deshalb sehr teuren Gerate sowie die Umspulzeiten. Vom Magnetband war man es gewohnt, dass es geschnitten werden konnte. So konnten schnell und einfach verschiedene Versionen aus einem Stiick erstellt werden oder auch Fehler beseitigt werden. Deshalb hat man bei den Langsspurformaten darauf geachtet, eine so robuste Fehlerkorrektur einzubauen, dass sogar ein physikahscher Bandschnitt moghch war, ohne dass es
11.4 Digitale Audioaufzeichnung
189
zu Aussetzern kam. Das PD-Format verwendet eigene Spuren fiir die Fehlerkorrektur, wahrend bei den DASH-Maschinen die Korrekturdaten auf der Audiospur mitaufgezeichnet werden. Im Zweispur- und im semiprofessionellen Bereich hat sich die Schragspuraufzeichnung bewahrt. Ein bedeutendes Masteringmedium war die DAT, das Digital Audio Tape. Es sollte eigentlich im Consumerbereich die MC ablosen, hat sich dort aber nie durchgesetzt. Durch die kompakte Bauform hat sich die DAT auch im Reportagebereich durchgesetzt. Aherdings waren die Gerate aufgrund der aufwandigen Mechanik nie richtig biUig. Und eine falsch eingesteUte Kopftromniel konnte zu fehlerhaften Aufnahnien fiihren, die erst im Studio bemerkt wurden. Vorteilhaft war die Tonquahtat, die auch fiir hochwertige Orchesteraufnahmen genutzt wurde, wenn direkt Stereo gemischt wurde. Die Umatic, eigenthch ein professioneher Videorecorder wurde als Masteringmedium eingesetzt, das letzte heute genutzte Bandformat sind 8mm ExabyteKassetten, auf die ein Master im DDP-Format geschrieben wird. Fiir Archivierungszwecke kompletter Produktionen gibt es Bandsicherungsgerate, sogenannte Streamer, die groi^e Datenmengen auf Exabyte oder DAT sichern. Im Mehrspurbereich waren in den 1990er Jahren vor allem 8-Spur-Rekorder popular, die auf S-VHS oder Hi8-Kassetten aufgezeichnet haben. Bei der Langsspuraufzeichnung entspricht die Kopfgeschwindigkeit der Bandgeschwindigkeit. Die Geschwindigkeit am Tonkopf ist aber mitverantwortlich fiir die Grenzfrequenz des Systems. Zudem benotigte man fiir die digitale Audioaufzeichnung nicht mehr so breite Spuren, da eine geringere Dynamik ausreichte. Das Prinzip der Schragspuraufzeichnung war bereits aus der Videotechnik bekannt. Hier rotiert eine geneigte Kopftrommel um die eigene Achse. Das Band wird an ihr vorbeigefiihrt. So wird in schragen Spuren gelesen und aufgezeichnet. Die Geschwindigkeit am Tonkopf ist wesentlich hoher als die Bandgeschwindigkeit. Der Bandvortrieb muss lediglich dafiir sorgen, dass eine neue Schragspur neben die alte - also lediglich um eine Spurbreite versetzt - aufgenommen wird. In der Praxis ist es teilweise etwas komplizierter, well nicht nur eine Schragspur in einem Umlauf geschrieben wird, aber das sind technische Details, um die sich der Mediengestalter im aUgemeinen nicht kiimmern muss.
Schragspur
Abb. 11.16. Das Prinzip der Schragspuraufzeichnung.
190
11 Aufnahme- & Ubertragungstechnik
Fest- und Wechselplatten In der Produktion werden heute meist Festplattensysteme eingesetzt. Auf einer Festplatte werden die Daten nicht wie auf einer Schallplatte oder auf einer CD sequenziell als kontinuierlicher Datenstrom gespeichert. Au£er den Spuren kennt das Festplattenformat auch Sektoren. Innerhalb dieser Sektoren werden einzelne Datenblocke geschrieben. Daten konnen beliebig oft geschrieben und wieder geloscht werden. Festplatten sind sehr schnell, sie haben eine hohe Speicherkapazitat und eignen sich deshalb sehr gut fiir die Arbeit im Studio. Sie konnen eine grofie Zahl von Spuren aufzeichnen und wiedergeben. Nachteilig an Festplatten ist, dass sie fest im Rechner eingebaut sind. Ist die Festplatte voll, muss eine zusatzliclie Festplatte eingebaut werden. Aus diesem Grund kommen in Studios auch haufig Wechselplatten zum Einsatz. Anstelle der Festplatte wird ein Wechselrahmen fest in den Rechner eingebaut. In diesen konnen die Wechselplatten dann eingeschoben und wie eine Festplatte benutzt werden. Fiir die nachste Produktion kommt dann die nachste Wechselplatte zum Einsatz. Wie alle mechanischen Gerate sind auch Festplatten anfallig fiir Defekte. Deshalb und aus Kostengriinden eignen sich die Fest- und Wechselplatten nicht als Archiv. Hier gibt es Bandsicherungsgerate oder magnetooptische Medien. 11.4.3.2 Optische Formate Optische Formate sind heute die CD, die DVD und die Blu-ray Disc. Sie arbeiten alle nach demselben Prinzip, haben aber unterschiedliche Speicherkapazitaten und Ubertragungsraten. Alle drei bestehen aus einer Scheibe, mit einem Durchmesser von zwolf Zentimeter. Die Scheibe wird von einem Laserstrahl von innen nach aufien abgetastet. Die Abtastung erfolgt beriihrungslos. Die Rotationsgeschwindigkeit nimmt mit steigendem Spurdurchmesser ab, so dass die Spurgeschwindigkeit und damit die Datendichte auf dem Medium konstant bleibt. Die Informationen sind in erhabene und nicht erhabene Bereiche codiert. Die Bereiche heifien Pit und Land. Der Laserstrahl wird an der Oberflache der CD reflektiert. Auf dem Riickweg kommt es zu Interferenzen mit dem hinfiihrenden Lichtstrahl. Je nach Laufzeit des Lasers zur CD und zuriick kommt es zu Verstarkungen und Abschwachungen des Laserstrahls. Diese Helligkeitsschwankung wird iiber eine Fotodiode aufgenommen. Um einen moglichst grofien Unterschied zu erzielen, wird die Hohe der Pits an die Wellenlange des Lasers angepasst. Bei der CD betragt die Wellenlange noch 780 nm, die Blu-ray Disc kommt mit 405 nm aus. Die geringere Wellenlange ermoglicht feinere Strukturen und eine engere Spurlage. So kommt ein Teil der grofieren Kapazitat zustande. Ein weiterer Unterschied ist die Nutzung mehrerer Schichten und Seiten des Mediums. Tabelle 11.6 gibt einen Uberblick iiber wesentliche Parameter der drei Formate.
11.4 Digitale Audioaufzeichnung
191
Tabelle 11.6. Technisdie Dateii der CD, DVD und Blu-ray Disc. Speicherkapazitat (Single Layer) Datenrate Wellenlange Anzahl Layer pro Seite/Anzahl Seiten
CD 700 MB 1,2288 Mb/s 780 nm 1/1
DVD 4,7 GB 11,08 Mb/s 650 nm 1/1-2/2
Blu-ray Disc ca. 25 GB 35,965 Mb/s 405 nm 1/1-2/1, (3/1)
Auch wenn es beschreibbare optische Medien gibt, werden sie vorwiegend im Consumerbereich verwendet. Beschreibbare CDs werden von den Presswerken als Master akzeptiert, aufgrund der hohen nioglichen Fehlerraten ist die Haftung fiir Fehler auf der fertigen CD meist eingeschrankt. Die Audio-CD speichert eine Stereospur in 16 Bit, was heute nur noch fiir Endkunden verwendet wird. Hohere Auflosungen u n d / o d e r hohere Spurenzahlen erfordern schon allein aufgrund des Speicherplatzbedarfs eine DVD. Die gigantische Speicherkapazitat von Blu-ray Discs lasst sich alleine fiir Audiozwecke kaum nutzen. Deshalb verwendet m a n sie fast ausschliefilich fiir die Videoaufzeichnung. 11.4.3.3 Magnetooptische Formate Die Datensicherheit magnetooptischer Speichermedien gilt als besonders hoch. Sie werden deshalb haufig als Archivmedien genutzt. Sie sind auEerdem das Speicherprinzip der Minidisc. Angeboten werden die Medien in einer Cartridge, ahnlich einer Diskette. Die erhohte Datensicherheit gegeniiber rein magnetischen Verfahren beruht auf der Kombination von Energie und Magnetismus, die notwendig ist, um die Medien zu beschreiben. Dazu erhitzt ein Laserstrahl den zu beschreibenden P u n k t wahrend ein Magnetkopf die Daten schreibt. Ohne den Laser lasst sich das Medium nicht ummagnetisieren. Die Magnetisierung verandert die optischen Eigenschaften, so dass das Medium mit einem Laser beriihrungslos und damit verschleififrei abgetastet werden kann.
11.4.3.4 Elektronische Verfahren Mechanische Laufwerke miissen prazise funktionieren und sind deshalb relativ aufwandig konstruiert. Die Mechanik neigt zu Defekten und ist anfallig fiir Erschiitterungen. Die elektronische Datenspeicherung vermeidet diese Nachteile. Sie bieten eine Datenspeicherung ohne bewegliche Teile. USB-Sticks und Speicherkarten sind populare Vertreter. Entscheidend fiir die Nutzbarkeit fiir Audioanwendungen ist die Datenrate, die im Wesentlichen von der Geschwindigkeit der Schnittstelle abhangt. Grundsatzhch sind elektronische Speicherformate nicht auf eine bestimmte Anwendung beschrankt. Die Kosten der Medien sind derzeit noch verhaltnisma£ig hoch, die Speicherkapazitat ist begrenzt.
192
11 Aufnahme- & Ubertragungstechnik
11.5 Digitale Audioiibertragung Wie schon bei den analogen Ubertragungstechniken gibt es drahtgebundene digitale Kanale und drahtlose Kanale. Bidirektionale Verbindungen sind dabei meist drahtgebunden, sehr oft iiber eine digitale Telefonleitung, walirend die digitale Sendung drahtlos terrestriscli oder iiber Satellit oder drahtgebunden iiber die Kabelnetze und das Internet funktioniert. 11.5.1 Schnittstellen Der Vorteil digitaler Audiodatenspeicherung kann nur dann wirken, wenn die Ubertragungskette durcligehend digital ist. Bei jedem Wandlungsvorgang entstelien Verluste und die moclite man natiirlich so weit wie nioglich vernieiden. Auch wenn die nieisten Bearbeitungsscliritte bereits innerhalb der integrierten Audiosysteme stattfinden, lasst es sich nicht vernieiden, digitale Daten zwisclien zwei Geraten austausclien zu miissen. Fiir diesen Austausch gibt es verscliiedene Schnittstellen, die sich in der Art der Anschliisse unterscheiden, in ihren elektronischen Spezifikationen und in der Anzahl der Spuren. 11.5.1.1 A E S / E B U Das Internationale Schnittstellenformat fiir den Austausch von zweikanaligem digitalem Ton im professionellen Tonstudiobereich ist die AES/EBUSchnittstelle. Der Name komnit von den Organisationen, die die Spezifikation verabschiedet haben - der Audio Engineering Society und der European Broadcast Union. Schnittstelle Eine Vorgabe fiir die Entwicklung des Standards war, dass die Kosten fiir die neue Schnittstelle moglichst gering sein sollten, damit die Geratehersteller auch moghchst viele Gerate damit ausstatten. Deshalb entschied man sich auf die Verwendung von bereits bekannten dreipoligen Canon XLR-Steckern zu setzen, die auch bei Mikrofonkabeln zum Einsatz kommen. Zusatzlich wurden auch BNC-Anschliisse definiert. Auch diese waren bereits vielfach im Einsatz, zum Beispiel auch bei friiheren digitalen Schnittstellen. Der Datentransport geschieht entweder symmetrisch, wenn XLR-Stecker verwendet werden oder unsymmetrisch iiber geschirmte Leitungen bei BNCVerbindern. Symmetrische Kabel haben eine Impedanz von 100 Ohm, unsymmetrische eine Impedanz von 75 Ohm. Das Digitalsignal ist ein Biphase Mark und daher selbsttaktend, gleichspannungsfrei und verpolungssicher.
11.5 Digitale Audioiibertragung
193
Datenformat Das Datenformat unterstiitzt Wortbreiten von 16 bis 24 Bit. Als Samplingfrequenz kommen 32, 44,1 und 48 kHz in Frage, mittlerweile aber auch die in der Studiotechnik heute iiblichen Vielfachen davon. Die beiden Kanale werden abwechselnd in eigenen Subframes iibertragen. Im Gegensatz zu analogen Audioverbindungen benotigt man daher fiir ein Stereosignal nur eine Leitung. Stereoanwendungen bilden sicher den Hauptanwendungsfall mehrkanaliger Daten, die AES-Schnittstelle ist aber nicht darauf festgelegt. MonoSignale werden auf beiden Kanalen identisch iibertragen. Es konnen auch zwei unabhangige Kanale iibertragen werden. Das Datenformat unterscheidet zwischen gleichberechtigten Kanalen und einem Primarkanal mit einem abhangigen Kanal. Als Anwendungsfalle fiir die letzte Kategorie definiert die EBU ein Mitte-/Seite-Signal, eine Sende- und eine Kommandoleitung sowie Kommentar und internationalen Ton. Zur Felilerkorrektur wird pro Subframe ein Paritatsbit verwendet. Au£erdem markiert ein Validity-Bit jedes giiltige Audiodatenwort. Praambeln leiten jedes Subframe ein. Ihr Format widerspriclit der Codierungsvorsclirift des Biphase Mark. So lasst sich aus dem Datenstrom ermitteln, wann ein Subframe beginnt. Neben den Audiodaten werden weitere Informationen iibertragen. Im Zusammenhang mit den Audiodaten steht der verwendete Emphasis-Algorithmus. Im allgemeinen soUte man die Emphasis nicht nutzen um Probleme mit inkompatiblen Geraten zu vermeiden. Die Wortbreite ist ebenfalls ein audiobezogener Wert. Er ermoglicht die Unterscheidung zwischen 16 und 20 Bit breiten Audiodatenwortern, so dass der Empfanger den Wert korrekt dithern kann. Unabhangig vom Audiomaterial sind User-Bits, die vom System oder dem Benutzer gesetzt werden konnen. AuEerdem enthalt der Datenstrom eine Zeitinformation.
11.5.1.2 S/PDIF S/PDIF steht fiir Sony/Philips Digital Interface. Es ist eine digitale Audiodatenschnittstelle, die im Consumerbereich eingesetzt wird. Als elektrische Steckverbindung werden Cinch-Stecker verwendet, optische Ein- und Ausgange existieren im TOSLINK-Format. Vorteilhaft bei der optischen Ubertragung ist die galvanische Trennung der Gerate, so dass Erdschleifen vermieden werden. Das Datenformat ist mit dem der AES/EBUSchnittstelle vergleichbar, jedoch erfolgt die Ubertragung mit wesenthch geringeren Spannungen. Gerate mit unterschiedlichen Schnittstellen konnen also nicht ohne weiteres aufeinander adaptiert werden. Es existieren jedoch Umsetzer von S/PDIF auf AES/EBU und umgekehrt. S/PDIF wird verwendet, um im Heimkinobereich nichtlinearen Mehrkanalton zu iibertragen. Im Datenstrom eingebettet sind Kopierschutzinformationen, die von Consumergeraten ausgelesen werden soUten. Von professionellen Geraten wird der Kopierschutz ignoriert.
194
11 Aufnahme- & Ubertragungstechnik
11.5.1.3 ADAT AD AT bezeichnet eine digitale Mehrspurmaschine von Alesis, die 8 Kanale im Schragspurverfahren auf S-VHS-Bander aufzeichnete. Das Achtspurprinzip war in Projektstudios weit verbreitet. Eine ganze Mischpultgattung das 8-Bus-Pult - wurde darauf zugeschnitten. Die Einfiihrung einer digitalen 8-Spur-Schnittstelle lag nahe. Verbunden werden die Gerate iiber optische TOSLINK-Kabel. Die maximale Auflosung liegt bei 24 Bit. Bei niedrigeren Wortbreiten werden die LSB mit NuUen aufgefiillt. Ein Vorteil der Schnittstelle war, dass nicht nur Audiodaten iibertragen wurden, sondern auch Steuerbefehle. So konnten die ADAT-Laufwerke ferngesteuert werden. Auch das ADAT-Format ist selbsttaktend, es nutzt jedoch aus Griinden der Kanalkapazitat keinen Biphase Mark. Statt dessen wird nach jeweils vier Bit eine digitale 1 in den Datenstrom eingefiigt. Die Franieerkennung erfolgt iiber ein Synchronwort, das im normalen Datenstrom nicht vorkommen kann. Es besteht aus zehn aufeinanderfolgenden Nullwerten. 11.5.1.4 M A D I Das Multichannel Audio Digital Interface ist ein mittlerweile standardisiertes Gemeinschaftsprodukt verschiedener HersteUer professioneller Audiotechnik. MADI transportiert gleichzeitig bis zu 56 Kanale. Das Datenformat ist der AES/EBU-Schnittstelle sehr ahnlich. So konnen die Signale leicht ineinander iiberfiihrt werden. Eine Besonderheit ist die konstante Datenrate, unabhangig von der eingestellten Samplingfrequenz. Um das zu gewahrleisten miissen fiir langsamere Taktraten Fiillworter hinzugefiigt werden, die am Empfanger wieder entfernt werden. Diese Fiillworter konnen nur erkannt werden, wenn sie keine giiltigen Werte darstellen. Das bedeutet, dass der Code Redundanz enthalten muss. Es handelt sich um einen 4/5 RLL, der neben der Redundanz auch die Taktinformation sichert. Mehr zum Thema Codierung steht im Abschnitt 11.4.2 auf Seite 178. 11.5.2 ISDN ISDN ist als Alternative zum analogen Telefon bekannt. Die Abkiirzung steht fiir Integrated Services Digital Network. Sie wird international verwendet, in Frankreich heii^t es jedoch RNIS. Anstelle der einseitigen Nutzung als Telefonsystem war ISDN also von Anfang an auch als Netzwerk zur Ubertragung beliebiger digitaler Daten konzipiert. Durch die feste Datenrate eignet sich ISDN jedoch sehr gut fiir Echtzeitanwendungen, well man jederzeit mit einer bestimmten Bandbreite rechnen kann. Alles, was iiber analoge Telefonleitungen in Puncto Anwendungen in der professionellen Studiotechnik gesagt wurde, gilt auch fiir ISDN. Aber
11.5 Digitale Audioiibertragung
195
auch qualitativ hoherwertige Audioiibertragung ist iiber ISDN moglich. Hierfiir werden spezielle Gerate verwendet, die Audiodaten komprimiert senden und empfangen konnen. Die Kompressionsalgorithmen sind unter dem BegriflF ISDN-Audiocodecs^ zusammengefasst. Coder und Decoder handeln iiber einen Handshake den giinstigsten gemeinsamen Algorithmus aus. Die ofFentlich-rechtlichen Rundfunkanstalten haben Standardverbindungsparameter definiert, die unter dem Begriff ORIS - das steht fiir OfFentlich Rechtlicher ISDN Standard - in nianchen Geraten bereits vorprogramniiert sind. Die 28 Modi definieren neben dem Algorithmus und der Betriebsart (Mono, Stereo, dual Mono oder Joint Stereo) auch eine Bitrate zwischen 56 und 1 2 8 k B i t / s , die Samplingrate zwischen 16 und 48 kHz und den Synchronisationsmodus.
11.5.2.1 G.711 G.711 ist der Standardcodec fiir Telefongesprache iiber das Internet. Bandbreite und Dynamik entsprechen einem analogen Telefonanschluss, jedoch fallen die Storungen weg, die bei der analogen Ubertragung aufgetreten sind. Um die analoge Telefonqualitat zu erreichen, muss m a n das Signal mit 8 kHz abtasten und mit 8 Bit quantisieren. Daraus ergibt sich eine Datenrate von 6 4 k B i t / s . Das ist die Kapazitat eines sogenannten Basis- oder BKanals. Ublich sind Anschliisse mit zwei Kanalen. So kann m a n mit zwei ISDN-Telefonen an einem Anschluss zwei Telefonate in Telefonqualitat fiihren. Problematisch sind Verbindungen nach Amerika, well das dortige ISDN nur 5 6 k B i t / s pro B-Kanal zur Verfiigung stellt. 11.5.2.2 G.722 Ebenfalls ledighch einen B-Kanal benotigt der G.722 Codec. Jedoch ist die Klangqualitat bereits deutlich besser. Die Samplingfrequenz ermoglicht mit 16 kHz bereits Frequenzen bis 7 kHz. Die einzelnen Abtastwerte werden mit 14 Bit aufgelost. Dass die D a t e n r a t e dennoch nicht grower als 6 4 k B i t / s ist, liegt an der Codierung des Signals. Zum Einsatz kommt, wie bei den meisten ISDN-Audiocodecs die S u b b a n d - A D P C M . Dabei wird das Signal zunachst in mehrere - hier zwei - Frequenzbander aufgeteilt. Diese werden dann per A D P C M codiert. Die Subbander werden bei 4 kHz getrennt. Der untere Bereich erhalt drei Viertel der D a t e n r a t e und somit eine hohere Auflosung, da sich in dem Bereich die wesentlichen Sprachbestandteile befinden. Die Datenstrome der beiden Subbander werden im Zeitmultiplexverfahren nacheinander iibertragen. Kritisch ist bei alien Audiocodecs die Verzogerung. Vor allem, wenn Interviews iiber eine solche Leitung gefiihrt werden ist es sehr schwierig, das Gesprach trotz grofier Zeitverzogerungen fliissig zu halten. Man fallt sich leicht Codec ist ein Kunstwort und setzt sich zusammen aus Coder und Decoder.
196
11 Aufnahme- & Ubertragungstechnik
gegenseitig ins Wort und nach einer Frage entsteht eine unschone Pause, bis der Gesprachspartner antwortet. Der grofie Vorteil von G.722 ist die geringe Latenz von nur wenigen Millisekunden. G.722 stellt neben der 64 kBit-Variante zwei zusatzliche Modi vor, die die Auflosung des unteren Subbands verringern. So kommen Audiodatenraten von 56 beziehungsweise 48 kHz zustande. Die verbleibende Bandbreite kann fiir Datenverbindungen genutzt werden. In der Regel mochte m a n aber die bestmogliche Audioqualitat erreichen. 11.5.2.3 M P E G MPEG-Kompressionsverfahren sind nicht nur in der digitalen Audioiibertragung ein wichtiges Format. Musicam und m p 3 sind datenreduzierte Audioformate, die dem Mediengestalter immer wieder begegnen werden. Insgesamt kommen vier Formate zum Einsatz: M P E G I Layer 2 und 3 und M P E G 2 Layer 2 und AAC^. Sie unterscheiden sich im Wesentlichen durch ihre Latenz und ihre unterschiedlichen Datenraten. Dabei konnen bis zu sechs B-Kanale genutzt werden. Sowohl Mono als auch Stereoiibertragungen sind moglich. Tabelle 11.7 zeigt eine Ubersicht der verschiedenen M P E G - F o r m a t e . Ein Problem bei der Verwendung von MPEG-Codecs ist die relativ hohe Latenz. Ein anderes ist die Datensicherheit. Datenreduzierte Audioformate sind anfallig fiir Ubertragungsfehler. Ein Leistungsfahiger Korrekturmechanismus ist im J.52-Standard spezifiziert und kann bei relativ geringer Redundanz eine relativ sicliere Ubertragung gewalirleisten.
Tabelle 11.7. MPEG-Audiocodecs im Uberblick. Codec Bandbreite MPEG 1 Layer 2 8-20 kHz MPEG 1 Layer 3 15-20 kHz MPEG 2 Layer 2 11 kHz MPEG2 AAC 8-20 kHz
Datenrate 64-384 kBit/s 64-320 kBit/s 64kBit/s 32-128 kBit/s
Mono/Stereo m/s m/s m m/s
fs 48 kHz 48 kHz 24kHz diverse
Latenz fs 100 ms >300ms >150ms >400 ms
11.5.2.4 Apt-XlOO Der proprietare Apt-Codec von Audio Processing Technology arbeitet mit S u b b a n d - A D P C M aber ohne Irrelevanzreduktion. Dadurch wird eine sehr gute Qualitat bei moderater Kompression aber sehr kurzer Latenz erreicht. Der Algorithmus teilt das Signal in vier Subbander auf. Ahnlich dem G.722-Codec nimmt auch hier die Auflosung fiir die hoheren Frequenzbander ab. Die Pradiktion des Wertes wird aus den letzten 122 Samples generiert. Es gibt noch andere Verfahren, die auf Basis der S u b b a n d - A D P C M arbeiten. AAC: Advanced Audio Codec.
11.5 Digitale Audioiibertragung
197
11.5.3 Audio over IP Das Internet bietet sich als weltweit verfiigbares Datennetz auch zur Verteilung von Audiodaten an. Problemlos funktionieren Audiodownloads. Die Dauer fiir den Ladevorgang variiert zwar mit der Verbindungsgeschwindigkeit, nach dem Herunterladen ist aber der Wiedergabevorgang unabhangig von der Kapazitat und sogar der Verfiigbarkeit des Netzwerks. Podcasts und der Onlinehandel mit Audiomaterial sind entsprechende Anwendungen. Interessanter ist die Echtzeitiibertragung wahrend der Wiedergabe, das sogenannte Streaming. Hierbei wird senderseitig zwischen Broadcasting und Point-toPoint-Verbindungen unterschieden. Broadcasting ist senderseitig relativ unaufwandig. Das Signal wird wie beim konventionellen Rundfunk zu einem bestimmten Zeitpunkt ausgesendet und jeder kann sich bei Interesse zum Empfang anmelden. Anders sieht es aus bei Audio-On-Demand-Angeboten. Hier wird das Angebot individuell abgerufen. Jeder Abruf erzeugt also zusatzliclien Datenverkelir. Bei grofier Nachfrage muss die Sendeanlage also entsprechend dimensioniert sein. Die Ubertragung von Audio iiber das Internet ist problematisch. Es gibt keine pliysikalische Verbindung zwischen Sender und Empfanger. Das Wort Streaming suggeriert zwar, dass es sich um einen Datenstrom handelt, tatsachlich aber werden Daten iiber das Internet immer in Form unabhangiger Pakete verschickt. Die Route der Pakete ist nicht festgelegt. Es ist nicht einmal garantiert, dass friiher abgeschickte Pakete auch zuerst ankommen. Auch die Datenrate ist nicht garantiert. Soil es nicht zu Aussetzern kommen, dann muss der Empfanger einen Puffer bereitstellen und einen Teil der Daten zwischenspeichern. AuEerdem werden die Streams oft in unterschiedlichen Qualitaten angeboten, so dass der Empfanger den Stream passend zu seiner Bandbreite auswahlen kann. Mit steigender Netzkapazitat sollten die Probleme durch Datenengpasse geringer werden. Dann wird auch die Ubertragung iiber das Internet fiir professionelle Echtzeitiibertragungen, zum Beispiel Live-Einblendungen, interessanter werden. 11.5.4 Digitaler Rundfunk Fiir die digitale Ubertragung sind drei Technologien mit unterschiedlichen Schwerpunkten im Einsatz oder im Aufbau. Der groi^e Durchbruch ist den digitalen Sendetechniken noch nicht gelungen. Das hat sicher damit zu tun, dass mit dem UKW-Radio ein qualitativ hochwertiges analoges Ubertragungsmedium existiert und fiir den Digitalempfang neue Empfanger notwendig sind. Uberlegungen, den digitalen Horfunk abzuschalten werden daher auch nur leise diskutiert. Wie der Name schon sagt, ist DVB fiir digitale Videoiibertragung konzipiert. Das analoge Fernsehen wird in Deutschland durch DVB-T abgelost werden. Das T steht fiir terrestrisch. DVB-S sendet iiber Satellit. Das Digital
198
11 Aufnahme- & Ubertragungstechnik
Radio Mondiale, kurz DRM, ist als amplitudenmoduliertes Signal fiir weite Ubertragungen interessant, zum Beispiel fiir landesweite und Auslandsprogramme. DAB schliei^lich ist mobil empfangbar und soUte als UKW-Ersatz dienen. Die Verbreitung ist mai^ig, vor allem auch, well die Autohersteller ihre Neuwagen nur selten mit den benotigten Empfangern ausstatten. Dem Endverbrauclier felilt meist der Melirwert gegeniiber UKW und auch die Sender auswahl ist eingeschrankt.
11.6 Aufzeichnung von Steuerbefehlen Der Begriff, der mit der Aufzeichnung von Steuerbefehlen heute untrennbar verkniipft ist, heifit MIDI. Und natiirhch wird MIDI auch den grofiten Teil dieses Kapitels fiillen. Die Reproduktion von Musik mittels Spielanweisungen ist jedoch nicht neu. Schon Anfang des 20. Jahrhunderts, lange bevor qualitativ brauchbare Musikaufzeichnungen moglich waren, gab es bereits automatische Klaviere, die mit Hilfe gestanzter Walzen Stiicke selbstandig spielen konnten. Es war also moglich, die Musik in einem handlichen Format zu konservieren und in sehr guter Qualitat wieder abzuspielen. Allerdings war das Vorhandensein eines passenden Abspielgerats Voraussetzung. Mit der Walze aUein konnte man nichts anfangen. Und war das Klavier verstimmt, dann konnte auch eine gute ,Aufnahme' nicht mehr fiir einen richtigen Horgenuss garantieren. Diese strukturellen Probleme hat MIDI geerbt. Auch hier benotigt man einen Klangerzeuger, dessen Qualitat mafigebhch fiir den Klang ist. Man stanzt die Informationen heute nicht mehr in Papier sondern man nutzt digitale Speichermedien. Dennoch enthalt eine MIDI-Datei nur die Information, wie ein Stiick zu spielen ist. Welche Informationen das sind, wird spater noch beschrieben. Das Gerat, auf dem es abgespielt werden soil, muss die Steuersignale interpretieren konnen und iiber eine eigene Klangerzeugung verfiigen, um aus den Anweisungen Musik zu machen. MIDI war zunachst den Tasteninstrumenten vorbehalten. MIDI besteht streng genommen aus drei Spezifikationen. Die eine ist die Definition der Informationen, die als MIDI-Daten giiltig sind. Das zweite ist die Ubertragung zwischen zwei Geraten. Als letztes hat die MIDI Manufacturers Association (MMA), die fiir den MIDI-Standard verantworthch ist, ein Dateiformat entwickelt, mit dem MIDI-Dateien aufgezeichnet werden konnen. Die Abkiirzung MIDI steht fiir Musical Instruments Digital Interface. Also eine digitale Schnittstelle fiir Musikinstrumente. Das beschreibt ziemlich genau den urspriinglichen Zweck des Protokolls. Musikinstrumente sollten miteinander verbunden werden. In den 1980er Jahren war die Hochzeit des Synthie-Pop. Und auch die Musiker anderer Stilrichtungen wollten an den neuen klanglichen Moglichkeiten teilhaben. Viele verschiedene Synthesizer mit unterschiedlichen Syntheseverfahren iiberschwemmten den Markt und so kam - Bonitat vorausgesetzt - eine stattliche Anzahl an Geraten zusammen. Das
11.6 Aufzeichnung von Steuerbefehlen
199
war zu einen sehr teuer, zum anderen auch eine sehr platzraubende Angelegenheit. Die Hersteller elektronischer Musikinstrumente griindeten deshalb die MMA, um ein Verfahren zu entwickeln, niit deni Instrumente ferngesteuert werden konnen. 1983 wurde MIDI aus der Taufe gehoben. Die Vorteile lagen auf der Hand. Ein Masterkeyboard mit einer gut spielbaren Tastatur steuerte die eigentlichen Instrumente fern, die in handlichen und durch die fehlende Tastatur auch plotzlich viel giinstigeren Rack-Versionen auf den Markt kamen. Bald schon entdeckte man, dass das Konzept von MIDI nicht nur fiir Instrumente interessant war. Es folgten Mischpultautomationen und dynamische Effektsteuerungen. Anwendungen, die das MIDI-ProtokoU schon bald an seine Leistungsgrenzen bringen sollte. Doch bis heute wird MIDI genutzt. In welcher Form, das sollen die nachsten Abschnitte zeigen.
11.6.1 D a s MIDI-ProtokoU Das MIDI-ProtokoU definiert, welche Informationen im MIDI-Datenstrom enthalten sein konnen, und wie sie codiert sind. Am wichtigsten sind die Spielanweisungen fiir die verschiedenen angeschlossenen Instrumente. Es gibt aber auch Anweisungen, die fiir alle Gerate gelten oder nichts mit der eigentlichen Erzeugung von Klangen zu t u n haben. Eine solche Anweisung hei£t Message. 11.6.1.1 Adressierung Da mehrere Expander - also Klangerzeuger ohne Tastatur - an ein Masterkeyboard angeschlossen werden konnen, muss eine Zuordnung stattfinden, welches Gerat gerade gemeint ist. Das wird iiber Kanale realisiert. MIDI definiert 16 Kanale. P r o Schnittstelle konnen also bis zu 16 verschiedene Gerate angesprochen werden. Aber auch einzelne Gerate konnen auf mehreren Kanalen empfangen und je nach Kanal unterschiedliche Sounds abspielen. Diese Fahigkeit nennt m a n multitimbral. Im Gegensatz dazu bedeutet polyphon, dass ein Gerat mehrere Stimmen hat, also auf einem Kanal mehrere Tone gleichzeitig abspielen kann. Relativ schneU wurden die 16 Kanale zu knapp. Das MIDI-ProtokoU wurde deswegen aber nicht geandert. S t a t t dessen entwickelte m a n Software, die mehr als eine MIDI-Schnittstelle verwalten konnte. An jede dieser Schnittstellen konnten dann 16 Gerate angeschlossen werden. Fiir die Adressierung wird an den Empfangern der Receive-Channel eingestellt, am Sender der Transmit Channel. 11.6.1.2
Message-Aufbau
Die Befehle werden in Form von Nachrichten iibermittelt. Das erste Byte einer Message ist immer das Status-Byte. Aus ihm ist ersichthch, um welche Art Nachricht es sich handelt. Ein Status-Byte erkennt m a n daran, dass das
200
11 Aufnahme- & Ubertragungstechnik
hochstwertige Bit gesetzt ist. Status-Bytes beginnen also binar immer mit einer 1. Deni Status-Byte folgen ein oder mehrere Daten-Bytes. Sie beginnen folgerichtig mit 0. Jede Message hat genau ein Status-Byte und je nach Art eine festgelegte Anzahl an Daten-Bytes. Aus der Tatsache, dass das erste Bit eines Daten-Bytes bereits zur Markierung als Daten-Byte verbraucht wird, reduziert sich der darstellbare Zahlenumfang auf 2'' = 128 Werte. Das bedeutet, dass beispielsweise die Dynamik auf 128 Stufen begrenzt ist. Ebenso verhalt es sich mit vielen Reglerpositionen. Stehen 2 Daten-Bytes und damit 14 nutzbare Bits zur Verfiigung, dann erhoht sich dieser Wert auf 2^** = 16384 Werte. 11.6.1.3 Channel Voice Messages Channel Voice Messages sind Nachrichten, die an einen bestimmten Kanal adressiert sind. Jedes Gerat, das auf diesem Kanal auf Nachrichten hort, wird die Anweisungen ausfiihren. Normalerweise empfangt genau ein Gerat die Anweisungen auf einem Kanal. Die Channel Voice Messages werden genutzt, um Instrumente zu spielen. Note On Um einen Ton zu spielen, wird eine Note-On-Nachricht erzeugt, wann immer auf der sendenden Tastatur eine Taste gedriickt oder auf sonstige Weise ein Ton gespielt wird. Zwei Daten-Bytes iibertragen Tonnummer und die Anschlagsgeschwindigkeit, die spater fiir die Lautstarke des Tons verantwortlich ist.
Note Off Wird die Taste losgelassen, dann wir eine Note-Off-Nachricht erzeugt. In den zwei Daten-Bytes wird die Tonnummer und die Loslassgeschwindigkeit iibertragen. Channel Pressure, Polyphonic Pressure Aftertouch-Werte werden entweder kanalweise iibertragen oder fiir jede Taste. Aftertouch misst den Druck auf eine bereits angeschlagene Taste. Im Fall von Channel Pressure wird das Status-Byte und ein Daten-Byte mit dem VelocityWert iibertragen, bei Polyphonic Pressure zusatzlich ein Daten-Byte mit der angeschlagenen Taste. Control Change Controller sind Schalter und Regler, mit denen Einstellungen am Klangerzeuger vorgenommen werden. Mogliche Einstellungen sind die Lautstarke und das Panorama, das Haltepedal oder die Effektauspragung. In den beiden DatenBytes stehen die Controller-Nummer und der Wert. Wahrend fiir Schalter
11.6 Aufzeichnung von Steuerbefehlen
201
zwei Werte ausreichen und sieben Datenbits sehr grofiziigig bemessen sind, sind fiir andere Controller holiere Auflosungen wiinsclienswert. Realisiert wird eine solche holiere Auflosung nicht iiber ein zusatzliches Daten-Byte, sondern iiber eine zusatzliche Controllernummer und eine extra Message. Das bedeutet, dass die hoch aufgelosten Controller zwei ControUernummern haben. Fiir jede dieser Nummern wird jeweils eine eigene Message aus Status-Byte und zwei Daten-Bytes gesendet. Das hat den Grund, dass die Anzahl der DatenBytes einer Message festgelegt ist. Das MIDI-ProtokoU sieht nicht vor, anhand des Wertes eines Daten-Bytes die Gesamtzahl der Daten-Bytes zu verandern. Pitch Bend Die Position des Pitch Bend Rades wird mit 2 Daten-Bytes und damit in sehr guter Qualitat iibertragen. Controllerwerte werden im Empfangsgerat auf die Funktion im Gerat umgesetzt. Erst danach bemisst sich ihre Bedeutung. Der Pitch Bend Controller steuert normalerweise stufenlos die Tonhohe. Auch wenn es sich beim Pitch-Bend-Rad um einen Controller handelt, hat man sich dennoch entschieden, ihm eine eigene Message zu widmen, da man angenommen hat, dass es sehr oft verwendet wird. So war man frei in der Definition, wie viele Daten-Bytes verwendet werden. Da keine Controllernummer iibertragen werden muss, lasst sich der hochaufgeloste Wert in zwei Datenbytes iibertragen. Insgesamt sind das also 3 Bytes fiir eine Zustandsmeldung gegeniiber 6 Bytes bei herkommlicher Codierung als Controller mit doppelter Controllernummer. Program Change Ein Datenbyte steht zur Verfiigung, um Sounds eines Gerats umzuschalten. 11.6.1.4 Channel Mode Messages Channel Mode Messages entsprechen den Control Change Messages fiir die ControUer-Nummern 121-127. Sie andern allerdings keine Controller, sondern steuern das generelle Verhalten der Empfangsgerate. Reset All Controllers Alle Controller konnen auf einen Schlag zuriickgesetzt werden. Local Control Schaltet man die lokale Steuerung aus, dann kann man die Tastatur eines Klangerzeugers als Masterkeyboard verwenden und die interne Klangerzeugung iiber MIDI ,fernsteuern'. Steht local control auf ,on', dann wird bei jedem Tastendruck ein Ton im lokalen Gerat erzeugt, auch wenn ein anderes ferngesteuert werden soil.
202
11 Aufnahme- & Ubertragungstechnik
All Notes Off Dieser Befehl beendet alle monientan klingenden Tone. Ein Ton endet normalerweise, wenn der Klangerzeuger die Note Off Message empfangt. Geht diese Nachricht durch einen Ubertragungsfehler verloren, dann muss man unter Umstanden iiber die Panik-Taste den AU-Notes-Off-Befehl aktiv senden um den Ton zu beenden. 1st Active Sensing aktiviert (siehe System Real-Time Messages), dann fiihrt der Klangerzeuger den Befehl aus, wenn er annimmt, dass die Verbindung zum Sender getrennt wurde. Die Nachricht wird auch gesendet, wenn die Betriebsart umgestellt wird. Modi Es gibt verschiedene MIDI-Betriebsarten, in denen die Klangerzeuger Befehle verarbeiten konnen. Standardmodus ist heute der Multi Mode, der auch Mode 3b genannt wird, in der MIDI-Spezifikation aber gar nicht zu finden ist. Moderne Klangerzeuger sind immer multitimbral und empfangen auf alien Kanalen gleichzeitig. Welche Information welchen Klangerzeuger steuert wird in der Sequencer Software eingestellt, so dass man sich heute nur noch wenig Gedanken iiber den MIDI Mode machen muss. Omni Mode: Der Omni Mode kann ein- oder ausgeschaltet sein. Ist er eingeschaltet, dann empfangt das Gerat auf alien Kanalen. Poly Mode: Mehrstimmige Gerate arbeiten in dieser Betriebsart Mono Mode: Jeder Kanal kann nur einstimmig - also monofon - gespielt werden. 11.6.1.5 S y s t e m C o m m o n Messages Systemnachrichten enthalten keine Kanalinformation. Sie betreffen das gesamte System oder aber einzelne Gerate, die dann iiber ihre ID angesprochen werden. System Exclusive Die System Exclusive Nachrichten - kurz SysEx - werden dazu verwendet, Daten auf ein oder von einem ganz speziellen Gerat zu laden. Grofie Datenmengen konnen aufgrund der geringen Bandbreite der MIDI-Ubertragung nicht ausgetauscht werden. Wahrend alle anderen Nachrichten in der Anzahl ihrer Daten-Bytes festgelegt sind, wird eine SysEx-Ubertragung durch ein Status-Byte eingeleitet und durch ein weiteres beendet (End of Exclusive EOX). Dazwischen liegt ein Daten-Byte mit der ID des anzusprechenden Gerats und beliebige weitere Daten-Bytes. Das Format dieser Daten-Bytes kann vom HersteUer fiir jedes Gerat individueU festgelegt werden.
11.6 Aufzeichnung von Steuerbefehlen
203
Song Position Pointer MIDI verwaltet taktbezogene Informationen. Dazu gibt es die Timing Clock, die zu den System Real-Time Messages gehort. Sie wird im Abstand von 1/96-Note ausgelost und ist demnacli von der eingestellten Gescliwindigkeit des Songs abliangig. Ein MIDI Beat entspriclit 6 dieser Timing Clocks, also 1/16-Note. In zwei Datenbytes kann die Songposition in MIDI-Schlagen ab Songbeginn ausgedriickt werden. Song Select 128 verschiedene Songs, die in Sequencern gespeichert sind, konnen aufgerufen werden. Tune Request Dieses Status-Byte fordert die angeschlossenen Klangerzeuger auf, die Stimmung zu kalibrieren. 11.6.1.6 System Real-Time Messages Die Real-Time Messages steuern timingbezogene Aktionen. Timing Clock Das Zeitmafi des Songs. Es liandelt sicli dabei um einen Taktbezug und nicht um eine absolute Zeitinformation wie beim Timecode. Jede 1/96-Note wird ein Zeitimpuls generiert. Die Timing Clock wird oft aucli als MIDI Clock bezeiclmet. Start, Stop, Continue Die Nachricliten starten, beenden oder unterbrechen die Wiedergabe einer Sequenz. Active Sensing Wird Active Sensing verwendet, was elier die Ausnalime ist, dann erwartet der Empfanger spatestens alle 300 Millisekunden die entsprecliende Nachriclit vom Sender. Ansonsten nimmt er an, dass die Verbindung zum Sender getrennt wurde und fiihrt den AU-Notes-Off-Befehl aus. Anscliliefiend arbeitet er olme Active Sensing weiter. Reset Versetzt die Empfanger in ihren Einsclialtzustand
204
11 Aufnahme- & Ubertragungstechnik
11.6.2 Die MIDI-Ubertragung Nachdem klar ist, welche Nachrichten MIDI nutzt, miissen die technischen Eckdaten fiir die Ubertragung zwischen den Geraten definiert werden. Aufierdem muss fiir die Ubertragung festgelegt werden, wie der MIDI-Datenstrom, der ja aus vielen aufeinanderfolgenden Nachrichten besteht, zusammengesetzt wird. 11.6.2.1 Der MIDI-Datenstrom Jedes Byte, das iibertragen wird, wird von einem Start-Bit eingeleitet und von einem Stop-Bit beendet. Damit fahen 10 Bit Daten fiir jedes zu iibertragene Byte an. Der Gesamtdatenstrom wurde auf 31,25 Kilobaud (Kilobit/Sekunde) festgelegt. Diese Festlegung wurde an die damaligen Kapazitaten serieller SchnittsteUen angepasst. Der Datenstrom ist gerichtet. Er flie£t vom Ausgang des Senders zum Eingang des Empfangers. Ein- und Ausgange sind als eigene Anschliisse in den Geraten vorhanden. Die drei Anschlussarten, die es gibt, hei£en In, Out und Through. AUe Gerate, die MIDI-Daten senden, verfiigen iiber einen MIDI Out. Dazu gehoren Sequencer, Masterkeyboards und alle MIDI-Instrumente. AUe Gerate, die MIDI-Daten empfangen konnen, haben einen MIDI In. Das sind Sequencer und alle Klangerzeuger. Der Through-Port gibt das Signal aus, das am Eingang anliegt. Gerate, die einen MIDI-Eingang haben, haben meist auch einen MIDI-Through. Die Nachrichten wurden deshalb bewusst klein gehalten, um die Latenz gering zu halten. Latenzen sind Verzogerungen vom Anschlagen einer Taste bis zum Erklingen des Tons, die durch die Ubertragung und Verarbeitung der Nachrichten verursacht werden. Bei einer Nachrichtenlange von 3 Byte und einer Ubertragungsgeschwindigkeit von 31 kBit/Sek ergibt das eine Latenz von etwa einer Millisekunde, was fiir ein natiirliches Spielgefiihl ausreichend ist. SOBit
1000ms = 0, 96ms 31250Bit
Wahrend Latenzen bis 10 ms als akzeptabel gelten, ist die rhythmische Prazision in wesentlich engeren Grenzen zu halten. Das bedeutet, dass sich die Latenz im zeitlichen Verlauf nicht stark verandern darf. Zu schwankenden Latenzen kommt es immer dann, wenn mehrere Nachrichten gleichzeitig iibertragen werden sollen. Da immer nur eine Nachricht gleichzeitig iibertragen werden kann, miissen alle anderen warten. Das fiihrt zu den Schwankungen in der Latenzzeit, die sich in rhythmischer Ungenauigkeit au£ert. Um die Datenflut zu reduzieren wurde eine Technik implementiert, die Running Status hei£t. Dabei wird nur dann ein Status-Byte gesendet, wenn sich die Art der Nachricht von der vorhergehenden unterscheidet. Spielt man einen Akkord, dann faUen viele Note-On-Befehle an. Da die Status-Bytes weggelassen werden, verringert sich das Datenaufkommen ab der zweiten Nachricht auf 2 Byte pro Message.
11.6 Aufzeichnung von Steuerbefehlen
205
11.6.2.2 Die MIDI-Schnittstelle Urspriinglich wurden die Gerate iiber 5-polige DIN-Anschliisse miteinander verbunden. Am Eingang wird das Signal iiber einen Optokoppler galvanisch von der Gerateelektronik getrennt. Ein Optokoppler besteht aus einer LED und einer Fotozelle. Das Signal wird also ausgelesen und neu generiert. Die Ubertragung erfolgt seriell und selbsttaktend. Die Verbindungskabel sind zweiadrig und gemeinsam gescliirmt. Sie sollten eine Lange von 15 Metern nicht iiberschreiten. Die technisclie Entwicklung braclite deutlich schnellere Sclinittstellen wie USB oder FireWire liervor. Es gibt eine Spezifikation, MIDI-Daten iiber FireWire zu iibertragen, was dem Umstand geschuldet sein diirfte, dass es mittlerweile selir viele Audio/MIDI-Sclinittstellen gibt, die iiber FireWire mit dem Computer verbunden werden. Obwohl die Ubertragungsgescliwindigkeit deutlich grofier ist, ist die Datenmenge pro MIDI-Datenkanal dennoch auf die bisherigen 31,25 kBaud begrenzt. Damit sicliert m a n die Kompatibilitat mit den Geraten, die letztendlich angeschlossen werden. Dafiir konnen melirere MIDI-Datenkanale gleiclizeitig iibertragen werden. AuEerdem bietet die Ubertragung Mogliclikeiten der synchronen Ubertragung in sogenannten Clustern. Aucli iiber eine Ubertragung iiber das Internetprotokoll wird immer wieder nacligedaclit. Jedocli ist eine Umsetzung schwierig, da das Internet ProtokoU keine Mechanismen vorsieht, die garantieren konnen, dass das Timing und die Reilienfolge der Daten erhalten bleiben.
11.6.3 Die MIDI-Daten-Speicherung Die MM A hat ein Dateiformat definiert, mit dem MIDI-Daten gespeichert werden konnen. Die Aufzeichnung von MIDI-Daten wird von Sequencern iibernommen. Diese P r o g r a m m e haben alle auch eigene Funktionen, die sie zusammen mit den MIDI-Daten in proprietaren, also herstellereigenen, Formaten abspeichern. In jedem Fall kann m a n aber die reinen MIDI-Daten als Standard MIDI File exportieren und so auch in anderen Sequencern weiterverwenden. Standard MIDI Files gibt es in zwei Ausfiihrungen. Die einfachere speichert alle Daten in einer Spur, wahrend das komplexere Format mehrere Datenstrome in unterschiedlichen Spuren verwaltet. 11.6.4 MIDI-Erweiterungen W a h r e n d der MIDI-Standard selbst weitgehend unangetastet blieb, haben sich aus den Bediirfnissen der Anwender zahlreiche Erweiterungen entwickelt, die vor allem auf die Synchronisationsmoglichkeiten mit Audioaufzeichnungsgeraten und die Steuerung von Studio- und Live-Setups abzielen.
206
11 Aufnahme- & Ubertragungstechnik
11.6.4.1 MIDI Timecode Die MIDI Clock ist ein Taktgeber, der abhangig von der Geschwindigkeit des Songs ist. Es enthalt keine absolute Zeitinformation, wie es fiir den timecodeverkoppelten Betrieb im Studio notwendig ist. Auch der Song Position Pointer eignet sich dafiir niclit, denn auch er bestimmt die Songposition niclit nacli der Dauer sondern nacli der Anzahl der Sclilage. In der restlichen Studiowelt ist der SMPTE-Timecode das Standardformat fiir die zeitliche Kopplung unterscliiedlicher Gerate. Um die Sequencer mit den Bandmascliinen und der Mischpultautomation zu verkoppeln, benotigt man ein MIDI-Aquivalent des SMPTE - den MIDI Timecode, kurz MTC. Wie im Abschnitt 12.3.3 naclizulesen ist, besteht der SMPTE-Timecode pro Frame aus 80 Bits. Bei angenommenen 30 Frames pro Sekunde und 7 Datenbits pro Daten-Bytes, zuziiglich Start- und Stop-Bit und einem StatusByte ergibt das eine Datenmenge von etwa 3000 Bytes pro Sekunde, was 10% der gesamten Baud-Rate von MIDI ausmacht. Deslialb verzichtet man darauf, bei jedem Frame die gesamte Zeitinformation zu iibertragen, sondern iibertragt jeweils nur einen Teil davon. Ein solcher Teil ist das Quarter Frame. MTC Short Message - Quarter Frame Der Name Quarter Frame riihrt daher, dass pro Frame des Timecodeformats 4 Quarter Frames iibertragen werden. Insgesamt 8 Quarter Frames sind notwendig, damit die Timecodeinformation voUstandig iibertragen wird. Das hat mehrere Konsequenzen. Zum Einen sinkt mit der Ubertragungsrate auch die maximale zeitliche Auflosung, zum Anderen muss klar sein, welche Information jeweils iibertragen wird. Das ist auch deshalb wichtig, well ein Timecode sowohl vorwarts, als auch riickwarts funktionieren muss. Jedes Quarter Frame besteht aus einem Status-Byte. Dieses Status-Byte ist fiir alle Timecodebestandteile gleich. Das folgende Daten-Byte stellt wie iiblich 7 Bit zur Informationscodierung bereit. Die drei ersten Bits schluckt allerdings die Kennung der acht verschiedenen Quarter Frames. Damit bleibt pro Datenbyte ein effektiver Wertebereich von nur 4 Bit und damit 16 unterschiedlichen Werten. Da das nicht ausreicht, werden zwei Quarter Frames fiir jeden Teil der Zeitinformation zusammengefasst. Von den verfiigbaren 8 Datenbits fiir die Stunden werden zwei Bits darauf verwendet, die Anzahl der Frames pro Sekunde festzulegen. Unterstiitzt werden die Formate 24, 25, 30 und 30DF. Das Prinzip der Quarter Frames reduziert die Datenmenge pro Sekunde um etwa 30%. Dafiir kann erst nach 2-3 Frames eine verbindliche Aussage iiber den genauen Timecode gemacht werden. Das hat Auswirkungen auf die Lock-Zeiten im Slave-Betrieb. Da es ab der Ubertragung der Framezahl noch fast zwei Frames dauert, bis die gesamte Zeitinformation vorliegt, ist der Framewert bereits iiberholt. MTC zahlt die Frames deshalb auch nur in Zweierschritten. Die maximale zeitliche Auflosung des Systems liegt bei einem viertel Frame. Bei SMPTE handelt es sich um einen kontinuierlichen Datenstrom, bei dem auch die einzelnen Bits zur Synchronisation verwendet
11.6 Aufzeichnung von Steuerbefehlen
207
werden konnen. Das Short Message Format funktioniert nur, wenn das System lauft. Wenn es steht, dann konnte imnier nur ein Bruchteil der Zeitinforniation iibertragen werden, was als Synchronisationsinformation natiirlich nicht ausreicht. Fiir diesen Fall gibt es auch die MTC Full Messages. MTC Full Message MTC Full Messages werden als SysEx-Daten iibertragen. Sie entlialten die gesamte Zeitinformation in insgesamt 10 Bytes, einschlie£lich des SysEx-Startund Ende-Bytes. Sie werden gesendet, wenn das System steht. 11.6.4.2 M M C - MIDI Machine Control Mit MIDI Machine Control konnen die Laufwerksfunktionen (digitaler) Aufzeichnungsgerate gesteuert werden. Im Gegensatz zu den System Real-Time Messages Start, Stop und Continue werden MMC-Befehle an ein bestimmtes Gerat gesendet. Reahsiert ist dieses ZusatzprotokoU in Form von UniversalRealtime-System-Exclusive-Daten. Diese beginnen mit dem Statusbyte OxFO fiir die SysEx-Ubertragung, gefolgt von der Kennung der Realtime-Anforderung, der Devicekennung und der Unterscheidung zwischen MCC- und MCRNachrichten. MCC steht fiir Machine Control Command und MCR fiir Machine Control Response. Die angesprochenen Gerate konnen also auf die Anforderungen antworten. Dahinter folgen die Befehle und die SysEx-Ubertragung wird mit EOX beendet. Neben den einfachen Laufwerksfunktionen Start und Stop unterstiitzt MMC auch vor- und zuriickspulen, Punch In/Out, spurweises Record Ready/Safe sowie das Anfahren von Locator-Punkten. 11.6.4.3 MIDI Show Control Die MIDI Show Control ist ein ProtokoU, mit dem Lichtanlagen und pyrotechnische Effekte ferngesteuert werden konnen. Die entsprechenden Effekte lassen sich von einem Sequencer aufnehmen und wiedergeben. Ausgefiihrt ist MSC als Folge von SysEx-Realtime-Daten. Ein Statusbyte beginnt die SysExUbertragung. Danach folgt die Realtimekennung, die anzeigt, dass die Befehle einen zeitlichen Bezug haben. Danach wird das Gerat spezifiziert, das angesprochen werden soil. Erst danach kommen die entsprechenden Anweisungen. Mit der EOX-Message wird die Nachricht beendet. 11.6.4.4 General MIDI (GM) Direkt verbunden mit der Moglichkeit, MIDI-Daten platzsparend zu speichern ist der Wunsch, die erstellten Arrangements an einem anderen Ort mit vergleichbaren Instrumenten wieder abzuspielen. Dafiir sorgt der General-MIDIStandard, der die Instrumente und Gerausche fiir bestimmte Programmplatze
208
11 Aufnahme- & Ubertragungstechnik
festlegt. Per se ist die Progranimnunimer nicht niit eineni bestimniten Instrument verkniipft. Neben General MIDI gibt es Herstellerstandards, die zu GM abwartskompatibel sind aber zum Teil weitere Festlegungen ermoglichen, zum Beispiel eine grofiere Instrumentenanzahl. Bekannter Vertreter fiir eine solche Erweiterung ist der General Standard von Roland. General MIDI 1 General MIDI definiert 128 Progranimplatze fiir Instrumente und Gerausche, sowie 47 Sclilagzeugklange von der Bass Drum bis zur Triangel. Zusatzlicli zu den festgelegten Programmplatzen miissen Gerate 16-facli multitimbral sein, also gleichzeitig auf alien Kanalen polyphon gespielt werden konnen. Kanal 10 ist fiir die Sclilagzeugklange reserviert. GM kompatible Gerate haben mindestens 24 Stimmen. Dabei miissen mindestens 16 Stimmen fiir die Melodie und mindestens 8 Stimmen fiir das Schlagwerk zur Verfiigung stehen. General MIDI 2 1999 wurde mit GM2 ein neuer Standard veroffentlicht, der weitere Anforderungen an die kompatiblem Gerate stellt. Die Anzahl der Stimmen wurde auf 32 heraufgesetzt. Parallel zu Kanal 10 kann nun auch Kanal 11 fiir Schlagzeugklange genutzt werden. Hinzu kommen Control Change Messages zur Manipulation der Hiillkurve, der Lautstarke und des Panoramas sowie Vibrato und Effektsends. Hall- und Chorus-Parameter sind iiber SysEx-Daten iibertragbar. Die Stimmung kann iiber MIDI verandert werden. General MIDI Lite Dabei handelt es sich um eine Spezifikation fiir Gerate, die mit einem reduzierten Funktionsumfang arbeiten, wie beispielsweise Mobiltelefone, die MIDIDateien als Klingeltone abspielen konnen. 11.6.4.5 Downloadable Sounds (DLS) General MIDI ermoglicht einen Uberblick iiber die Instrumentierung eines Stiicks, es ist aber kaum geeignet, ein auch klanglich vergleichbares Ergebnis auf verschiedenen Geraten zu garantieren. Denn wie die einzelnen Instrumente klingen miissen, ist im GM-Standard nicht definiert. GM beschrankt die Instrumentenauswahl auf die Naturinstrumente und wenige synthetische Klange. Moderne elektronische Musik arbeitet aber gerade mit moglichst neuartigen Klangen, um ungewohnte Klangwelten zu schaffen. Oft passiert das auf Basis von geloopten Samples - kurzen Klangfetzen, die in einer Schleife abgespielt werden - und den fiir Synthesizer iiblichen Klangmanipulationsmechanismen. Downloadable Sounds ist ein Standard, der dieses Szenario transportabel machen mochte. Dazu werden die Samples zusammen mit Filterinformationen an das Empfangsgerat iibertragen, so dass eine weitgehende klangliche
11.6 Aufzeichnung von Steuerbefehlen
209
Ahnlichkeit gewahrleistet ist. Initiale Zielgruppe war dabei nicht einmal die professionelle Musikproduktion, sondern Entwickler von Computerspielen und Soundkarten. Mittlerweile liegt auch die DLS-Spezifikation in einer neuen Version vor. Die Erweiterbarkeit des Standards war von Anfang an eine zentrale Anforderung, daniit er mit der technologischen Entwicklung Schritt halten kann. DLS-1 DLS der ersten Generation verlangt von kompatiblen Geraten einen Speicher, der groi^ genug fiir Zweihundertsechundfiinfzigtausend Sampleworter ist. Bei einer Wortbreite von 16 Bit entspricht das 5 1 2 K B . GM und DLS miissen parallel genutzt werden konnen und die MIDI-Kanale untereinander aufteilen. Fiir Schlagzeugsounds ist der Kanal 10 vorgesehen. DLS ist in einer flexiblen Baunistruktur organisiert. Die oberste Ebene bilden die Instrumente. Ein DLS-kompatibles Gerat muss mindestens 128 Instrumente unterstiitzen. Der Spielbereicli des Instruments wird in sogenannte Regions aufgeteilt. Regions gelten jeweils fiir einen definierten Ton- und Velocitybereich. Melodieinstrumente konnen bis zu 16 Regions ausweisen, fiir Sclilaginstrumente sind bis zu 128 Regions vorgesehen. Jede Region wird mit einer Sampledatei verkniipft. Die Artikulationsanweisungen gelten fiir Melodieinstrumente global und fiir Sclilaginstrumente pro Region. Artikulationsanweisungen betreffen einen LFO, zwei separate Hiillkurvengeneratoren und verschiedene MIDI Controller. DLS-2 In der derzeit aktuellen Version 2.2 liegen die Anforderungen an konipatible Gerate deutlich hoher. Die Speicheranforderung wurde erheblich erweitert, die Hiillkurvengeneratoren miissen DAHDSR-Hiillkurven (Delay - Attack Hold - Decay - Sustain - Release) verarbeiten. Gesteuert werden neben den Standard-MIDI-ControUern auch zwei LFOs und ein Tiefpassfilter mit Resonanz und dynamischer Grenzfrequenz'*. 11.6.5 M I D I S e q u e n c e r Sequencer sind die eigentlichen Aufzeichnungsgerate fiir MIDI-Daten. W a h rend in der Anfangszeit von MIDI noch mehrere reine MIDI Sequencer auf dem Markt waren, verarbeiten die heutigen Systeme aUe sowohl MIDI als auch Audiomaterial. Je nach Arbeitsschwerpunkt kann m a n aber zwischen P r o g r a m m e n mit ausgefeilten MIDI oder Audiobearbeitungsfunktionen auswahlen. Neben der Aufnahme und Widergabe von MIDI-Daten sind die Editoren ein ganz wichtiger Aspekt der Sequencer. Da kein Audio aufgezeichnet wird, vgl. http://www.midi.org/about-midi/dls/dls2spec.shtmI
210
11 Aufnahme- & Ubertragungstechnik
sondern nur Steuerbefehle, lassen die sich nachtraglich beliebig editieren. Die Korrektur aller Parameter wie Tonhohe, Dauer und Lautstarke lassen sich liber unterschiedliche grafische Editoren bearbeiten. Tone konnen auch jederzeit ganz geloscht werden, was bei einer Audioaufnahme so nicht moglich ist. Eine weitere Aufgabe der Sequencer besteht im Notendruck. Auch hier gibt es Programme, die ihren Schwerpunkt im Notensatz sehen. Sie haben dann meist nur rudimentare Sequencerfunktionen und oft auch keine Audio-Anbindung. Grundlegende Notensatzfunktionen stellen aber alle Sequencer bereit. Nicht zuletzt ist der Sequencer das Werkzeug zur Verwaltung der Studioumgebung. MIDI-Verbindungen werden in der Software geschaltet. MIDI-relevante EinsteUungen an den Gerate sind so weitgehend iiberfliissig. Die Integration der Sequencerfunktionen in eine DAW hat den Vorteil, dass Sequencer und DAW nicht extern miteinander synchronisiert werden miissen. Auch die Speicherung der Daten geschieht gemeinsam. Die Organisation der Spuren unterscheidet nicht zwischen Audio und MIDI-Material, so dass man mit nur einem Mischpult und nur einer grafischen Oberflache arbeitet. 11.6.6 MIDI Setup MIDI Setups konnen behebig komplex werden. Dabei ist die Grundidee, eine Tastatur mit einem Klangerzeuger zu verbinden denkbar einfach. nl
° Expander 1 ° thru in
° Expander 2 °
llllUlllllllllll
Abb. 11.17. Expander werden von einem Masterkeyboard gesteuert. Mochte man aufnehmen, was man spielt, und kommt eventuell ein weiterer Klangerzeuger dazu, dann wird das Setting bereits komplizierter. Die beiden Gerate konnten kettenformig miteinander verkabelt werden. Dazu verbindet man den MIDI Through des ersten Gerats mit dem MIDI In des Zweiten. Das verursacht aber durch die Aufbereitung im Optokoppler eine hohere Latenz. Bei zwei Geraten kann sie noch getrost vernachlassigt werden, aber wenn noch mehr Gerate dazu kommen, dann empfiehlt sich eine sternformige Verkabelung mittels einer Through-Box, die einen Eingang, aber mehrere Ausgange bietet. Viele MIDI Interfaces bieten heute aber bereits mehrere Ausgange an, mit denen zwei Aste aufgebaut werden konnen. Der umgekehrte Fall, dass mehrere Ausgange auf einen Eingang gelangen soUen, ist mit einer sogenannten MergeBox zu bewerkstelligen. In typischen Studios kommt eine Audio-Anbindung dazu, moglicherweise auch zusatzliche Bildzuspieler und eine Timecodeverkopplung. Die restlichen
11.6 Aufzeichnung von Steuerbefehlen
211
Expander 1 thru
]Splilbox|
thru Expander 2 Sequencerl
IlilllUlllllllll A b b . 11.18. Setup zur Aufzeichnung und Wiedergabe von Musik.
Gerate konimen ohne Zeitinforniation aus, da sie j a synchron mit dem Sequencer laufen. Audioseitig werden die analogen Quellen und die Audio-Ausgange des Expanders mit dem Mischpult verbunden. Die Expander laufen inimer synchron mit, ihre Audioausgange werden also niclit aufgezeichnet. Die DAW ist iibliclierweise eine Kombination aus Sequencer und Audiosoftware.
" Mischpult out
Expander 1
SMPTE
thru
out|
]Splitbox| thru in Expander 2
1 1 / ^ ^ " ^ -
i^tr^
UlllllllllUllll
— I Synchn
DAW
I
a
0
iVITC
r Video I
Audio MIDI Timecode
A b b . 11.19. Tonstudiosetup mit Synchronisation und Audioanbindung.
12 Synchronisation
Synchronisation allgemein bedeutet, dass zwei oder mehr Gerate in der Lage sind, im Einklang aufzunehmen oder abzuspielen. Wie das allerdings realisiert wird, und welche Moglichkeiten und Fehlerquellen damit verbunden sind, ist ganz unterschiedlich. In einer Studioumgebung findet man denn auch nicht nur eine einzelne Synchronisationsart, sondern fast inimer eine Konibination niehrerer Verfahren. Die Notwendigkeit zur Synchronisation reicht zuriick zu den Anfangen des Tonfilms. Hier mussten das erste Mai Gerate synchronisiert werden, weil die Inforniationen plotzlich auf mehrere Tragerniedien verteilt waren. Heute miissen noch weitere Systeme miteinander verkoppelt werden. Audio- und MIDI-Rekorder sind unter Unistanden getrennt und miissen synchron laufen. Auch die Mischpultautomation muss niit der Aufnahmetechnik synchronisiert werden, damit die Mischpulteinstellungen im richtigen Moment umgestellt werden. Eine zeithche Kopplung kann starr oder flexibel sein. Starre Verfahren geben Aufschluss iiber die Abspielrichtung und die Geschwindigkeit. Die einmal hergesteUte Synchronitat muss wahrend der Mischung erhalten bleiben. Die Synchronitat lasst sich nur am Anfang der Mischung herstellen. Flexible Verfahren haben zusatzhch absolute Zeit- beziehungsweise Positionsangaben. Dadurch wird ein wahlfreier (flexibler) Zugriff moglich. Bei den starren Verkopplungen spricht man von einem Takt, bei den flexiblen von einem Timecode oder von einem Song Position Pointer. Die Synchronisation muss sichersteUen, dass aUe Gerate gleichzeitig denselben Abschnitt des Materials abspielen. Das bedeutet, dass der Timecode etwaige Gleichlaufschwankungen der Gerate abbilden muss und die angeschlossenen Gerate in der Lage sein miissen, ihr Abspieltempo entsprechend dynamisch anzupassen. Auch iiber Spulvorgange oder Spriinge bei digitalen Systemen muss der Timecode zumindest naherungsweise Auskunft geben. Eine weitere Kernanforderung an die Verkopplung ist, dass sich die Synchronitat jederzeit wiederherstellen lasst. Dazu muss mit jedem Medium die Zeitinformation fest verkniipft sein.
214
12 Synchronisation
12.1 Takt Der Takt ist eine periodische Pulsfolge. Die Frequenz ist dabei vorgegeben. Daher lasst sich aus dem Abstand der einzelnen Impulse eine Aussage iiber die Abspielgeschwindigkeit treffen. Ein Takt wird im englischen eine Clock genannt. Zuniindest bei den elektronisclien Vertretern. Beginnen soil die Betraclitung allerdings bei einem mechanisclien Taktgeber - der Perforation. 12.1.1 Perforation Die Synchronisation ist ein Geschopf des Films und so ist es nicht verwunderlich, dass die Synchronisation zuerst Hilfsmittel verwendete, die beim Film bereits verwendet wurden. Die Magnetbander, auf denen der Filmton aufgezeichnet wird, haben dieselben Mafie wie das Filmmaterial selbst. Gangige Gr6£en sind also 16 m m und 35 mm^. Die Perforation ist bei 16 m m einseitig, mit einem Loch pro Bild. Bei 35-mm-Filmen und Tonbandern gibt es 4 Perforationslocher pro Bild. Die iibliche Transportgeschwindigkeit sind iibrigens bei dem klassischen Kino-Format von 35 m m 24 Bilder pro Sekunde, wahrend 16 mm-Filme eher fiir das Fernsehen gemacht werden und deshalb mit 25 Bildern pro Sekunde laufen. Die Perforation dient dem Antrieb des Films, genauso wie der Capstan einer Bandmaschine. Durch die Lochung ist aber der Vortrieb genau definiert. Beim Capstan besteht immer die Moghchkeit, dass das Band verrutscht. Vor allem bei haufigem Wechsel der Transportfunktion, also dem Umschalten von Wiedergabe in den Spulmodus und zuriick. Das wiirde auf Dauer aber eine Asynchronitat nach sich ziehen. Durch die Perforation lasst sich jede Maschine also bildgenau einstellen. Um Synchronitat zu erreichen, bedarf es aber noch der Moghchkeit, beide Maschinen mit derselben Geschwindigkeit laufen zu lassen. Mechanisch wurde das Problem gelost, indem die Zahnrader, die fiir den Antrieb sorgten, auf derselben Welle montiert waren. So mussten sich alle Medien mit derselben Geschwindigkeit fortbewegen. Das war fiir wenige Maschinen praktikabel, aber mechanisch aufwandig und schlecht erweiterbar. Deshalb wurden spater elektrische Verfahren eingesetzt. Durch die einheitliche Bewegung ist die erste Anforderung erfiillt, dass aUe angeschlossenen Maschinen synchron laufen. Die spatere Reproduzierbarkeit ist aber noch nicht gegeben. Bild- und Tonbander werden deshalb mit einem Vorspann versehen. Mithilfe dieses Vorzahlers konnen Bild- und Tonband aufeinander synchronisiert werden. Ohne den Vorspann bedient m a n sich Aufklebern, mit denen der S t a r t p u n k t auf der Bandriickseite vermerkt wird. Ist die Einstellung vorgenommen, dann wird die Kopplung aktiviert und alle Maschinen bewegen sich fortan synchron. Geht die Synchronitat verloren, dann lasst sie sich nur dadurch wiederherstellen, dass alle Bander auf den Anfang zuriickgespult und neu aufeinander synchronisiert werden. ^ Dazu kommt noch das ,abgespeckte' 17,5 mm-Format.
12.1 Takt
215
12.1.2 Biphase Urn mehrere Gerate synchron zu betreiben, die baulich getrennt voneinander sind, iibertragt ein Gerat Informationen iiber die Rotation seiner Antriebswelle - es geht immernoch um perforierte Bander - an die angeschlossenen Gerate. Durch die Perforation bedeutet eine Umdrehung der Antriebswelle einen eindeutigen Vortrieb des Bandes. Das Steuersignal ist eine Rechteckspannung, die aus der Rotation der Welle generiert wird. Damit beriicksichtigt sie auch die Gleichlaufschwankungen des Masters. Da es sicli liier nur um eine Geschwindigkeitsinformation handelt, ist auch liier die Markierung der Startund Endpunkte sowie die durcligehende Verkopplung unabdingbar. 12.1.3 Pilotton 19-kHz-Pilott6ne gibt es in der UKW-Ubertragung. Dieser Pilotton ist liier aber nicht gemeint. Fiir die Synchronisation werden Pilottone verwendet, die lediglich in Netzfrequenz schwingen. Das sind in Deutschland 50 Hz. Tonaufnahmen bei Filmproduktionen werden am Set nicht auf Perfoband gemacht. Die Maschinen waren viel zu unhandlich, um sie mitzunehmen. Mittlerweile kommen vorwiegend digitale Aufzeichnungsgerate zum Einsatz, die einen Timecode ausweisen. Davor waren es transportable Tonbandmaschinen, die mit 1/4-Zoll-Bandern bestiickt waren. Um diese nicht perforierten Bander zu takten - und die Gleichlaufschwankungen der Aufnahmemaschine zu erfassen wurde ein Pilotton auf eine schmale dritte Spur aufgezeichnet, der von einem quarzgenauen Taktgenerator erzeugt wurde. Dieser Pilotton steuerte spater den Perfolaufer, auf den der Ton fiir die weitere Bearbeitung iiberspielt wurde. 12.1.4 Word Clock Auch digitale Systeme miissen getaktet werden. Das ist einmal erforderhch, um taktbedingte Ubertragungsfehler - sogenannte Jitter - auszuschlie£en, zum anderen haben die digitalen Worter eine bestimmte Breite, daher muss ersichthch sein, wo ein Wort beginnt, und wo es endet. Die Word Clock hangt deshalb von der Sampling-Frequenz ab. Digitale UbertragungsprotokoUe konnen selbsttaktend sein. Sie iibertragen den Takt also mit ihrem Signal, so dass eine eigene Word Clock nicht zwingend notwendig ist. Die ergibt sich unter Umstanden erst durch die Zusammenstellungen einer Studioumgebung. Das erste Gerat in der Ubertragungskette gibt immer den Takt vor. Die nachfolgenden Gerate miissen extern getaktet werden. Wenn man also von einem digitalen 8-Spur-Rekorder digital in das Mischpult geht und die Stereomischung auf DAT aufnehmen mochte, dann wird der 8-Spur-Rekorder intern, das Mischpult und der DAT-Rekorder extern getaktet. Problematisch wird es jedoch, wenn zwei Mehrspurmaschinen gleichzeitig
216
12 Synchronisation
abspielen sollen. Dann miissen diese auch aufeinander synchronisiert werden. Hier kommt die externe Word Clock ins Spiel. Ein zentraler Taktgeber erzeugt den Takt in der gewiinschten Samplingfrequenz und verteilt ilin an alle angeschlossenen Gerate. SoUten einzelne Cerate keinen Word-Clock-Eingang liaben, dann konnen sie nacli wie vor extern getaktet werden, sofern sie ein selbsttaktendes Signal von einer zentral getakteten Komponente erhalten. Der Word-Clock-Eingang ist in der Regel ein BNC-Anschluss. 12.1.5 MIDI Clock Die MIDI Clock ist ein Taktgeber, der sich nacli dem Tempo des Songs richtet. Jede l/96tel Note wird ein Takt erzeugt. Das bedeutet, dass es sich im Gegensatz zu Pilotton und Word Clock nicht um eine absolute zeitliche Gr6£e handelt. Melir zu MIDI stelit im Abschnitt 11.6. 12.1.6 Selbsttaktende Codierung Es wurde bereits angedeutet, dass digitale Signale selbsttaktend sein konnen. Dahinter steckt die Codierung. Ein Takt bestelit aus periodisclien Impulsen. Ein digitales Wort wird aus einer beliebigen Folge binarer Ziffern gebildet. Bei der Codierung wird die digitale Information in ein elektrisches Signal umgewandelt. Dabei gibt es verscliiedene Verfahren, von denen diejenigen selbsttaktend sind, die eine periodisclie Pulsfolge erzeugen. Die einfacliste Codierung stelit die digitalen Werte durcli zwei Spannungszustande dar. 0 entspriclit einer Signalspannung von 0 Volt, 1 einer von zum Beispiel 5 Volt. Lange Ketten gleicher Werte wiirden dazu fiiliren, dass das Signal lange Zeit auf einem Potential verbleibt. Damit fehlt der Puis und das System gerat aus dem Takt. Das Verfahren hat aber noch einen weiteren Nachteil, der allerdings nichts mit der Synchronisation, sehr wohl aber mit der Aufzeichnung von Timecode-Signalen zu tun hat. In der Zeit der Magnetaufzeichnung wurde Timecode auf eine Spur der Bandmaschine aufgezeichnet. Jede Bandmaschine kann eine bestimmte Signalbandbreite verarbeiten. Wie das Beispiel der direkten Umsetzung digitaler Werte in Spannungen zeigt, ist geht die Bandbreite von 0 Hz bis halben Datenrate. Dieser grofie Bereich lasst sich durch die Codierung bis auf eine Oktave reduzieren. Eine selbsttaktende Codierung ist der Biphase Mark Code. Hier wird am Anfang jedes Bits die Polaritat geandert. Ist das Bit gesetzt, findet eine zweite Anderung in der Mitte des Bits statt. Eine lange Abfolge von Nullen fiihrt also zur niedrigsten Frequenz, eine lange Folge gesetzter Bits liegt genau eine Oktave dariiber. Da jedes Bit durch einen Spannungswechsel eingeleitet wird, verfiigt das Signal iiber die periodische Pulsfolge, die einen Takt auszeichnet. Der SMPTE Timecode, um den es spater in diesem Kapitel gehen wird, verwendet fiir die Aufzeichnung eben diesen Biphase Mark.
12.3 Timecode
217
12.1.7 Taktfehler - Jitter Jitter ist ein Problem digitaler Systeme, das auf Taktfehler zuriickgelit. Dabei schwankt der Takt in engen Grenzen um den idealen Zeitpunkt. Die zeitliclie Differenz ist nicht horbar. Das Problem des Jitters liegt aber darin, dass er sicli auf die Frequenz des Signals auswirkt. Wird bei der Abtastung ein Wert zu friili ermittelt, spater aber wieder zum riclitigen Zeitpunkt abgespielt, ist die resultierende Frequenz zu niedrig. Jitter lassen sich wiedergabeseitig eliminieren, indem man das Signal durch hocliprazise Taktgeber auf den Eingang des DA-Wandlers gibt. Aufnalimeseitig miissen Jitter unbedingt verhindert werden, da sich Fehler, die dort passieren nicht mehr aus dem Digitalsignal entfernen lassen.
12.2 Song Position Informationen iiber die Song Position gibt es in der MID I-Welt. Dort liegt jedem Arrangement eine Tempo- und Taktmafiinformation zu Grunde, die es erlaubt, Schlage und Takte im Stiick zu zahlen. Auf dieses rhythmische Geriist muss man bei der Audio-Aufzeichnung verzichten. Am nachsten kommt dem noch der Klick-Track, also eine Metronomspur, die auf die Mehrspurmaschine aufgezeichnet wird. Sie ist allerdings fiir eine wirkliche Synchronisierung zu ungenau. Die bereits erwahnte MIDI Clock taktet ja bereits 96 Mai pro Schlag. MIDI-Daten werden in Sequencern gespeichert und verarbeitet. Dazu hat man die Zeitleiste auf dem Bildschirm und kann jeden beliebigen Punkt durch einen Klick ansteuern. Dieser wahlfreie Zugriff ist ein mafigeblicher Grund dafiir, dass die Arbeit an digitalen Workstations schneller vonstatten geht. Allerdings scheidet dadurch eine starre Verkopplung aus. Das MIDI ProtokoU bietet eine Moglichkeit, Befehle zur Positionierung zu senden. Das ist der Song Position Pointer. Die Songposition bemisst sich in Takten und Schlagen. Die absolute Zeitposition ist vom eingestellten Tempo abhangig. Je schneller ein Stiick gespielt wird, desto friiher wird ein bestimmter Takt erreicht. Da die Taktinformation nur fiir MIDI-Gerate verfiigbar ist, lassen sich heterogene Systeme aus getrennten MIDI- und Audiokomponenten nicht iiber die Songposition synchronisieren.
12.3 Timecode Ein Timecode enthalt eine absolute Zeitinformation. Sie wird kontinuierlich iibertragen, so dass eine flexible Verkopplung der Gerate untereinander moglich ist. Zu jedem Zeitpunkt kann ein weiteres Gerat auf den aktuellen Timecode synchronisiert werden. Das Standard-Timecodeformat ist der SMPTE Timecode.
218
12 Synchronisation
SMPTE steht fiir Society of Motion Picture and Television Engineers und deshalb orientiert sich das Format wiederum an der Arbeit mit bewegten Bildern, was aber fiir die Synchronisation von Audio-Systemen kaum Nachteile hat. Die Zeit wird im Format hh:mm:ss:ff dargesteUt. Neben Stunden, Minuten und Sekunden wird auch die Anzahl der Bilder (Frames) angezeigt. Welche Framerate benutzt wird, ist fiir die Synchronisation mit Bildmedien wichtig, die mit einer festgelegten Anzahl Bildern arbeiten. Fiir reine Audioanwendungen ist sie nebensachlich. Meist wird die hochste Bildrate gewahlt, da sie die grofite Genauigkeit bietet. Die Synchronisationsprazision ist nicht nur bildgenau. Technisch handelt es sich bei dem Timecodesignal um einen Bitdatenstrom. Die Bits eines selbsttaktenden Signals konnen zur weiteren Differenzierung verwendet werden. 12.3.1 Bildraten Die Bildrate des Timecodes muss auf die Bildrate des jeweiligen Mediums angepasst werden. Dazu stehen mindestens vier, meistens fiinf Varianten zur Auswahl: Tabelle 12.1. Bildraten und ihre Verwendung. Bildrate (fps - Frames per Second) Verwendung ^4 Kino 25 Fernsehen Europe (PAL/SECAM) 30 Audio, SW-Fernsehen Amerika 30 DF (29,97 fps) Farbfernsehen Amerika (NTSC) 29,97 NDF NTSC-ahnlich fiir digitale Systeme
Die 24 Bilder des Kinoformats sind ein Kompromiss zwischen Wirtschaftlichkeit und den menschlichen Wahrnehmungsgrenzen. So soUen die Kosten fiir das Filmmaterial begrenzt werden, zugleich miissen aber ausreichend viele Bilder pro Sekunde abgespielt werden, dass der Eindruck eines bewegten Bildes entsteht und storende Effekte wie das Grofiflachenflimmern und das Kantenflackern minimiert werden. Diese Norm auch fiir das Fernsehen zu iibernehmen lag nahe, man hat sich aber aus technischen Griinden fiir eine Variation entschieden und die Bildrate an die Frequenz des Wechselstromnetzes im jeweiligen Land angepasst. Bei der Einfiihrung des Farbfernsehens musste die zusatzliche Farbinformation im Videosignal untergebracht werden. In Europa schaffte man das, ohne die Bildrate zu verandern. Bei NTSC musste man jedoch die Bildrate geringfiigig andern. Der SMPTE Timecode kann nur ganze Frames zahlen. Deshalb werden einzelne Bilder iibersprungen. Die ersten beiden Frames einer Minute werden ausgelassen, allerdings nicht wenn der Wert fiir die Minute mit 0 endet. Die ,verlorenen' Frames dienen lediglich der Spielzeitkompensation. Natiirlich werden keine Bilder des Programms verworfen. Aber dadurch, dass mehr
12.3 Timecode
219
Tabelle 12.2. Timecode-Ablauf bei Drop Frame und Non Drop Frame Formaten. aktueller Timecode 09:59:59:29 10:01:59:29 10:02:59:29 .. . 10:09:59:29 folgender Timecode 30 DF 10:00:00:00 10:02:00:02 10:03:00:02 .. . 10:10:00:00 folgender Timecode 29,97 NDF 10:00:00:00 10:02:00:00 10:03:00:00 .. . 10:10:00:00
Bilder pro Sekunde gezahlt werden, als vorhanden sind, weicht die Timecodedauer von der Spielzeit ab. Mit dieser Kompensation wird imniernoch eine urn bis zu 2 Frames abweichende Spielzeit angezeigt. Das ist aber in den meisten Fallen tolerabel. Die exakte Darstellung der Spielzeit kann m a n nur dadurch erreichen, dass m a n die Frames verkiirzt. Dadurch erhalt m a n wieder einen durchgehenden Timecode, der fiir digitale Systeme gerne verwendet wird. 12.3.2 D i e Timecodeaufzeichnung Die Zeitinformation - und was sonst noch im S M P T E Timecode untergebracht ist - kann auf drei Arten iibertragen und aufgezeichnet werden. 12.3.2.1 LTC - Longitudinal T i m e c o d e Die Aufzeichnung erfolgte auf Bandmaschinen, die fiir die Audioaufzeichnung konzipiert waren. Deshalb musste der Timecode so entworfen werden, dass er als Wechselspannung im Ubertragungsbereich aufgezeichnet werden konnte. Letztlich besteht der Timecode aus 80 Bit pro Frame, codiert wird als Biphase Mark. Damit schwankt das Signal zwischen 40 und 80 Hz pro Frame. Bei 24 bis 30 Frames pro Sekunde ergibt das eine minimale Frequenz von 24-40 = 960 Hz und eine maximale Frequenz von 30 • 80 = 2400 Hz. Beide Frequenzen liegen deuthch im Ubertragungsbereich selbst schlechter Bandmaschinen, so dass die Aufzeichnung keine Probleme bereitet. Einige Stereo-Bandmaschinen konnen den Timecode auf einer sehr schmalen Mittenspur aufzeichnen. Longitudinal bezieht sich auf die Langsspuraufzeichnung. Er kann also auf eine normale Audiospur einer Mehrspur-Bandmaschine aufgezeichnet werden. Man bevorzugte die Randspuren, well dort die Audioqualitat geringer ist, was fiir die Ubertragung des Timcode nicht so sehr ins Gewicht fallt. Der Vorteil des LTC ist, dass er den Rest der Aufnahme nicht stort. AUe anderen Spuren werden von der Timecode-Spur nicht beeinflusst. Deshalb kann er nachtraglich geandert werden. Negativ ist der Umstand, dass der Timecode nur ausgelesen werden kann, wahrend die Bandmaschine lauft. 12.3.2.2 V I T C - Vertical Interval T i m e c o d e Der Vertical Interval Timecode wird bei der Schragspur-Videoaufzeichnung verwendet. Auch wahrend Standbilder gezeigt werden, wird der Timecode durch die rotierende Kopftrommel kontinuierlich ausgelesen und ausgegeben.
220
12 Synchronisation
12.3.2.3 M T C - M I D I Timecode Der MIDI Timecode iibersetzt die Daten des S M P T E Timecodes in ein fiir das MIDI-ProtokoU geeignetes Format. MIDI Timecode und S M P T E Timecode konnen ineinander konvertiert werden. Entsprechende Synchronisationseinheiten iibernehmen diese Aufgabe und verkoppeln die Audio- mit der MIDI-Welt. Obwohl die iibertragene Zeitinformation bei beiden Formaten dieselbe ist, ist die zeitliche Auflosung beim M T C deutlich geringer. Es handelt sich namlich nicht um einen konstanten Bitdatenstrom, sondern um einzelne Blocke, die Teile der aktuellen Zeit iibertragen. Deshalb kann nicht jedes einzelne Bit fiir die Synchronisation genutzt werden, sondern nur jeweils ein Blockanfang, den es vier Mai pro Frame gibt. M T C generiert auch bei stehendem System in regelma£igen Abstanden Zeitnachrichten, die am Interface ausgegeben werden. 12.3.3
SMPTE-Timecode
Ein Mediengestalter wird sich kaum fiir jedes einzelne Bit interessieren, das im Datenstrom enthalten ist. Den Aufbau des Codes zu kennen ist aber hilfreich fiir das Verstandnis der Moghchkeiten des Systems. Das soU am Beispiel des LTC erfolgen. Der Aufbau des V I T C unterscheidet sich davon in einigen P u n k t e n , zum Beispiel durch die Erweiterung um eine Priifziffer. Der MIDI Timecode wird im Abschnitt 11.6.4.1 genauer beschrieben. 12.3.3.1 D a t a Bits In den D a t a Bits sind die eigentlichen Zeitinformationen gespeichert.
Tabelle 12.3. Data Bits im Datenstrom. Bits 0-3 8-9 16-19 24-26 32-35 40-42 48-51 56-57
Daten Frames Einerstelle Frames Zehnerstelle Sekunden Einerstelle Sekunden Zehnerstelle Minuten Einerstelle Minuten Zehnerstelle Stunden Finer Stunden Zehner
Wertebereich 0-9 0-2 0-9 0-5 0-9 0-5 0-9 0-2
Der Timecode zahlt bis 24 Stunden. Das diirfte aber auch fiir die meisten Anwendungsfalle ausreichend sein. Nach dieser Zeit springt er wieder auf den Anfang und beginnt von Neuem. Dieser Sprung hat eine Konsequenz. Namlich die, dass der Timecode immer mit einem Offset versehen wird. Man beginnt also die Aufzeichnung nicht bei 0, sondern beispielsweise bei einer Stunde. So
12.3 Timecode
221
kann m a n spater neue Telle davor setzen, wenn das notlg 1st. Aufierdem konnte das Zuriickspulen liber den NuUpunkt hlnaus zu Irrltatlonen fiihren, wenn die angeschlossenen Gerate plotzllch 23 Stunden und 59 Mlnuten vorspulen wollen, a n s t a t t elne Minute zurlick. Der Offset 1st fiir jedes Band oder sonstlges Aufzelchnungsmedlum belleblg. Beglnnt eln Band bel elner, das nachste bel zwel Stunden, dann konnen die belden Maschlnen iiber den Offset niltelnander verkniipft werden. Neben der Zeltlnformatlon glbt es verschledene elnzelne Bits, die weltere Inforniatlonen enthalten. 12.3.3.2 User Bits Der Timecode enthalt Datenfelder fiir die Spelcherung produktlonsspezlfischer Angaben. Welche das slnd, blelbt dem Nutzer vorbehalten. Im Datenstrom slnd das Jewells 4 Bit ab Bit 4, 12, 20, 28, 36, 44, 52 und 60. 12.3.3.3 Synchronwort Das Synchronwort slnd die letzten 16 Bit elnes S M P T E - W o r t s . Es hat Immer denselben Aufbau: 0011111111111101. Dlese Blt-Konstellatlon 1st im Datenstrom elndeutlg. Somlt kann das Ende des Datenworts und damlt der Anfang des darauf folgenden identiflziert werden. Zusatzllch enthalt das Synchronwort die Information iiber die Laufrlchtung des Datenstroms. Endet es mlt 01, dann lauft das Band vorwarts, endet es dagegen mlt 00, dann lauft es riickwarts.
Teil III
Aufgaben - Die Bearbeitung
13 Aufnahme Am Anfang war das Wort oder der Urknall. Egal fiir welche Ideologie man sich entscheidet, mit dem Schall fing offenbar alles an. Die Tontechnik verfolgt zwei Ziele. Entweder die Uhertragung von Schallereignissen oder deren Speicherung. Um die Aufzeichnung geht es in diesem Abschnitt, wenn auch Teilbereiche wie die Mikrofonierung fiir die Sendung ebenso relevant sind. Die Aufnahme ist der initiale Akt in der Produktion von Tontragern. Sie ist der Anfang der Ubertragungskette. Und ihr besonderer Reiz liegt darin, dass sie immer live ist. Sie erfordert ein hohes Mafi an Konzentration und die Fahigkeit, gleichzeitig die Technik zu bedienen, das Programm zu bewerten, mit den Kiinstlern und Produzenten zu kommunizieren und dabei den Zeitplan im Auge zu behalten. Das macht die Aufnahme zu einer der anspruchsvohsten Aufgaben fiir den Mediengestalter. Bei der Aufnahme wird der SchaU konserviert. Er wird vom momentanen, fliichtigen Ereignis zum bestandigen, zeit- und ortsunabhangigen Gut. Es kann - und im giinstigsten Fall wird es auch - beliebig oft abgespielt werden. Das ist der Grund, weshalb man bei der Aufnahme wesentlich strengere Ma£stabe ansetzt, als bei Live-Veranstaltungen. Dort wird ein Fehler hingenommen, bisweilen sogar als Bereicherung eines sonst fast perfekten Auftritts gesehen, weil er dem Horer vielleicht kurz auffallt, dieser aber nicht einmal nachpriifen kann, ob der Fehler tatsachlich aufgetreten ist, oder ob er sich getauscht hat. Aufzeichnungen kann man jedoch jederzeit nachhoren. Aufgenommen wird Musik oder Sprache im kiinstlerischen und nichtkiinstlerischen Bereich. Je nachdem hat man es mit Musikern, Sprechern oder Journalisten zu tun. Das nachstehend Gesagte trifft auf aUe diese Personengruppen zu. Sie werden deshalb in loser Reihenfolge genannt und synonym verwendet.
13.1 Aufienaufnahmen Aufienaufnahmen stellen ganz eigene Anforderungen an die Technik und das Aufnahmeverfahren. Findet man in den Studios laborahnliche Bedingungen vor, steht man bei AuEenaufnahmen standig vor den Problemen, die die Umgebung einem auferlegt. Umgebungsgerausche sind ein Teil der AuEenaufnahme, dominieren diirfen sie sie aber nicht.
226
13 Aufnahme
13.1.1 F i l m t o n Die Tonaufzeichnung fiir bildgebundene Medien erfordert oft einen grofieren Abstand des Mikrofons zur Schallquelle, als aus klanglicher Sicht ratsam ware. Auch die Wahl des Mikrofons andert sich dadurch. Haufig werden stark gerichtete Interferenzempfanger verwendet. Bild und Ton miissen spater miteinander synchronisiert werden, da das Filmmaterial keine Toninformationen speichert. Den Anfang einer Szene niarkiert die Klappe. Bild und Ton konnen so aufeinander eingestellt werden. 13.1.2 EB-Ton EB-Ton - EB steht fiir Elektronische Berichterstattung - erfordert eine gute Balance zwisclien dem Spreclier und der Szene, in der sich das Gesprach abspielt. Das Bild vermittelt einen Eindruck davon, wie es dort aussielit. Der Ton muss die Erwartung an das passende Klangbild erfiillen. Dabei ist das Verhaltnis zwischen Spraclie und Atmo durchaus an den Bildausschnitt zu koppeln. Welclien Anteil am Bild nimmt der Spreclier ein, und welchen den Hintergrund? Je starker der Sprecher in den Vordergrund geriickt wird, desto weniger Aufmerksamkeit wird der Umgebung zuteil. Neben den Einfliissen der Atmosphare erwarten den Mediengestalter bei AuEenaufnahmen noch andere Widrigkeiten. Raume, in denen aufgezeichnet wird, konnen sehr hallig sein, was die Sprachverstandlichkeit leiden lasst. Windgerausche erzeugen starke, tieffrequente und energiereiche Storungen. Fiir solche Falle soUte man immer mit dem passenden Material ausgestattet sein. Dazu gehoren Mikrofone mit unterschiedlichen Empfindlichkeiten und Richtcharakteristika und passende Windschiitze fiir die zu erwartenden Wetterlagen. Bei Fernsehberichterstattung ist auEerdem an den Windschutz mit dem Logo des entsprechenden Senders zu achten. Der EB-Ton wird normalerweise direkt auf die Videokassette, die auch das Bild speichert, aufgezeichnet. So ist die Synchronitat immer gewahrleistet. 13.1.3 A t m o s p h a r e n Eine spezielle Gattung der AuEenaufnahme sind Atmospharen. Die besondere Schwierigkeit liegt hier in den Qualitatsanforderungen. Atmospharen sollten in dem Format erstellt werden, in dem sie spater verwendet werden, zumindest aber in Stereo. Sie miissen ausreichend lang aufgenommen werden und das gewiinschte Bild ausreichend signifikant transportieren. Welche Anforderungen an eine Atmo zu stellen ist, steht im Abschnitt 8.1 auf Seite 89. Atmospharen konnen geschnitten werden. Deshalb ist es nicht notwendig, einen mehrminiitigen Zeitraum aufzunehmen, in dem keine ungewollten Nebengerausche auftreten. Da sie bei der Aufnahme aber leicht iiberhort werden, empfiehlt es sich, eher mehr als weniger aufzunehmen. Man sollte die Aufnahme mit einem sehr guten Kopfhorer iiberwachen und dabei kritisch hinterfragen, ob das.
13.2 Studioaufnahmen
227
was man aufnimmt auch eindeutig als das erkennbar ist, was man aufnehmen mochte. Also auch ohne den visuellen Eindruck. Wasser ist ein gutes Beispiel dafiir. Starker Regen hort sich oft nur nach Rauschen an. Ob man spater den Eindruck starken Regens nur durch das Hinzumischen von Rauschen erzeugen kann ist fraghch. Genauso verhah es sich mit Meeresrauschen. Das Brechen einer Wehe an der Kaimauer oder das Knarren der Holzriimpfe der Boote ist fiir die Vermittlung des Gerauschs Wasser oder Meer wesenthch signifikanter. Im Fahe des Regens kann man sich Menschen vorstehen, die iiber eine nasse Strai^e laufen. Der Regen prasselt auf den Regenschirmen und die Schuhe erzeugen ein leises platschern bei jedem Schritt. Sohen keine Menschen in der Szene vorkommen, dann kann ein Baum Abhilfe schafFen, auf dessen Blatter die Regentropfen fallen und moglicherweise entsteht beim Abtropfen von den Blattern in eine Pfiitze ein charakteristisches Wassergerausch. Wenn die Atmosphare nicht das darstellt, was man abbilden mochte, dann muss man nach Alternativen suchen, die das Gewiinschte besser transportieren. 13.1.4 Live-Konzerte Die Aufnahme von Live-Konzerten ist keine reine AuEenaufnahme. Die Regie wird haufig in mobilen Tonstudios eingerichtet. Der Schauplatz der Aufnahme ist aber ein offentlicher und hoffentlich auch ausreichend mit Menschen gefiillter Raum. Aufgenommen wird entweder in Mehrspurtechnik oder direkt im Zielformat. Selbst wenn direkt Stereo gemischt wird, wird nicht die Saalmischung iibernommen, da diese an die Raumakustik und an die Beschallungsanlage angepasst ist. Das Schlagzeug beispielsweise ist auch ohne akustische Verstarkung zu horen. Deshalb besteht gerade in kleineren HaUen der Klang im Saal immer aus einer Mischung aus akustischem und elektronisch verstarktem Signal. Die akustische Komponente fallt fiir die Aufnahme weitgehend weg. Der in der Halle vorkommende Hall liegt iiber dem gesamten Signal. Deshalb ist der Einsatz von zusatzlichen HaUgeraten oft reduziert. Um der Live-Aufnahme das Raumgefiihl zuriick zu geben, kann ein zusatzlicher Generalhall auf die Summe gelegt werden. Ein weiterer Unterschied ist das Publikum. Der Beifall soil in der Halle nicht auf die Beschallungsanlage iibertragen werden. Fiir den Charakter einer Live-Aufnahme hingegen ist er sehr wichtig. Deshalb werden fiir die Aufzeichnung zusatzliche AmbienceMikrofone aufgestellt, die die Atmosphare in der Halle aufnehmen sollen.
13.2 Studioaufnahmen Studioaufnahmen erlauben, im Gegensatz zu Aui^enaufnahmen, ohne akustische Storungen durch Umgebungsgerausche aufzunehmen. Die Arbeit im Studio ist zielgerichtet. Bei Aui^enaufnahmen muss haufig auf die Situation reagiert werden. Bei der Studioaufnahme ist das Ziel klar und es wird konzentriert daraufhin gearbeitet. Das hei£t fiir den Mediengestalter, dass er nicht
228
13 Aufnahme
nur die Aufgabe hat, die auftretenden Schallereignisse aufzuzeichnen, sondern er muss auch im Vorfeld beschreiben, wie das, was er aufzeichnen mochte beschaffen sein soil. Mit dieser Frage steht der Mediengestalter in der Regel niclit alleine da. Oft kiimmern sicli Musiker, Produzenten oder Regisseure um die kiinstlerische Ausgestaltung, dass sicli der Mediengestalter mit seinen Ideen einbringt ist in der Regel erwiinscht. Auf jeden Fall aber muss der Mediengestalter iiberwaclien, ob die Vorgaben eingelialten werden und bei Bedarf intervenieren. 13.2.1 Live Recording Wahrend der Aufnahme sehr komplex ist das Live Recording, da viele Musiker auf einmal spielen. Live Recording hat nichts mit einem Live-Konzert zu tun, auch wenn Aufnahmen von Konzerten ebenfalls live aufgenommen werden. Live Recording bedeutet, dass die Musiker alle auf einmal spielen und das Stiick nicht in der Mischung aus verschiedenen Einzelteilen zusammengesetzt wird. Das Gegenteil sind Overdubs, die im Abschnitt 13.2.2 beschrieben werden. Das Zusammenspiel aller Beteiligten ist in der E-Musik praktisch die einzige Aufnahmeform. In der sinfonischen Musik tritt die Individualitat des Einzelnen hinter den Gesamtklang des Orchesters zuriick. Das aus Einzelteilen synthetisieren zu woUen, wiirde dem Geist dieser Musik nicht gerecht. Auch in der U-Musik werden Orchester, Chore oder Big Bands aus denselben Griinden live aufgenommen. Master
nniit
Mic
FX
Expander
oopooo ^2J—»Monitormix -0-^FX-Send ^z5—»Master
Aux/PreAux/PostRouting -
Direct Out i i i
i)i,
6666
Tape Return
666666
optionale Line-Eingange Abb. 13.1. Signalfluss des Live Recordings. Bei kleineren Besetzungen steigt die individuelle Bedeutung des einzelnen Musikers. Dennoch wird auch Kammermusik live eingespielt. Live Aufnahmen verschmelzen leichter zu einem organischen Ganzen, well die Musiker miteinander interagieren konnen. Leichte Variationen in der Spielweise konnen von den anderen iibernommen und verstarkt oder auch kompensiert werden. Diese Moglichkeit existiert bei den spater zu besprechenden Overdub-Aufnahmen nur in eine Richtung, dass namlich der spater spielende Musiker auf das
13.2 Studioaufnahmen
229
Spiel der bereits aufgenonimenen reagieren kann. Bei Live-Aufnahnien konnen die Musiker, wahrend sie spielen, nonverbal kommunizieren. Dadurcli bestelit eine grofiere Einigkeit in der Dynamik und dem Rhytlimus. Bei OverdubAufnalimen entfallt der visuelle Kontakt, so dass der Musiker nur auf das reagieren kann, was er liort. Selbst wenn er darauf reagiert, ist seine Reaktion gegeniiber der Aktion verspatet. Auch Dialogaufnalimen konnen gleiclizeitig oder nacheinander aufgenommen werden. Gleichzeitig gesproclien wird in der Filmsynchronisation und bei Horspielen. Die gleiclizeitige Aufnahme bezielit sicli dabei nur auf die Sprecher. Die Gerausche werden iiblicherweise getrennt hinzugefiigt. Ob die Schauspieler und Sprecher nacheinander oder miteinander sprechen hangt oft nicht von den Wiinschen der Produktion sondern von der Terminplanung ab. Grundsatzlich versucht man die Termine zusammen zu legen. Andernfalls muss eben getrennt aufgenommen werden. Teilweise werden solche Produktionen aber auch gespielt und als Szene in einem Raum iiber eine Mehrkanalanordnung aufgenommen. Dann sollten auch alle Akteure zusammen spielen. Bei der Filmsynchronisation hat der Schauspieler dem Synchronsprecher den Handlungsrahmen bereits vorgegeben. Hier ist eine getrennte Aufnahme auch von Dialogen wenig problematisch, auch wenn man sie aus Zeitgriinden gerne vermeidet. Wenn Live-Aufnahmen sich so positiv auf das Gesamtergebnis auswirken, dann muss es Griinde geben, weshalb auch andere Techniken eingesetzt werden. Die gibt es. Spielt nur ein Musiker oder spricht nur ein Sprecher, dann lasst sich dessen Leistung optimieren. Die Konzentration des Regisseurs und der Technik liegt auf dieser einen Person und auch sie kann sich ausschliefilich mit sich selbst beschaftigen. Aufnahmen konnen so beliebig kleinteilig werden. Spielen mehrere Musiker oder ein ganzes Orchester zusammen, dann miissen alle den Part wiederholen, wenn ein einzelner einen Fehler macht. Je mehr Akteure beteiligt sind, desto schwieriger wird es, fehlerfrei zu produzieren. Entweder muss man mehr Zeit aufwenden, oder man macht Abstriche in der Qualitat. Auch raumliche und akustische Umstande sprechen manchmal gegen eine Live-Aufnahme, etwa wenn die unterschiedlichen Schallquellen nicht ausreichend akustisch voneinander getrennt werden konnen. Das ist umso problematischer, je mehr Effekte in der Mischung auf einzelne Instrumente gelegt werden soUen. Angenommen der Leadsanger singt wahrend der Rhythmusgitarrist seinen Part spielt, dann ist bei schlechter akustischer Trennung anzunehmen, dass die Gitarre auf das Gesangsmikrofon iiberspricht. Alle Effekte, die auf dem Gesang liegen batten dann auch klangliche Auswirkungen auf die Gitarre. Zusammengefasst lasst sich sagen, dass Live-Aufnahmen natiirlicher klingen, aber bessere akustische Verhaltnisse verlangen. Live-Aufnahmen fordern die Natiirlichkeit und den organischen Zusammenhalt wahrend OverdubAufnahmen mehr Spielraum fiir das individuelle Instrument bieten. Sowohl in Sachen Interpretation, als auch bei den klanglichen Moglichkeiten.
230
13 Aufnahme
13.2.2 O v e r d u b Sessions Das Wort Overdub bezeichnet eine Aufnahmetechnik, bei der die einzelnen Instrumente nacheinander eingespielt warden. Overdub-Aufnahmen sind damit inimer auch Mehrspuraufnahnien. Ublich sind Overdubs bei U-Musikproduktionen und dabei verstarkt dann, wenn die Musik nicht von einer Band eingespielt wird, die das Zusammenspiel gewohnt ist, sondern von Studiomusikern, denen das entsprechende Stiick vorgelegt wird. Man kann sagen, dass die Nachteile des Live Recordings die Vorteile der Overdubs sind. Man kann sich auf ein Instrument konzentrieren und es geniigt fiir eine erfolgreiche Aufnahme, dass ein Musiker fehlerfrei spielt. Fehler lassen sich einfach korrigieren, indem er den fehlerhaften Teil noch einmal spielt. Gerade fiir schwachere Instrumentalisten und wenn die Interpretation erst erarbeitet werden muss, ist dieses Vorgehen fiir die anderen wesentlich entspannter. Ein anderer Vorteil von Overdubs ist die Ortsunabhangigkeit. Es ist nicht notwendig, dass aUe Musiker zur gleichen Zeit im selben Studio sind. Sie konnen nacheinander ihre Spuren zu vollig unterschiedlichen Zeiten und wenn notig auch an vollig unterschiedlichen Orten einspielen. Den Anfang macht normalerweise der Schlagzeuger. Damit er nicht ins Blaue hinein spielen muss, konnen vorab sogenannte Guide Tracks aufgenommen werden. Dabei wird der Song in vereinfachter Form im Sequencer vorproduziert und eventuell sogar mit Gesang versehen. Das Wort Sequencer zeigt schon an, dass Overdub-Aufnahmen mit einem festen Metrum aufgenommen werden. Denn Timingschwankungen, auf die man sich wahrend einer LiveAufnahme verstandigen kann konnen hier nicht vorausgeahnt werden. Der Musiker konnte darauf wieder nur reagieren. Die Folge ware, dass das Timing am Ubergang nicht stimmt. Die Guide Tracks werden dann nach und nach gegen die richtigen Aufnahmen ersetzt. Die Schlagzeugaufnahme wird eventuell noch geschnitten, um eine bessere rhythmische Wirkung zu erzielen. Auch diese Nachbearbeitung ist nur im Overdub-Verfahren machbar. Nach dem Schlagzeug folgt die Rhythmusgruppe mit Bass, Rhythmus-Gitarre und Keyboard, falls diese noch nicht im Sequencer fertig vorliegen. Danach folgen die Melodic- und Soloinstrumente sowie der Gesang. In den Guide Tracks miissen auch eventuelle Intros beriicksichtigt werden, die moglicherweise rein vokal sein konnen. Ein Vorzahler und vorher auch der Anfangsakkord helfen, den richtigen rhythmischen und melodischen Einsatz zu finden. Die Monitormischung besteht aus drei Bestandteilen. Aus den bereits aufgezeichneten Signalen, den „live spielenden" Effektgeraten und Expandern und dem statusabhangigen Signal der aktuellen Quelle. Beim sogenannten Bandmaschinenmonitoring hort der Musiker bei stehendem Aufzeichnungsgerat das Input-Signal, also das am Eingang der Bandmaschine anliegende Signal. Wah-
13.2 Studioaufnahmen
231
rend der Wiedergabe wird das bereits Aufgezeichnete abgespielt und wahrend der Aufnahme sind Input und Tape-Return-Signal identisch. 13.2.3 Mehrspuraufnahmen
Input Mic Aux/PreAux/PostRouting-
TBP© R©turn
FX
Expander
<W I
1 MWI-H •
DirectOut Q Q Q 6 6
6666
tester
PQOPQP -^^—> Monitormix -0-^FX-Send •^z5—> Master
Tape Return
Mehrspur A b b . 13.2. Signalfluss bei Mehrspuraufnahmen.
Mehrspuraufnahmen ernioglichen eine klangliche Nachbearbeitung der einzelnen Instrumente. Wie grofi die Einflussmoglichkeiten sind, hangt davon ab, ob hve oder ini Overdub-Verfahren aufgenonimen wurde. Bei Live Recordings sind sie aufgrund des Ubersprechens begrenzt. Werden die Instrumente getrennt aufgenonimen, dann kann m a n sich im Nachhinein sogar entschhei^en, ein Instrument ganz wegzulassen. Der Nachteil einer Mehrspuraufnahme ist, dass ein zusatzlicher Arbeitsschritt notwendig ist, bei dem die unterschiedhchen Quellen in das Zielformat iiberfiihrt werden - die Mischung. In der U-Musik sind Mehrspuraufnahmen die RegeL Auch bei LiveMitschnitten. Es ist auch durchaus iibhch, dass im Studio spater Korrekturen vorgenommen werden. Die Aufnahme wird abgespieh. Kurz vor der fehlerhaften SteUe wird in die Aufnahme eingestiegen. Das nennt m a n Punch In. Nach der Korrektur wird iiber den Punch Out in den Wiedergabebetrieb zuriickgeschaltet. 13.2.4
Zweispuraufnahmen
Entschhei^t m a n sich gegen einen Mehrspuraufnahme und fiir eine LiveAufnahme direkt in das Zielformat, dann erfolgt die Mischung direkt bei der Aufnahme. Damit der Techniker nicht nur reagieren kann und damit hinter das Geschehen gerat, muss er das P r o g r a m m kennen. Konzertmitschnitte klassischer Musik werden haufig direkt auf Stereomedien aufgezeichnet. Hier liegt
232
13 Aufnahme
eine Partitur vor, die die zukiinftige Entwicklung des Stiickes aufzeigt. So kann man rechtzeitig notwendige Anpassungen in der Mischung einleiten. E-Musik bietet sich fiir den Direktniitschnitt an, weil die Klangfarbe nicht durch Klangveranderungen einzelner Instrumente variiert wird, sondern durch wechselnde Instrumentierungen und unterschiedliche Gewichtungen der Register innerhalb des Orchesters. Der Einsatz von Effekten ist in der klassischen Musik ohnehin uniiblich, wenn man einmal voni Hall absielit. Der Hall selbst soil nur den Raumklang im Konzertsaal unterstiitzen und andert sich deshalb wahrend des Stiicks - oder zumindest wahrend eines Satzes - nicht. Damit beschrankt sich die Mischung klassischer Musik wahrend der Aufnahme im Wesentlichen auf die Lautstarkebalance. Aufwandigere dynamische Mischungen mit wechselnden Effekten lassen sich live hingegen nicht bewerkstelligen.
13.3 Aufnahmevorbereitungen Bereits im Vorfeld einer Aufnahme sind zahlreiche Entscheidungen zu fallen. Dazu muss man eine Vorstellung davon haben, wie sich das Endergebnis anhoren soil. Diese Vorstellung reicht aus, um die Anforderungen zu definieren, sie reicht aber nicht aus, um den Erfolg zu garantieren. Denn fiir ein perfektes Ergebnis ist ein unbegrenztes Zeit- und Geldbudget notwendig. Bei begrenzten Ressourcen miissen Kompromisse eingegangen werden. In die Planung miissen deshalb auch diese Beschrankungen einbezogen werden. Sind Zeit und Geld in ausreichendem Mafie vorhanden, dann ist die Qualitat der Aufnahme begrenzt durch das Konnen der Musiker oder der Sprecher. 13.3.1 Der richtige Aufnahmeraum Hat man ein realistisches Bild von den Moglichkeiten erarbeitet, dann beginnt die konkrete Umsetzung. Anhand des Programms und der Besetzung wird der Raum ausgewahlt. Gro£e Besetzungen erfordern einen gro£en Raum. Gro£e Raume sind aber aufgrund ihrer akustischen Eigenschaften oft fiir die Aufnahme nur schlecht geeignet. Deshalb greift man hier gerne auf Raume zuriick, die speziell fiir Musikauffiihrungen gebaut wurden. Also auf Konzertsale, die Sendesale der Rundfunkanstalten oder die Aufnahmesale grofier Tonstudios. Kirchen werden fiir die Aufnahme von Kirchenmusik gerne aufgesucht. Die ansonsten eher problematische Raumakustik von Kirchen kommt dem Charakter der Musik entgegen. Dazu kommt, dass ein Hauptinstrument der Kirchenmusik - die Orgel - vorwiegend in Kirchen zu finden ist. Bei der Auswahl der Kirche ist die Qualitat der Orgel ein wichtiges Kriterium. Bisweilen hort man sogar, dass die Kirche aus derselben Epoche stammen soil, wie das Musikstiick. Diese Anforderung kann ich aus meinem Arbeitsalltag nicht bestatigen, es ist aber nicht ganz auszuschliefien. Kirchen, in denen haufig Konzerte stattfinden, werden jedoch zum Teil durch akustisch wirksame
13.3 Aufnahmevorbereitungen
233
Einbauten wesentlich in ihren Eigenschaften verandert, so dass man oft einen differenzierten Klang iiber die Authentizitat stellt. Fiir kleinere Besetzungen muss man auch in kleineren Studios nur selten aufier Haus. Die Groi^e der iiblichen Aufnahmeraume reicht hier meistens aus. Die meisten digitalen Workstations haben keine Spurenbegrenzung. Deshalb ist eine genaue Planung der Spurbelegung nicht mehr so wichtig wie in der Zeit der Mehrspurbandmaschinen. Durch die Moglichkeit der direkten Beschriftung der Spur sind Plane auf Papier auch eher ein Anachronismus. Ob ein Raum fiir eine Aufnahme generell gut oder schlecht geeignet ist, lasst sich nicht so ohne Weiteres sagen. Indizien sind die Wandbeschaffenheit, die Symmetric des Raumes und der Horeindruck. Genauere Informationen stehen nur aufwandig zu erstellende Messprotokohc bereit. Die stehen dem Mediengestalter in der Regel aber nicht zur Verfiigung. Deshalb ist es wichtig, die „weichen Faktoren" zu einer wissenschaftlich zwar angreifbaren aber fiir die Praxis hinreichenden Schlussfolgerung zu kombinieren. Die Groi^e des Raums hat natiirlich einen direkten Einfluss auf die Nachhahzeit. Sie wird im Wesentlichen durch die Groi^e der Besetzung bestimmt, sohte aber auch zum Programm passen. Ist ein Raum zu hahig, dann muss man mit den Mikrofonen zu nah an die Quelle ran, was haufig auch in der Mischung als Enge horbar ist. Gedampft werden die Schwingungen an schallweichen Oberflachen. Eine solche Dampfung ist dabei immer frequenzabhangig. Nur wenn das Hindernis groi^ im Verhaltnis zur Wellenlange ist, kommt es zur Dampfung. Deshalb werden hohe Frequenzen - also kleine Wellenlangen - meist starker bedampft als tiefe. Weiche Materialien, zum Beispiel Textilien, reflektieren den Schall schlecht. Deshalb wirken sie absorbierend. Das gilt nicht nur fiir die Wande, sondern auch fiir die Polster der Bestuhlung. Der Raum klingt ,dumpfer'. Dagegen reflektieren harte Materiahen den Schall sehr gut. Der Fufiboden ist haufig ein Problem, wenn der Raum nicht bestuhlt ist. Oberflachen konnen auch streuen. Glatte Oberflachen haben eine geringe Streuung, raue Oberflachen streuen den Schall - wieder frequenzabhangig - gut. Es gibt demnach weniger harte, ortbare Reflexionen. Der Raum klingt ,weicher'. Abbildung 13.3 iUustriert diesen Effekt.
Abb. 13.3. Reflexion an glatte und rauen Oberflachen.
234
13 Aufnahme
Das letzte akustische Phanomen, das es zu beachten gilt, ist die Ausbildung stehender Wellen. Diese stehenden Wellen fiihren zu Kammfiltereffekten mit unschonen Anhebungen und Ausloschungen der Frequenzen. Synimetrische Raume mit gegeniiberliegenden Wanden, zwischen denen der Schall hinund hergeworfen wird, tendieren eher zur Ausbildung stehender Wellen als asymmetrisclie. Abbildung 13.4 zeigt den Unterschied.
Abb. 13.4. Reflexion tieffrequenter Schallwellen im symmetrischen und unsymnietrischen Raum.
13.3.2 Die richtige Position im Raum So wiclitig wie der richtige Raum ist die Position der Musiker darin. Raume klingen nicht an jeder Stelle gleich. Deshalb soUte man sich die Miihe machen, den richtigen Platz zu finden, bevor man das Orchester aufstellt. Ein Bauprinzip, dass man gerne im Studiobau verwendet, nennt sich Live End - Dead End. Hier wird eine Seite des Raums mit schallharten, reflektierenden Oberflachen verkleidet, die andere Seite mit schallweichen, absorbierenden Materialien. Stellt man nun das Instrument im Live End auf, dann hat man die ersten Reflexionen nach kurzer Zeit und relativ spat einen eher dumpfen Nachhall. Anders wirkt die Position im Dead End. Die ersten Reflexionen kommen hier deutlich spater, kaum verzogert setzt auch der Nachhall ein. Fiir alle Raume gilt die Faustregel, dass eine AufsteUung direkt an der Wand genauso ungiinstig ist, wie eine ganz zentrale Position. Dort, wo stehende Wellen zu erwarten sind, sollte weder eine Schallquelle, noch ein Mikrofon stehen. Eine etwas mystisch anmutende Technik, den Raumklang zu bewerten ist in die Hande zu klatschen. Diese Methode ist aber besser als ihr Ruf. Denn was man wissen mochte ist, wie der Frequenzgang an einer bestimmten Stelle ist. Das Klatschen erzeugt einen breitbandigen Impuls. Der ideale Impuls ist unendlich kurz, hat aber ein unendlich breites Spektrum. Das ist in der Praxis aber nicht reahsierbar und das Klatschen ist deshalb eine gute Naherung. Nun achtet man darauf, wie das Gerausch ausklingt. Bilden sich tonale Bestandteile, die langsam auskhngen - sogenannte Resonanzen? Wie lang ist die Hallzeit? Besteht der Nachhall aus einzelnen getrennten Echos oder ist es eine homogene Hallfahne? Ist sie eher dicht oder rau? Was man hort ist die Impulsantwort des Raums.
13.4 Mikrofonierung
235
Der Raumanteil an der Aufnahnie hangt zu einem sehr grofien Teil von der Positionierung des Mikrofons im Rauni, aber auch ini Verhaltnis zur Schallquelle ab. Diese Disziplin ist die Mikrofonierung, die so wichtig ist, dass sie im Abschnitt 13.4 gesondert behandelt wird. Neben der Akustik sind noch andere Faktoren iiberlegenswert. Am giinstigsten ist es, wenn der Musiker Sichtkontakt zur Regie hat. In Studios ist das nieist durch eine Glasscheibe gewahrleistet. Bei Aufienaufnahnien in Konzertsalen eher selten. Fiir das Spielgefiihl ist es meist vorteilhaft, wenn man den Musiker aus der Isolationsumgebung des Studios herausreii^en kann, und sei es nur dadurch, dass er zumindest den Tontechniker und den Produzenten als Zuhorer sehen kann.
13.4 Mikrofonierung Die Mikrofonierung umfasst die Mikrofonauswahl und die Mikrofonaufstellung. Dieser Arbeitsgang beeinflusst in besonderem Mafie die Qualitat der Aufnahme. Versaumnisse, die hier passieren, konnen spater nicht mehr korrigiert werden. 13.4.1 Mikrofonauswahl Die Wahl des richtigen Mikrofons ist abhangig von der Schallquelle, vom Raum, in dem die Musik spielt und davon, wie das Instrument, wie der Sprecher spater klingen soil. In der Praxis spielt immer auch der verfiigbare Fundus eine Rolle. Im Studio ist das oberste Ziel die bestmogliche Klangqualitat. Kondensatormikrofone sind den dynamischen Tauchspulenmikrofonen in der Regel iiberlegen. Die hohere Empfindlichkeit gegeniiber mechanischer Beanspruchung ist in der kontrollierten Studioumgebung unproblematisch. Anders ist das im Live Betrieb, wo es durchaus vorkommt, dass Mikrofone auf den Boden fallen. Fiir U-Musik-Produktionen haben sich allerdings auch im Studio fiir unterschiedliche Instrumente diverse dynamische Mikrofone etabliert, weil sie einen Klangcharakter haben, der dem Klang des Instruments entgegenkommt. E-Musik-Produktionen verwenden fast ausschliei^hch Kondensatormikrofone. Live hat man es zum Teil mit beweglichen Schallquellen zu tun. Hier wahlt man heute vorwiegend drahtlose Mikrofone. Im Studio werden sie dagegen nicht verwendet. Hier soUten sich die Sanger aber auch nicht bewegen. Dementsprechend werden im Studio auch keine Headsets oder Ansteckmikrofone verwendet. Ausnahmen bilden hier der Horfunk im Selbstfahrerbetrieb, bei dem der Moderator nicht starr an einer Stelle steht, sondern seine Position beim Bedienen der Technik immer wieder leicht verandern muss. Die Richtcharakteristik ist abhangig von den Raumverhaltnissen. Je weniger ein Mikrofon gerichtet ist, desto natiirlicher ist der Klang, desto starker ist aber auch die Einwirkung der Umgebung - des Raumhalls und anderer
236
13 Aufnahme
Gerausche. Je starker der Raum hallt, desto schmaler miisste die Richtcharakteristik sein. Tatsachlich handelt es sich aber um eine Wechselwirkung zwischen Richtcharakteristik und Entfernung des Mikrofons von der Schallquelle. Hier gilt dass die Charakteristik umso breiter sein muss, je naher das Mikrofon an der Schallquelle steht. Genauer ausgefiihrt wird dieser Aspekt im folgenden Abschnitt 13.4.2. Wahrend im Studio der Klang der Schallquelle fast ausschlie£lich Entscheidungsgrundlage fiir das eine oder andere Mikrofon ist, wird live aufgrund der Biihnenlautstarke grofieres Augenmerk auf die Raumverhaltnisse gelegt. Hier wird das Mikrofon teilweise aufgrund seiner Off-Axis ausgewalilt, obwohl klanglicli ein anderes Mikrofon unter Umstanden besser ware. Lasst sich aber durch die Mikrofonauswahl die Kanaltrennung verbessern, dann kommt das bei einer Beschallung auch meistens dem Klang zugute. Der Klang der Schallquelle fiihrt fast zwangslaufig zu einer passenden Vorauswahl. Entscheidend fiir die Wahl des einen oder anderen Mikrofons kann durchaus sein, dass eines der moglichen Mikrofone fiir eine andere zu mikrofonierende SchaUquelle besser geeignet ware als das andere. In der Praxis sind die Ressourcen beschrankt und man muss das vorhandene Material moglichst giinstig fiir das Gesamtergebnis verteilen. Die Art der Mikrofonierung ist ebenfalls von Bedeutung. Mafigebhch ist, ob es sich um das alleinige Mikrofon fiir die Schallquelle, um das Hauptmikrofon, ein Stiitzmikrofon oder den Teil einer Stereo-Anordnung handelt. Wird nur ein Mikrofon fiir die Schallquelle verwendet, dann konnen Mikrofone verwendet werden, die den Klang relativ stark farben. Ebenso verhalt es sich mit Stiitzmikrofonen. Fiir die Hauptmikrofonie empfehlen sich aufgrund der verschiedenen unterschiedlichen Schallquellen eher neutrale Mikrofone. Stereoanordnungen miissen aufeinander abgestimmt sein. Dabei werden entweder zwei oder mehr gleiche Mikrofone verwendet oder aber Mikrofone, deren Frequenzgange sehr neutral sind oder gut miteinander harmonieren. Stereomikrofonierungstechniken sind im Abschnitt 13.5 beschrieben. Die Gr6£e des Mikrofons kann auch entscheidend sein. Das Mikrofon stort das Schallfeld in seiner Ausbreitung. Vor allem fiir hohe Frequenzen wirken sie als Hindernis. Deshalb werden fiir die meisten Anwendungen Kleinmembranmikrofone bevorzugt. Vor allem bei Schlagzeugaufnahmen ist der Platz fiir die Stiitzmikrofone begrenzt. Live werden dort gerne Clipmikrofone verwendet. Im Studio macht man davon jedoch keinen Gebrauch. Bei Konzerten, vor allem, wenn sie auch auch vom Fernsehen iibertragen oder aufgezeichnet werden, verwendet man gerne dezente Mikrofone, die das Bild fiir die Zuschauer und die Kameras nicht mehr als notig storen. 13.4.2 Mikrofonaufstellung Die Mikrofonaufstellung ist essentiell fiir eine gelungene Aufnahme. Das richtige Mikrofon allein kann keine gute Aufnahme garantieren. Wie schon bei der Positionierung des Instruments im Raum ist auch die Aufstellung des Mikro-
13.4 Mikrofonierung
237
fons ini Rauni zu beachten. AuEerdeni die Position verschiedener Mikrofone und Schallquellen zueinander. Das Ziel der Aufstellung muss es sein, eine optimale Abbildung der Schallquelle zu erreichen. Das muss nicht imnier eine authentische Abbildung sein. Viele Instruniente erzeugen Klange, die in der Aufnahme nicht zu deutlich hervortreten sollen. Sie gehoren jedoch inimer noch dazu. Werden sie komplett entfernt, kann das Ergebnis leicht zu steril wirken. Die nieisten Instruniente strahlen den Klang gerichtet ab. Eine gute Kenntnis des Abstrahlverhaltens ist deshalb fiir die korrekte Positionierung des Mikrofons unerlasslich. Das Standardwerk zu diesem Thema heifit „Akustik und musikalische Auffiihrungspraxis" und bietet einen guten Uberblick iiber das Abstrahlverhalten der Orchesterinstrumente. 13.4.2.1 Position im Verhaltnis zur Schallquelle Betrachtet man ein Instrument als Punktschallquelle, dann breitet sich der Schall kugelformig aus. Die drei Parameter, die bei der Aufstellung des Mikrofons variiert werden konnen sind der Radius der Kugel, also die Entfernung zum Instrument, die Position auf der Oberflache der Kugel und die Neigung, ob also das Mikrofon zum Mittelpunkt der Kugel zeigt oder mehr oder weniger vom Mittelpunkt herausgedreht wird. Entfernung Die Entfernung von der Schallquelle hangt ab von den akustischen Verhaltnissen des Raums, von der Ausdehnung der aufzunehmenden Schallquelle und von der Richtcharakteristik des Mikrofons. Je halliger ein Raum ist, desto naher muss man an die Schallquelle heran. Als Ma£ fiir die Halligkeit eines Raums dient der Hallradius, der im gleichnamigen Abschnitt etwas spater in diesem Kapitel beschrieben wird. Auch bei gro£er Umgebungslautstarke, etwa bei Monitoranlagen auf der Biihne ist eine eher nahe Mikrofonierung notwendig. In akustisch gut funktionierenden Raumen, in Konzertsalen und Aufnahmeraumen von Tonstudios kann man sich dagegen welter von der Schallquelle entfernen. Je welter man von der Schallquelle entfernt ist, desto ausgewogener wird der Gesamtklang der Schallquelle. Nimmt man einen Chor auf, dann steht das Hauptmikrofon - in der Realitat sind es mehrere - einige Meter vom Chor entfernt, um den ganzen Chor aufzunehmen. Wiirde man auf wenige Zentimeter herangehen, dann wiirden einzelne Stimmen, namlich die, die direkt in das Mikrofon singen, herausgehoben, wahrend man die Sanger, die am Rand stehen vermutlich kaum noch horen konnte. Wie immer, wenn man nah an etwas herangeht, verliert man den Blick fiir das Gesamte und sieht nur noch einen Ausschnitt. Die Mikrofone ,horen' ganz ahnlich. Mikrofone haben einen frequenzabhangigen Offnungswinkel, der durch die Richtcharakteristik bestimmt ist. Je enger ein Mikrofon gerichtet ist, desto welter muss man von der Schallquelle weg, um einen ausreichend ausgeglichenen Frequenzgang zu bekommen.
238
13 Aufnahme
Wie man sieht lassen sich Richtcharakteristik und Entfernung unterschiedlich niiteinander kombinieren, urn zu einem korrekten Ergebnis zu kommen. Hier entscheidet die Raumakustik iiber den maximalen Abstand, die Ausgewogenheit des Klangs iiber den minimalen. Bewegliche Schallquellen diirfen nicht zu dicht mikrofoniert werden, da sich sonst der Klang sehr stark andern kann. Dafiir sind keine groi^en Bewegungen notwendig. Allein die iiblichen Bewegungen, die ein Sanger oder Musiker machen wahrend sie spielen, konnen diesen Effekt hervorrufen. Es gibt Sanger, die am liebsten sehr nah an das Mikrofon herangehen. Bei einer angenommenen Entfernung von einem Zentimeter bedeutet eine Anderung der Position um nur einen Zentimeter vom Mikrofon weg eine Abstandsanderung um 100% und einen Schahpegelabfan von 6dB. Bei einem Mikrofonabstand von 30 Zentimetern faht dieselbe Bewegung weit weniger ins Gewicht. Aui^er der Pegel und - falls der Musiker sich aus dem optimalen Arbeitsbereich des Mikrofons herausbewegt - Frequenzanderungen kann es bei zu dichter Mikrofonierung auch zu Korperschalleffekten aufgrund unbeabsichtigter Beriihrungen kommen. Deshalb sind allzu ,aufdringliche' Sanger durch einen Popschutz auf Abstand zu halten^. Position Eine reale Schallquelle hat eine gewisse Ausdehnung, die normalerweise eine Verbindung mit dem Boden hat. Damit konnen sich die Schallwellen halbkugelformig ausdehnen. Die tatsachliche Ausbreitung ist frequenzabhangig. Sowohl das Instrument, als auch der Musiker wirken als Hindernis im Schallfeld. Viele Instrumente strahlen gerichtet ab. Aufierhalb der Abstrahlachse ist dann mit einem vermehrten Pegelabfall meist zu hoheren Frequenzen bin zu rechnen. Auch wenn es scheint, als sei die Mikrofonposition fiir gerichtete Strahler, zum Beispiel Blechblasinstrumente nahehegend, gibt es sowohl mikroskopische als auch makroskopische Faktoren, die letztendlich iiber die Position entscheiden. Einer dieser Faktoren ist der Musikstil. Je nach Musikstil wird beispielsweise das Saxofon unterschiedlich mikrofoniert. Wahrend der Blasersatz im Funk von viel Druck und einer gewissen Rauigkeit und Brillanz lebt, bevorzugen viele Jazz-Musiker einen weichen Saxofonklang, der fast schon an eine Klarinette erinnert. Der Abfall an Scharfe auEerhalb des Fokusses des Schalltrichters wird hier gezielt genutzt, indem das Mikrofon auf halber Hohe auf die Klappen gerichtet werden. Ein anderer Fall ist das Horn. Wenn der Hornist sein Instrument spielt, dann zeigt der Schalltrichter nach hinten. Der durchschnittliche Zuhorer wird aber den Klang von vorne als typischen Horn-Klang erkennen. Man kann davon ausgehen, dass es so gedacht war, dass auch die Hornisten mit Blick zum Publikum spielen. Von daher ist auch eine Mikrofonierung aus Richtung des Publikums angezeigt. Zur Vermeidung der Korperschalliibertragung muss dieser auf einem eigenen Stativ montiert sein.
13.4 Mikrofonierung
239
Zusatzliche Brillanz lasst sich durch die Positionierung des Hornisten nahe einer eher reflexiven Riickwand erreichen. Neigung Mikrofone werden nicht inimer direkt auf die Schallquelle gerichtet. Viele Instrumente produzieren in ihrer Hauptabstrahlachse zu viel Druck. Dieser lasst sich reduzieren, wenn das Mikrofon leicht daneben aufgestellt und zur Hauptabstrahlachse hingedreht wird. Unter Beriicksichtigung der Off Axis lassen sich unterschiedhche Klanganteile einer Schallquelle in ihrem Verhaltnis zueinander steuern, indem man die Haupteinsprechachse auf die erwiinschten, die Off Axis dagegen eher in Richtung der unerwiinschten Klange richtet. Die Off Axis hilft nicht nur dabei, unerwiinschte Klanganteile derselben Schallquelle zu mildern, sondern reduziert auch das Ubersprechen von anderen Instrumenten. Hallradius An jedeni Punkt ini Rauni hort man eine Mischung aus Direktsignal einer SchaUquelle und Diffusfeld. Das Diffusfeld baut sich innerhalb kurzer Zeit nach Beginn des Direktsignals auf. Es besteht aus alien Reflexionen im Raum. Es ist an jeder Stelle des Raumes gleich laut. Was sich mit der Entfernung des Mikrofons zur SchallqueUe andert ist also nicht der Anteil des Diffusschalls, sondern nur das Verhaltnis von Diffus- zu DirektschaU. Der Hallradius bezeichnet den Abstand von der idealen SchaUquelle, an dem der Diffusschall dieselbe Starke hat, wie der DirektschaU. Bei nichtidealen SchallqueUen, die gerichtet abstrahlen, gibt es im streng genommen keinen Radius, weshalb man auch den Begriff Hallabstand verwenden kann. Das Gehor ist bei der Bewertung des Hallanteils an einer bestimmten Raumposition ein schlechter Berater, da es zwischen wichtigen und unwichtigen Wahrnehmungen selektiert. Deshalb klingt eine Signalquelle viel direkter als eine Aufnahme aus derselben Entfernung. Man konnte auf die Idee kommen zu glauben, dass das Gehor auch nach der Aufnahme den Hallanteil als irrelevante Information erkennen und filtern konnte. Denn lauscht man der Aufnahme, dann ist das gesamte vom Lautsprecher abgegebene Signal relevant. Das Gehor filtert allenfalls irrelevante Hallanteile des Abhorraums. Einen besseren Eindruck iiber das ,H6rempfinden' eines Mikrofons bietet das monaurale Horen - das Horen mit einem Ohr. Halt man sich ein Ohr zu, dann hort man irrelevanten Schall lauter. Letztlich hilft aber nur die Erfahrung. Es existiert zwar eine Formel, mit der sich der Hallradius naherungsweise berechnen lasst, aber dazu benotigt man Informationen iiber die Raumeigenschaften, die Schallquelle und das Mikrofon. Dennoch mochte ich die Formel fiir den wirksamen Hallradius^ nicht verschweigen.
2
vgl. http://sengpieIaudio.com/RelativerAbstandsfaktor.pdf
240
13 Aufnahme r-H = 0, 0 5 7 W -^:^
--fQ-^fM
V bezeichnet das Raunivolunien in m^, RTgo ist die Hallzeit, die definiert ist als die Zeit, in der das Hallsignal nach dem Abschalten des Ursprungssignals um 60 dB abnimmt. 7 Q ist der Biindelungsgrad der Schallquelle und 7 M ist der Biindelungsgrad des Mikrofons. Je groi^er der Raum ist, desto groi^er ist auch der Hallradius. Dagegen nimmt er mit steigender Halligkeit ab. Stark gerichtete Schallquellen, zum Beispiel Blechblasinstrumente weisen auf ihrer Hauptabstrahlachse einen grofieren Hallabstand aus. Auch die Charakteristik des Mikrofons hat einen Einfluss auf die moghche Entfernung des Mikrofons zur SchaUquehe. Je gerichteter das Mikrofon ist, desto groi^er darf der Abstand zur SchahqueUe sein, da seithch einfahender SchaU starker gedampft wird. Dabei wird natiirhch davon ausgegangen, dass die Haupteinsprechrichtung auf die SchahqueUe zeigt. Wahrend es eher uniibhch ist, Zahlenwerte fiir den Hahradius auszurechnen sohten dem Mediengestalter die Faktoren, die einen grofieren oder kleineren Mikrofonabstand erlauben, jederzeit bewusst sein. Dazu gehoren auch die Umkehrschhisse, dass zum Beispiel bei geringerer Entfernung das Mikrofon fiir das gleiche Ergebnis weniger gerichtet sein muss. Wie weit das Mikrofon von der Schallquelle entfernt sein darf, hangt auch vom Schallereignis selbst ab. Wahrend fiir viele Instrumente ein wenig Hah eine angenehme Erganzung ist, leidet bei Sprache sehr schnell die Verstandlichkeit. 13.4.2.2 Position im Raum Die Gesamtheit der Mikrofone soil die SchahqueUe adaquat abbilden. Schallquellen - und so ist der Begriff Schallquelle im folgenden zu verstehen - kann man in einzelne kleinere Schallquellen zerlegen. Im Chor sind das verschiedenen Stimmlagen, bei einer weiteren Unterteilung ware es sogar der einzelne Sanger. Bei einer Gitarre entstehen Klange am Korpus durch die Schwingung der Saiten, aber auch am Griffbrett, wenn die Finger iiber die Saiten streichen. Obwohl die goldene Kegel der Mikrofonierung nach moglichst wenigen Mikrofonen verlangt, ist man nicht darauf angewiesen, solche zusammengesetzten Schallquellen mit nur einem Mikrofon abzunehmen. Hier kommt man in den Bereich der Haupt- und Stiitz-, sowie der Polymikrofonierung. Die Ausrichtung der Haupteinsprechachse auf die gewiinschten Klangbereiche ist wesentlich. Im Zusammenspiel mit dem Raum und anderen Instrumenten ist die gezielte Nutzung der Dampfungseigenschaften gerichteter Mikrofone ebenso wichtig. Polymikrofonierung oder Einzelmikrofonierung Die Polymikrofonierung ist eine Technik, bei der alle Mikrofone zunachst unabhangig voneinander und gleichberechtigt nebeneinander wirken. Jede
13.5 Stereoaufnahmen
241
Schallquelle wird niit einem Mikrofon aufgenonimen. In der Mischung wird so aus dem Signalhaufen ein geordnetes und gewichtetes Zusammenspiel konstruiert. Diese Technik ermoglicht weitreichende klangliche Manipulationen. Jede Trommel des Schlagzeugs lasst sich beispielsweise fast willkiirlich an eine beliebige Stelle im Panorama setzen. Overdub-Aufnahmen sind Einzelmikrofonierungen. Dadurch, dass sie zeitlich unabhangig voneinander entstehen, haben sie ohnehin keinen natiirlichen raumlichen Zusammenhang. Auch bei Live Recordings kann durch eine relativ nahe Mikrofonierung verhindert werden, dass andere Instrumente iibersprechen. Damit sind auch hier die Kanale voneinander unabhangig. Die nahe Mikrofonierung - das haben die letzten Abschnitte schon gezeigt - ist aber kleinen SchallqueUen vorbehalten. Hat eine SchaUquelle einer wahrnehmbare raumhche Ausdehnung, dann ist es iibhch, die SchaUquelle als solche mit einer Hauptmikrofonierung abzubilden und die untergeordneten SchallqueUen mit weiteren Mikrofonen zu stiitzen. Im Beispiel des Chores ware das also eine Hauptmikrofonie fiir den gesamten Chor und Stiitzen fiir die einzelnen Stimmlagen. Haupt- und Stiltzmikrofonierung Die Hauptmikrofonie ist heute meistens eine Stereo- eventuell auch eine Surroundanordnung. Das umfangreiche Thema der Stereomikrofonietechniken wird im Abschnitt 13.5 beschrieben. Es gibt aber auch Falle, in denen ein einzelnes Mikrofon als Hauptmikrofon und ein weiteres als Stiitzmikrofon eingesetzt wird. Zum Beispiel bei der Abnahme einer Snare Drum kann das Resonanzfell zusatzlich zum Schlagfell abgenommen werden, um die Schnarrsaiten deutlicher abzubilden. Stiitzmikrofone sollen immer die Einwirkungsmoglichkeiten verbessern. Wird ein Chor lediglich mit einer Stereotechnik aufgenonimen, dann miissen die Lautstarkeverhaltnisse der einzelnen Stimmlagen untereinander bereits richtig gesungen werden. Der Tontechniker hat keinen Einfluss auf die Balance. Deshalb werden die einzelnen Stimmen gestiitzt. So lasst sich beispielsweise der Bass bei Bedarf separat reduzieren oder der Tenor anheben. Die Stiitzen miissen immer einen gewissen Anteil an der Mischung haben. Nur so ist es moglich, eine Stimme zu reduzieren. Aui^erdem verandern die Stiitzmikrofone auch den Klangeindruck. Wiirde man sie nur bei Bedarf einsetzen, hatte das auf die Klangbalance unter Umstanden eine zu groi^e Auswirkung. Die Hauptmikrofonie gibt das Panorama vor. Existiert eine Stereoanordnung als Hauptmikrofonie, dann bildet sie die Schallquelle in der Breite gestaffelt ab. Diese Breitenstaffelung muss fiir die Stiitzmikrofone durch eine entsprechende Einstellung des Panoramas nachgebildet werden.
13.5 Stereoaufnahmen Stereoaufnahmen werden verwendet, um die raumliche Ausdehnung und die seitliche Postion einer Schallquelle im Stereobild zu transportieren. AUein fiir
242
13 Aufnahme
die Position einer Punktschallquelle bedarf es keiner Stereoanordnung. Hier reicht es, das Signal im Pult iiber den Panoramaregler an die richtige Position zu verschieben. Die Nachbildung einer Szene, zum Beispiel der Aufstellung eines Orchesters auf der Biihne hingegen verlangt eine entsprechende Aufnahmetechnik. Drei Parameter sind fiir das Richtungshoren von Belang: Die Intensitat, die Laufzeit und der Klang. Intensitatsunterschiede kommen zustande, da das eine Ohr von schrag einfallenden Schallquellen imnier weiter entfernt ist, als das andere. Ebenso verhalt es sich mit der Laufzeit. Bei gegebener Schallgeschwindigkeit benotigt der Schall zum weiter entfernten Ohr langer als zum nalierliegenden. Klangunterscliiede entstehen durcli Beugungs- und Filtereffekte am Kopf und er Olirmuscliel. Man spriclit von der AufienolirUbertragungsfunktion. Im Englischen hei£t sie Head Related Transfer Function - kurz HRTF. Bei der Stereomikrofonie wird unterschieden zwisclien Intensitats- und Laufzeitstereofonie. Reine Klangstereofonieverfaliren gibt es nicht. Zum einen ist die Ubertragungsfunktion zwar grundsatzlich bei alien Menschen alinlich, in Details aber individuell verschieden. Zum anderen durchlauft der Schall bei der Wiedergabe iiber Lautsprecher auf jeden Fall die Aufieniibertragungsfunktion beider Ohren. Der Schall wird also in Abhangigkeit der Position der Lautsprecher erneut richtungsabhangig gefiltert. Eine Kopfhorerwiedergabe ist jedoch moglich. Die Anforderung, eine Aufnahme iiber Lautsprecher abspielen zu konnen ist eine Einschrankung, die Monokompatibilitat eine andere. Seit der Einfiihrung der stereofonen Schallwiedergabe in den friihen 1960er Jahren muss man bei der Produktion Riicksicht auf die Monogerate nehmen, die immer noch gebaut und verwendet werden. Fiir das gute alte Kiichenradio ist der Vorteil durch stereofone Wiedergabe ohnehin begrenzt. Kompatibilitatsprobleme entstehen, wenn sich Signale durch unterschiedliche Laufzeiten und die damit verbundenen Phasenverschiebungen bei der Addition zu einem Monosignal ausloschen. Neben der Richtung ist auch die Tiefenstaffelung von Belang. Im Kapitel 14 werden kiinstliche Methoden, eine Tiefenstaffelung zu erreichen beschrieben. Bei der Positionierung der Mikrofone muss man allerdings bedenken, dass die spatere Abbildung nicht der Formation der Mikrofone entspricht, sondern dem Abstand zur SchaUquelle. Ein im Bogen aufgestelltes Orchester muss also von einer gerade Mikrofonanordnung abgenommen werden, wenn die Tiefenstaffelung erhalten bleiben soil. 13.5.1 Synthetische Stereofonie Aufzeichnungen im Overdub-Verfahren oder Live-Aufnahmen mit Polymikrofonierung bei guter Kanaltrennung ist die Basis fiir kiinstliche Stereobilder. Jeder Kanal kann iiber den Panoramaregler an eine beliebige Position des Panoramas verschoben werden. Sogenanntes Autopanning kann die Position
13.5 Stereoaufnahmen
243
s .s d'
t
t
d'
Orchester
d'
]•
A b b . 13.5. TiefenstafFelung bei der Aufnahme und der Wiedergabe.
einer einzelnen Schallquelle dynamisch verandern. Uber Mischpultautomationen sind ahnliche Effekte realisierbar. Es handelt sich hierbei nicht um eine realistische Abbildung einer Szene sondern um einen kiinstlich geschaffenen R a u m . Einzelne Instruniente konnen auch iiber eine Stereotechnik aufgenoninien worden sein und eine gewisse Breite ini kiinstlichen P a n o r a m a einnehnien. S o n d e r f a l l Leslie Der Leslie ist ein Keyboardverstarker der aus einer Bassbox besteht und zwei Hochtonhornern, die ini Winkel von 180° zueinander angeordnet sind. Er wird fiir Flachenklange genutzt und hat seinen Ursprung in der Bliitezeit der elektronischen Orgeln. Das Besondere daran ist, dass das Horn drehbar ist. Uber einen Fufischalter kann es aktiviert und in verschiedene Umdrehungsgeschwindigkeiten geschaltet werden. Beim Leslie handelt es sich also um eine bewegliche Schallquelle. Fiir die Polymikrofonierung benotigt m a n drei Mikrofone. Eines fiir die Bassbox und zwei fiir das Horn. Um die Bewegung richtig abzubilden, miissen die beiden Hornmikrofone in einem Winkel von 90° zueinander stehen. Nur so wird die Bewegung horbar. Eine Aufstellung bei 180° h a t t e auf beiden Mikrofonen ein gleichma£iges An- und Abschwellen zur Folge, da sich die Signale beider Mikrofone nicht unterscheiden wiirden. Je ein Horn wiirde sich entweder dem Mikrofon nahern, oder sich von ihm entfernen. Bei der richtigen Aufstellung entfernt es sich vom einen und nahert sich dem anderen Mikrofon. Es gehort nicht zu den alltaglichen Aufgaben eines Mediengestalters, einen Leslie aufzunehmen. Das Beispiel soil zeigen, dass auch bei der Polymikrofonierung bei beweglichen Schallquellen iiber die Wirkung der Mikrofonposition bei der Wiedergabe nachgedacht werden muss. Mehrere Mikrofone und zwei Panoramaregler sind noch keine Garantie fiir eine stereofone Abbildung.
244
13 Aufnahme
13.5.2 Intensitatsstereofonie Bei der Intensitatsstereofonie nutzt man Intensitatsunterschiede, vermeidet aber Laufzeitdifferenzen. Aus dieseni Grund werden die Membranen dicht iibereinander postiert. Die Intensitatsunterschiede erreicht man durch die Richtwirkung der Mikrofone. Durch die korrekte Phasenlage sind Intensitatsstereofonietechniken immer Monokompatibel. 13.5.2.1 XY-Technik Meist verwendet man Kleinmembrankondensatormikrofone mit der Nierencharakteristik. Es sind aber auch andere Charakteristika moglich, aherdings keine Kugeln, weil dort die Intensitatsunterschiede zu gering ausfallen wiirden. Abbildung 13.6 zeigt eine XY-Anordnung relativ zu einer Schallquehe.
,0°
>^
Abb. 13.6. Intensitatsstereofonie: XY-Technik. Der Versatzwinkel ist abhangig von der Richtcharakteristik des Mikrofons. Die Mittensignale sohen weder gedampft, noch verstarkt werden. Deshalb miissen die Mikrofone bis zu ihrem -3-dB-Punkt auseinandergedreht werden. So addieren sich die Mittensignale beider Mikrofone zum richtigen Pegeh Vergroi^ert man den Versatzwinkel, dann verursacht das ein Mittenloch. Wird er welter verengt, dann fiihrt das zu einer Uberhohung der Mittensignale. In der Fachliteratur findet man haufig feste Werte fiir den Versatzwinkel bei XYAnordnungen. Sie liegen fiir eine Niere zwischen 45° und 66°. Das Beste ist, man beginnt mit einem mittleren Versatz und iiberpriift das Ergebnis dann akustisch. Neben dem Versatzwinkel kann auch der Offnungswinkel der Anordnung angegeben werden. Er entspricht dem Doppelten des Versatzwinkels. Die Membranen der Mikrofone werden auf die Rander der Schallquelle gerichtet. Da der Offnungswinkel von der Richtcharakteristik abhangt, ergibt sich die Entfernung von der Schallquelle automatisch aus deren Breite. Je breiter die Schallquehe ist, desto grofier muss die Entfernung sein. Geht man von links nach rechts im Panorama, dann geht die Intensitat am linken Mikrofon kontinuierlich zuriick, wahrend sie am rechten Mikrofon kontinuierlich zunimmt. In der Haupteinsprechrichtung nimmt das Mikrofon die groEte Intensitat auf. Richtet man die Membranen auf die AuEenkanten der Schallquelle, dann ist an ihren Randern die Intensitat eines Mikrofons am grofiten, des anderen am kleinsten. Dadurch steht das Signal auch bei der Widergabe ganz am Rand.
13.5 Stereoaufnahmen
245
Der Vorteil der XY-Technik ist eine prazise Ortung der Schallquellen im Panorama. Probleniatisch ist jedoch der starre Zusamnienhang zwischen Richtcharakteristik und Versatzwinkel sowie Versatzwinkel, Breite der Schallquelle und der Entfernung. Welche Probleme dadurch entstehen konnen, soil im Folgenden erklart werden. Durcli die enge Kopplung der Parameter fiihrt die Korrektur des einen Fehlers haufig zu einem anderen. Exemplarisch fiir alle Techniken soUen die Felilerquellen hier selir genau beschrieben werden. Das soil zeigen, dass die Anwendung einer Stereomikrofonieteclmik melir ist, als die Verwendung von zwei Mikrofonen. Jede Technik hat ilire eigenen Zusammenhange. Sie miissen dem Mediengestalter bewusst sein, wenn er sie anwendet. Ojfnungswinkel zu grofi Wird der Offnungswinkel zu grofi gewalilt, dann kommt es zu einer Pegelsenke im Bereicli der Mittenposition. Beide Mikrofone sind dort bereits zu unempfindlicli, so dass ilire Addition den Pegelverlust niclit melir ausgleicht. Der Fehler muss korrigiert werden, indem der Offnungswinkel reduziert wird. Das kann die Notwendigkeit nach sicli zielien, den Abstand zur Scliallquelle zu vergrofiern, damit die Membranen wieder auf die Aufienkanten der Schallquelle gerichtet sind. Ojfnungswinkel zu klein Ist der Offnungswinkel zu klein, dann muss der Abstand zur Schallquelle unnotig vergrofiert werden. Aufierdem ist die Breitenstaffelung reduziert. Ein kiinstliches Stereobild, das iiber den Panoramaregler im Studio erzeugt wird, legt ein Signal ganz nach links, indem es ungedampft auf den linken Kanal, nicht aber auf den rechten geregelt wird. Die maximale seitliche Verschiebung hat man also durch die maximale Differenz zwischen den beiden Intensitaten. Bei einem zu kleinen Offnungswinkel sind die Intensitaten der beiden Mikrofone nicht ausreichend unterschiedliche, so dass die Signale sich eng um die Mitte der Stereobasis gruppieren. Membranen zeigen zu weit nach aufien Zeigen die Membranen nicht auf die Rander der Schallquelle, sondern weiter nach aufien, dann bedeutet das bei korrektem Offnungswinkel, dass die Mikrofone zu weit entfernt stehen. Daraus folgt ein zu grofier Raumanteil. Aufierdem findet auch hier eine Stauchung des Panoramas statt. Die entsteht durch die falsche Aufstellung, wird aber in deren Sinne korrekt abgebildet. Wenn man die Aufstellung visualisiert, dann erkennt man, dass bei korrekter Ausrichtung auf die Aufienkanten der Schallquelle das gesamte Panorama ausgefiillt ist, wahrend die falsche Aufstellung dazu fiihrt, dass die Schallquelle nur einen Teil des Panoramas nutzt. Genau das wird von der Mikrofonierung auch abgebildet. Die Verlangerung der Membranachsen definiert also die Breite der SchaUquelle.
246
13 ALufnahme Aufnahmebereich 1 Orchester | 0°
,'
'''
I Orchesle"r~| —
'-«
\ •'•
mogliche Basisbreite
Abb. 13.7. Eiii zu grofier Offnungswinkel bedeutet verschenkte Basisbreite. Membranen zeigen zu weit nach innen Zeigen die Mikrofonachsen zu weit nach innen, ist das resultierende Verhalten ein bisschen komplexer. Entscheidend fiir die Positionierung einer Teilschallquelle im Stereobild ist der Intensitatsunterschied zwischen dem rechten und linken Kanal. Zwischen den beiden Mikrofonachsen hat man stets den Fall, dass die Intensitat des einen Mikrofons zunimmt, wahrend die andere abnimmt. Aufierhalb der Flache zwischen den beiden Mikrofonachsen ist das Verhaltnis anders. Hier ninimt die Intensitat an beiden Mikrofonen ab. Damit steigt der Intensitatsunterschied nicht welter in derselben Geschwindigkeit an. Er kann - je nach Charakteristik des Mikrofons sogar stagnieren oder kleiner werden. Diese Nichtlinearitat fiihrt zu Verschiebungen im Panorama. Sehr wahrscheinlich hort man alle Signalanteile auEerhalb der Haupteinsprechachse als Signal von der entsprechenden Seite. Es kommt dort zu einer Haufung. Eine Verbreiterung der Stereobasis findet aufierhalb der Membranen also kaum statt. Die zweite Verzerrung ist der Gesamtpegel. Beide Intensitaten nehmen ab. Damit wird das Instrument wahrscheinlich zu leise abgebildet. Raumanteil Bei korrektem Offnungswinkel, korrektem Abstand zur Schallquelle und einer grofien Schallquelle ist bei akustisch schwierigen Raumen der grofie Raumanteil problematisch. Da die Mikrofone auch neben ihrer Haupteinsprechachse zunachst noch sehr empfindlich sind, ist die Dampfung des Raums nicht optimal. Auch ein Mikrofon zu verwenden, das eine starkere Richtwirkung hat, bringt nicht den gewiinschten Erfolg, da der Offnungswinkel verkleinert werden muss. Damit die Membranen danach wieder auf die Rander der Schallquelle zeigen, muss der Abstand zur Schallquelle vergroEert werden. Ein anderer Ansatz ist, den Offnungswinkel zu verbreitern, um naher an die Schallquelle herangehen zu konnen. Das birgt allerdings die Gefahr, dass die Instrumente
13.5 Stereoaufnahmen
247
in der Mitte nicht ausreichend stark abgebildet werden. Die einzig wirksame Losung ist, von vornherein einen passenden und gut klingenden Raum zu wahlen. Insbesondere bei grofien Besetzungen muss er ausreichend grofi sein, damit eine korrekte Aufstellung innerhalb des Hallradius' moglich ist. Er muss aui^erdem gut klingen, da immer ein betrachtlicher Raumanteil bei einer korrekten Aufstellung aufgenommen wird. 13.5.2.2 Blumlein-Technik Eine Variation der XY-Teclinik ist die Blumlein-Technik, die zwei Achtermikrofone mit einem Versatz von 45° verwenden. Diese ,Rundumsicht' kann sehr natiirlich klingen, ist aber gut klingenden Konzertsalen mit eher kurzen Hallzeiten vorbehalten. Die Richtcharakteristik Acht hat den Vorteil, dass sie liber den Frequenzbereich nahezu konstant bleibt. Bei der Intensitatsstereofonie ist der aufgenommene Pegelunterschied relevant. Dieser andert sich aber nicht nur iiber den Einfallswinkel, sondern auch iiber die Frequenz, da die Richtcharakteristik fiir verschiedene Frequenzen unterschiedlich ist. Auch wenn die Anordnung aussieht wie ein Blume, kommt der Name Blumlein nicht Bliimlein - von dem britischen Ingenieur Alan Blumlein.
,0°
X Abb. 13.8. Blumlein-Technik: Keine Blunie sondern eine Stereomikrofonietechnik.
13.5.2.3 MS-Technik MS steht fiir Mitte-Seite. Hier wird also kein Signal aufgezeichnet, dass einen linken und einen rechten Kanal enthalt. Statt dessen nimmt ein Mikrofon, iiblicherweise eine Niere oder eine Kugel das Mittensignal auf. Die Charakteristik des Mittenmikrofons ist aUerdings beliebig. Das Seitensignal wird durch eine Acht aufgenommen. Abbildung 13.9 zeigt eine MS-AufsteUung. Um die Links-Rechts-Information, die man ja fiir die Mischung benotigt, aus dem MS-Signal zu gewinnen, muss man es decodieren. Dafiir gibt es fertige Schaltungen, es geht aber auch manuell. Zum besseren Verstandnis soil die manuelle Decodierung hier beschrieben werden. Das Seitensignal enthalt sowohl die Seiteninformationen fiir den rechten, als auch fiir den linken Kanal. AUerdings sind die Informationen beider Seiten zueinander in der Phase
248
13 Aufnahme
10°
A b b . 13.9. Intensitatsstereofonie: MS-Technik. gedreht. Das macht m a n sich bei der Decodierung zunutze. Im Mischpult fiihrt m a n das Mittensignal und das Seitensignal auf jeweils einen eigenen Kanal. Anschliefiend verbindet m a n den Direct Out des Seitenkanals mit einem weiteren Eingangskanal. Dieser wird in der Phase gedreht. Man hort die beiden Seitenkanale ab und regeh den zweiten Seitenkanal so lange hoch, bis sich die beiden Seitensignale moghchst voUstandig ausloschen. Anschhefiend dreht m a n die Panoramaregler auseinander und fahrt das Mittensignal im gewiinschten Mai^ dazu. Hat m a n den Direct Out des hnken Seitenkanals mit dem Eingang des rechten verbunden, dann lasst sich iiber den linken Fader der Anted des Seitensignals, mit dem Fader des Mittenkanals der Anted des Mittensignals regeln. Durch die Moghchkeit, nachtraglich die Balance zwischen Mitte und Seite zu verandern, kann m a n auch den Raumeinfluss nachtraglich reduzieren, indem m a n mehr Mittensignal dazumischt. Das geht allerdings auf Kosten der Stereobreite, da die Intensitatsunterschiede zwischen rechtem und linkem Kanal verringert werden. Es ist aber immer eine gute Idee, sich bereits im Vorfeld Gedanken iiber die raumlichen Gegebenheiten zu machen. Im Gegensatz zur XY-Technik ist m a n etwas freier, was den Abstand zur Schallquelle angeht. Durch den grofien Aufnahmewinkel von 180° sind auch nahe Mikrofonierungen moglich. Die dadurch eventuell entstehenden Uberhohungen der Instrumente in der Mitte lassen sich nach der Decodierung notfalls ebenfalls etwas abmildern. Die MS-Technik wird haufig als Hauptmikrofonie fiir mittelgrofie Schallquellen - Schlagzeug oder Konzertfliigel - verwendet. Gerade beim Schlagzeug lassen sich im Vergleich zur haufig auch im Studio verwendeten OverheadAufstellung erstaunliche Ergebnisse erzielen. Hier richtet m a n die Anordnung oberhalb der Bassdrum auf die Mitte des Sets. XY- und MS-Signale lassen sich ineinander iiberfiihren. Damit ist die grundsatzliche Trennung zwischen Raumanteil und Mittensignal theoretisch auch nachtraglich auf XY-Anordnungen anwendbar. In der Praxis ist das Verfahren der XY-Decodierung nach MS und zuriick jedoch aufierst ungewohnlich. 13.5.3
Laufzeitstereofonie
Intensitatsstereofonie ist monokompatibel. Nicht so die Laufzeitstereofonietechniken. Laufzeiten bedeuten auch immer Phasenverschiebungen. Diese
13.5 Stereoaufnahmen
249
Phasenverschiebungen sind bei der stereofonen Wiedergabe unproblematisch, konnen jedoch bei der elektronischen Addition zu Ausloschungen fiihren. Laufzeitstereofonieverfahren bieten sich daher iiberall dort an, wo eine monofone Wiedergabe nicht zu erwarten ist - zum Beispiel bei Beschallungen die nicht mitgeschnitten werden - oder wenn die akustischen Eigenschaften des Raumes gegen eine Intensitatsstereofonietechnik sprechen, weil beispielsweise der Abstand zur Schallquelle zu grofi gewahlt werden miisste. 13.5.3.1 AB-Technik Die AB-Technik besteht aus 2 parallel angeordneten Mikrofonen, die auf einer Aclise vor der Schallquelle aufgestellt werden. Aus klanghchen Griinden verwendet man hier gerne Kugeln. Die erfordern allerdings einen Raum, der entsprechend gut klingt. Der Abstand soUte mindestens 20 Zentimeter betragen. Bis 40 Zentimeter spricht man von Klein-AB. Der Mikrofonabstand soUte aber nicht mehr als 1,5 Meter betragen. Welche Abstande tatsachhch moglich sind, ist abhangig von der Charakteristik des Mikrofons. Stehen die Mikrofone zu weit auseinander, dann entstehen auch bei dieser Technik Locher zwischen den Mikrofonen, in denen der Pegel gegeniiber den anderen Bereichen abfallt. Wie nah die Mikrofone zusammen stehen diirfen, ist abhangig von der Breite der SchaUquelle. Nicht nur die Mitte, auch die Rander miissen noch mit einem ausreichenden Pegel aufgezeichnet werden. Ist die Schallquelle zu breit, um das mit zwei Mikrofonen ausreichend zu gewahrleisten, kommt die Mehrpunkt-Technik zum Einsatz.
0°
Abb. 13.10. Laufzeitstereofonie: AB-Technik.
13.5.3.2 Mehrpunkt-Technik Die Mehrpunkt-Technik erweitert die AB-Technik um weitere Mikrofone. Um zusatzliche Interferenzen zwischen den Mikrofonen zu vermeiden, sollten die Mikrofonabstande eher gro£ gewahlt werden. Ansonsten gelten dieselben Regeln, wie fiir die AB-Technik. 13.5.4 Gemischte Techniken — Aquivalenzstereofonie Das Gehor nutzt Klang-, Laufzeit- und Intensitatsunterschiede. Die gemischten Techniken versuchen, Telle dieses Verhaltens nachzubilden. Die meisten
250
13 Aufnahme
Techniken arbeiten nur niit Laufzeit- und IntensitatsdifFerenzen, einige versuchen aber auch die Aufienohriibertragungsfunktion auf den Schall anzuwenden. 13.5.4.1 Ohne Klangveranderung Die Idee der geniischten Technik ohne Klangveranderung ist immer, sowohl Laufzeit, als auch Intensitatsunterschiede aufzunehmen, die denen des Gehors entsprechen. Die richtige Laufzeit erreicht man, indem man fiir die Membranen ungefahr Ohrabstand wahlt. Ein tatsachhcher Zusammenhang zwischen dem Ohrabstand und dem Mikrofonabstand wird fiir die Aufzeichnung von Lautsprechersignalen in Fachkreisen eher verneint. Tatsachhch verandern sich manche Techniken in Richtung deuthch hoherer Abstande. Fiir die klangverandernden Techniken, die eine HRTF imitieren, ist die Ahnhchkeit jedoch ein wichtiges MerkmaL Entwickelt wurden die meisten Verfahren von den europaischen Rundfunkanstalten. Exemplarisch soU das Verfahren des Franzosischen Rundfunks erklart werden. Es ist heute auch in Deutschland am weitesten verbreitet. Die verwandten Techniken unterscheiden sich in der Wahl des Mikrofons, im Abstand der Mikrofone zueinander und im VersatzwinkeL 13.5.4.2 ORTF ORTF steht fiir Office de Radiodiffusion Television Frangaise und ist einfach der Name der Rundfunkanstalt, die das Verfahren entwickelt hat. Verwendet werden zwei Nierenmikrofone, die im Abstand von 17 Zentimetern voneinander und mit einem Offnungswinkel von 110° zueinander montiert werden. Es gibt spezielle ORTF-Schienen, auf denen die Mikrofone direkt montiert werden konnen. 10°
/@^55^
0 .
Abb. 13.11. Mikrofonanordnung bei ORTF. Tabelle 13.1 zeigt die verwandten Techniken. 13.5.4.3 Mit Klangveranderung Wahrend ORTF und die verwandten Techniken bei Lautsprecherwiedergabe gute Ergebnisse liefern, sind die folgenden Techniken fiir die Kopfhorer optimiert. Neben Laufzeit- und Intensitatsunterschieden kommt es dabei auch zu
13.5 Stereoaufnahmen
251
Tabelle 13.1. Aquivalenzstereofonietechniken. Bezeichnung Charakteristik Versatz Abstand Sonstiges NOS 2x Mere 30 cm 45° Entwicklung des Niederlandischen Rundfunks. DIN 20 cm 2x Mere 45° Faulkner Gute Stereoabbildung auch 30 cm 2x Aclit 45° bei tiefen Frequenzen. Nur giinstig bei schlechten 2x Superniere 135° 5 cm Olson akustischen Verhaltnissen.
Klanganderungen, die eine Aufienohriibertragungsfunktion nachbilden sollen. Aus diesem Grund spricht m a n hier auch von Ohrsignalen im Gegensatz zu den Lautsprechersignalen bei Verfahren ohne Klangveranderung. 13.5.4.4 OSS - Jecklin-Scheibe Das „Optimale Stereo Signal" resultiert aus einer Mikrofonaufstellung, bei der zwei Kugelmikrofone durch eine absorbierende Scheibe voneinander getrennt sind. Zunachst wurde ein Scheibendurchmesser von 30 cm und ein Mikrofonabstand von 16 cm festgelegt. Spater wurde die Scheibe auf einen Durchmesser von 35 cm erweitert und der Mikrofonabstand deutlich auf 36 cm erhoht. Der Offnungswinkel betragt 60°. Die Jecklin-Scheibe, die nach ihrem Entwickler, dem Schweizer Tonmeister Jiirg Jecklin benannt worden ist, sorgt nicht nur fiir die Klangveranderung, sondern zusatzlich auch fiir sonst bei Kugelmikrofonen nicht auftretende Intensitatsunterschiede. Trotz des absorbtiven Charakters der Trennscheibe kann es zu Reflexionen an der Scheibe kommen, die an der Kapsel fiir Interferenzen sorgen konnen. Eine Variation ist die Madson-Shadow-Technik, bei der zwei Achten mit einem Offnungswinkel von 90° und einem Abstand von 30-50 cm durch eine Trennplatte voneinander abgegrenzt werden, die einen Durchmesser von 50 cm hat. .36cm ;P°
.
Jecklin-Scheibe 0 35cm
A b b . 13.12. Mikrofonanordnung bei OSS.
252
13 Aufnahme
13.5.4.5 Kunstkopf Die Kunstkopfaufnahme erzeugt sehr beeindruckende Aufnahmen, die aber aufgrund des extrem veranderten Frequenzgangs nur iiber Kopfhorer zufriedenstellend abgehort warden konnen. Als groi^te Besonderheit gilt die Aui^er-Kopf-Lokalisation. Werden Lautsprechersignale iiber Kopfhorer abgehort, dann fehlt dem Signal die Aufienohriibertragungsfunktion. Bei Kunstkopfaufnahmen wird sie aber bereits bei der Aufnahme in das Signal eingearbeitet. In einen Kopfnachbau wird in die Gehorgange, an die Stelle des Trommelfells je eine Mikrofonkapsel eingesetzt. Der Bereich des Gehorgangs wird also zweimal durchlaufen. Bei der Aufnahme und bei der Wiedergabe. Durch die tiefe Unterbringung erreicht man allerdings sehr gro£e Intensitats- und Frequenzgangunterschiede, die der Ortung zugute kommen. Da die Kunstkopftechnik nicht fiir die Lautsprecherwiedergabe geeignet ist, fiihrt sie nur ein Nischendasein. 13.5.4.6 Echtkopf Eine Variation zum Kunstkopf sind Echtkopfmikrofone, die wie WalkmanKopfhorer in die eigenen Ohren eingesetzt werden. Auch hier hat man Klangveranderungen durch die HRTF des Tragers. Problematisch ist, dass sich jede Kopfbewegung in einer Verschiebung des Panoramas bemerkbar macht. Au£erdem sind die Mikrofone anfallig fiir Korperschall. Fiir AuEenaufnahmen sind sie jedoch gut geeignet, da man nicht viel Material wie Stative benotigt. Im Gegensatz zum Kunstkopf liegen die Mikrofone am Anfang des Gehorgangs, so dass sich das Ergebnis eher fiir die Lautsprecherwiedergabe eignet. 13.5.4.7 Stereomikrofone Stereomikrofone beherbergen zumindest zwei Kapseln in einem Gehause. Sie sind fiir den Einsatz einer Stereotechnik konzipiert. Es gibt sie auch fiir die Koinzidenzmikrofonietechniken XY und MS, aber auch als klangveranderndes Trennkorpermikrofon. Crown Sass Das Crown Sass besitzt 2 Druckempfanger, die in eine Begrenzungsflache eingebaut sind. Sie wirken also als Grenzflachenmikrofone. Die Richtwirkung wird durch die Ausformung der Grenzflache und einen Trennkorper aus Schaumstoff zwischen beiden Kapseln reahsiert.
13.5 Stereoaufnahmen
253
Kugelfldchenmikrofon Das Kugelflachenniikrofon von der F i r m a Schoeps arbeitet mit zwei in eine Kugel eingelassenen Druckempfangern. Die Kugel hat einen Durchmesser von 20 cm. Sie sorgt fiir die notwendigen Intensitatsunterschiede zwischen den beiden Kapseln. Da die Kapseln einander gegeniiber liegen, hat das Mikrofon einen OfFnungswinkel von 180°. Der nutzbare Aufnahmewinkel wird voni Hersteher mit 90°, beim NachfolgemodeU K F M 360 mit 120° angegeben. Aui^erhalb dieses Bereichs komnit es zu eineni zu starken HohenabfaU. Zwar h a n d e h es sich um die Imitation einer H R T F , dennoch soh eine gute Lautsprecherwiedergabe dadurch gewahrleistet sein, dass die Summe beider Kanale einen konstanten Frequenzgang aufweist. 13.5.5 Surroundtechniken Surround bezeichnet den Versuch, den Zuhorer in die Mitte einer Szene zu versetzen. Bei der Stereowiedergabe hat er zwar eine Breiten- und Tiefenstaffelung vor sich, gehort aber nicht zu der Szene dazu, ist nur Beobachter. Mit der DVD kam ein Medium auf den Markt, das ausreichend Kapazitat bietet, um Mehrkanalformate mit einer angemessenen Spielzeit speichern zu konnen. Hinzu kommt, dass durch den Boom der Heimkinosysteme auch entsprechende Anlagen verfiigbar und in den Wohnzimmern der Zuhorer zu finden sind. Ubhch sind 5 Richtungskanale - der sechste Kanal des 5.1-Systems ist ein EflFektkanal - Links (L), Mitte (C), Rechts (R), Links Surround (LS) und Rechts Surround (RS). Zwei Ansatze der raumhchen Platzierung der Akteure sind denkbar. Bei der klassischen Konzertsituation hat der Zuhorer die Biihne vor sich. Von der Seite und von hinten kommen Raumsignale und die Atmosphare durch das P u b h k u m . Der andere Ansatz steUt den Zuhorer in die Mitte des Klangkorpers. Die Instrumente konnen von aUen Seiten geortet werden. Das ist eine verbliifFende und zunachst beeindruckende Moghchkeit, sie ist aber nicht reahstisch, sie ist nicht abwartskompatibel zur Stereowiedergabe und es ist klanghch auch nicht optimal, das die von hinten eintrefFenden SchaUereignisse pegel- und frequenzseitig gedampft beim Horer ankommen. Im Bereich des Horspiels hingegen bieten sich gute Moghchkeiten, den Spielr a u m zu erweitern und den Zuhorer in das Geschehen einzubinden, ihm eine Position in der Szene zuzuweisen. Bis auf das Atmokreuz wurden die nachstehenden Techniken aus bestehenden Raumanordnungen in Verbindung mit bestehenden 3-Kanal-Anordnungen (LCR) entwickeh. 13.5.5.1 Atmokreuz Das Atmokreuz ist eine einfache vierkanahge Mikrofonanordnung, die in alle vier Richtungen ,h6rt'. Dazu werden vier Nierenmikrofone verwendet. Das
254
13 Aufnahme
Atmokreuz ist gut geeignet, um eine Szene aus alien Richtungen aufzunelimen, es tragt aber keine vorne/hinten-Inforniation. Abbildung 13.13 zeigt die Anordnung.
A b b . 13.13. Mikrofonanordnung des Atmokreuzes.
1 3 . 5 . 5 . 2 F u k u d a Tree Die Basis des Fukuda Trees ist der sogenannte Decca Tree, eine Dreiecksanordnung aus drei Kugeln mit einem relativ gro£en Abstand. Der Fukuda ersetzt sie durcli Nierenniikrofone, fiigt zwei weitere fiir die Surround-Kanale liinzu und verbindet vorne und hinten mit zwei weit aufierhalb aufgestellten Kugeln. Abbildung 13.14 zeigt die Aufstellung.
90cm
A b b . 13.14. Mikrofonpositionen beim Fukuda Tree.
13.5.5.3 I N A 5 INA steht fiir Ideale Nierenanordnung. Die Basis fiir INA 5 war INA 3 mit drei Nierenmikrofonen. INA 5 verwendet 5 Nieren, die in verscliiedenen Abstanden und Winkeln zueinander aufgestellt werden konnen. So lassen sicli verscliiedene Aufnalimewinkel realisieren. Tabelle 13.2 zeigt die Mafie fiir einige Aufnalimewinkel.
13.5 Stereoaufnahmen 0°, 1
y,
255
X, 1
3 Yz
. 13.15 . Mikrofonpositionen bei INA 5 Tabelle 13.2. INA 5: Abstande und Winkel fiir unterschiedliche Aufnahmewinkel. Aufnahmewinkel xi X2 Y2 yi p ±50° 58,5 cm 51,5 cm 17 cm 44 cm 90° 50° ±60° 42,5 cm 36,5 cm 17 cm 46,5 cm 90° 50° ±72° 30,5 cm 24 cm 17 cm 58,6 cm 90° 70°
13.5.5.4 OSIS 321 Von dem Erfinder der OSS-Technik und deni Namensgeber der Jecklin-Scheibe stammt das Konzept zu einer klangverandernden Surround-Anordnung mit zwei Trennscheiben. Die Anordnung setzt sich zusanimen aus zwei Kugelmikrofonen fiir die vorderen Seitensignale, einer Superniere mit eineni kurzen Interferenzrohr fiir den Center-Kanal und zwei Nierenmikrofone fiir die riickwartigen Kanale. Sowohl zwischen den beiden Kugeln fiir die Seitensignale als auch den beiden Nieren fiir die Surround-Kanale steht eine Trennscheibe. Das Center-Mikrofon ist ini Trennkorper integriert. In seinem lesenswerten Skript beschreibt Jiirg Jecklin die Gedanken, die zum Konzept von OSIS 321 gefiihrt haben^. Insgesanit forniuliert er 4 Kernanforderungen, die die Mikrofonauswahl bestimnien: • • • •
Qualitat des Direktsignals (Image) Qualitat des Raumsignals (Space) Einheit von Direkt- und Raumsignal Klang (Sound)
Aus den drei P a r a m e t e r n Sound, Image und Space leitet sich auch der Name fiir diese Technik ab: Optimal Sound, Image, Space. Die Kugeln bilden zusammen eine Stereoanordnung. Die Superniere fiir das Mittensignal soil nur einen geringen Winkel abdecken und wird aus klanglichen Griinden im Pegel reduziert. So soil die Schallquelle mit dem bestmoglichen Klang aufgezeichnet werden. Die Nierenmikrofone fiir den Raumklang sind klanglich nicht optimal, bieten aber durch ihre Off-Axis eine gute Kanaltrennung zum Direktsignal. Enthalt das Raumsignal nur wenig Direktschall, 3 vgl.[14]
256
13 Aufnahme
dann hat der Tonmeister die grofiten Einflussmoglichkeiten auf die Raumlichkeit. Aufierdem sind Klangveranderungen durch das Wegfalien der SurroundKanale bei Stereowiedergabe in diesem Fall minimal. Ein weiterer Vorteil bei der Verwendung der Nieren ist, dass die Mikrofone in der Nahe der Scliallquelle aufgestellt werden konnen, ohne zu viel Direktschall aufzunehmen. Die Notwendigkeit fiir die Trennscheibe in der Surround-Anordnung begriindet Jecklin mit dem gegenseitigen Einfluss der Nieren da die Off Axis zwingend fiir die Kanaltrennung auf die Scliallquelle gerichtet sein muss. Deslialb stehen sie parallel zueinander und der Aufnalimebereich wiirde zu weit iiberlappen. Die Einheit von Image und Space ist dann gegeben, wenn der Raumeindruck gegeniiber dem Direktsignal plausibel ist. Dazu benotigt man auch eine vorne-liinten Kopplung, die durch die Kugeln wie bei Fukuda Tree gegeben ist. Eine konkurrierende Anforderung ist, dass Image und Space voneinander moglichst unabhangig sein sollen. Nur so kann aktiv in die Balance von Image zu Space eingegriffen werden. Die Trennung von Image und Space als Klangzentrum vorne und Raumeindruck hinten zeigt, dass die Technik nicht gedacht ist, um inmitten eines Klangkorpers verwendet zu werden. Klanglich spricht dagegen zum Beispiel die Verwendung von Nierenmikrofonen fiir die Surround-Kanale. Abbildung 13.16 zeigt die Anordnung.
m (^ 1^ © Image Scheibe 0 32cm
Space Scheibe 0 28cm
Abb. 13.16. Mikrofonpositionen bei OSIS 321.
13.5.5.5 K F M 360 Das Kugelflachenmikrofon von Schoeps kann fiir Surround-Aufnahmen mit zusatzlichen Mikrofonen bestiickt werden. Es handelt sich um zwei Achten, die nahe an den eingebauten Druckempfangern montiert werden und jeweils nach vorn und hinten weisen. Ein Prozessor verrechnet die Mikrofonsignale miteinander. Die vorderen und hinteren Seitenkanale sind jeweils eine Kombination aus Kugel und Acht, ahnlich der MS-Technik. Der Center-Kanal wird aus den beiden Achten generiert.
13.6 Der Aufnahmeablauf
257
13.5.5.6 Schallfeldmikrofone Das Soundfield-Mikrofon hat das Ziel, das gesamte Schallfeld um das Mikrofon herum aufzunehmen. Dazu sind 4 Kapseln eingebaut, die tetraederformig angeordnet sind. Ein Prozessor kann die Einzelsignale nun beliebig kombinieren und so nachtraglich scheinbar die Mikrofonposition und die Ersatzcharakteristik - also die Charakteristik des Gesamtsystems - variieren. aui^erdem erfolgt eine Konvertierung voni originaren B-Format des Mikrofons in ein Zielforniat, zum Beispiel Surround. Das B-Forniat bezeichnet ein Vierkanalsignal niit den Kanalen W, X, Y und Z. W bezeichnet den Referenzpunkt des Systems, X steht fiir vorne/hinten, Y fiir rechts/hnks und Z fiir oben/unten.
13.6 Der Aufnahmeablauf Die Betrachtung der Aufnahnie ist haufig eine rein Technische. Dieser Abschnitt soh heraussteUen, dass es sich bei der Aufnahme nicht um einen technischen, sondern um einen kreativ schopferischen Akt handelt. Die Kommunikation ist das wesenthchste Element der Aufnahme. Das beschriebene Herantasten an das optimale Ergebnis kann nur dann gerichtet vor sich gehen, wenn der Sprecher oder Musiker durch konkrete Hinweise unterstiitzt wird. Wie ansprechbar ein Regisseur wahrend einer Aufnahme ist, ist individuell verschieden. Meist entwickelt sich mit der Zeit eine eigene, sehr knappe Sprache, die konkret genug ist, um wichtige Informationen auszutauschen, aber dennoch knapp genug ist, um nicht lange von der Aufnahme abzulenken. Die Kommunikation ins Studio hinein ist bis auf ganz wenige Ausnahmen auf die Zeit zwischen zwei Aufnahmen begrenzt. Im Sinne der oben beschriebenen aktiven Steuerung der Aufnahme entstehen die Aufnahmeunterbrechungen alleine durch die Notwendigkeit der Kommunikation mit dem Sprecher oder Musiker im Studio. 13.6.1 Der Wohlfuhlfaktor Wichtig fiir die Protagonisten einer Aufnahme ist eine ruhige, entspannte Atmosphare, die Konzentration fordert und Kreativitat erlaubt. Die optimale Betreuung der Musiker oder Sprecher ist deshalb entscheidend fiir den Erfolg der Aufnahme. Es ist dafiir immer hilfreich, den Produzenten oder Regisseur, sowie die Kiinstler als Gaste zu betrachten. Wie mochten Sie empfangen werden? Man muss zunachst einmal den Sprecher wahrnehmen. Kennt er das Studio noch nicht, dann interessiert er sich vielleicht fiir die Raumlichkeiten, vielleicht aber auch nicht. Auch die Protagonisten untereinander kennen sich nicht immer. Sie einander aktiv vorzustellen erzeugt eine positive Stimmung. Damit man auch Zeit fiir seine ,Gaste' hat, ist es notwendig, dass die Technik einsatzbereit und gepriift ist. So ist der Techniker entspannter und mit
258
13 Aufnahme
ihni alle Anwesenden. Aufierdem muss er seine Aufnierksanikeit nicht zwischen Technik und Kiinstlern aufteilen. Auch bei Musikproduktionen, bei denen die Musiker ihre Instrumente erst niitbringen, zuni Beispiel das Schlagzeug, kann ein Standardsatz an Mikrofonen bereits auf Stativen montiert werden. So ist man wahrend des Aufbaus bereits in der Nahe des Musikers und kann mit ihm etwaige Sonderwiinsche absprechen und darauf reagieren. 13.6.2 Wichtige Informationen Der Informationsfluss muss gewahrleistet sein. Professionelle und erfahrene Kiinstler wissen, worauf es ankommt und konnen zur Not auch die fiir sie wichtigen Fragen stellen. Qualifizieren Sie sich ebenfalls als Profi und zeigen Sie, dass Sie wissen, worauf es ankommt. Zeigen Sie dem Sprecher seinen Arbeitsplatz. Sagen sie ihm, wo sein Kopfhorer hegt und wo er ihn lauter und leiser machen kann. Vorher sohte auf jeden Fall bereits ein Signal auf den Kopfhorer aufgeschaltet werden. Das kann bei einer Radiosendung das Programm, oder auch einfach nur angenehme Musik sein. Wichtig dabei ist, dass das Signal mit Nominalpegel am Kopfhorerweg anliegt. Ist sie zu leise und stellt der Kiinstler die Lautstarke auf die Musik ein, dann wird das erste Wort, das Sie zu ihm sagen fiir ihn eine unangenehme Uberraschung sein. Oft hat der Sprecher nicht nur einen Kopfhorer und einen Lautstarkeregler. Moglicherweise hat er eine Quellenanwahl, eine Rauspertaste und eine Kommandotaste (engl. Talkback). Erklaren Sie ihm was er abhoren muss oder abhoren kann. Wenn man von Anfang an das Mikrofon geoffnet hat, so dass er sich horen kann, dann ist die Wahrscheinlichkeit, dass er eine falsche Taste driicken wird geringer, als wenn er sich anfangs nicht horen kann. Sagen Sie ihm bei Livesendungen auch, wie er mit Ihnen bei geoffnetem Mikrofon Kontakt aufnehmen kann, ohne dass das iiber den Sender geht. Haufig werden auch optische Signale verwendet, die den Betriebszustand anzeigen. Das ist auch wieder hauptsachlich beim Rundfunk der Fall. Rotlicht kann bedeuten, dass das Mikrofon offen ist oder auch, dass der Sendeweg geoffnet ist. Auch das ist eine interessante Information fiir den Kiinstler. Bei Aufnahmen mit semiprofessionellen Akteuren ist es haufig sinnvoller, auf das Rotlicht zu verzichten, oder es dauerhaft zu aktivieren, da es eine sehr starke Signalwirkung hat. Sieht der nicht so professioneller Sanger, wann der Mediengestalter bei einer Overdub Session ein Punch In vornimmt, dann kann ihn das irritieren und so zu Fehlern fiihren. Sorgen sie dafiir, dass der Sprecher den Produktionsplan kennt. Es geht aber nicht nur darum, den Besucher zu informieren. AuEerdem miissen auch Informationen vom Kiinstler abgefragt werden. Man muss dessen Vorlieben und Gewohnheiten in Erfahrung bringen, um moglichst gut darauf eingehen zu konnen.
13.6 Der Aufnahmeablauf
259
13.6.3 Technik — Die wichtigste Nebensache Die letzten Abschnitte haben eine Reihe an Tatigkeiten beschrieben, die nichts niit Technik zu tun haben. Als Mediengestalter kann man sich nicht darauf beschranken, nur die Technik zu bedienen. Gerade vor der Aufnahme besteht ein erhohter Komniunikationsbedarf. Beschaftigt man sich hier mit der Technik, dann wird man dem nur schwer gerecht. Vieles kann man durch eine griindhche Vorbereitung abfangen. AUes soUte so weit wie mogUch eingesteht und getestet sein. Ahes andere muss scheinbar nebenbei erfolgen. Auch wahrend man die Mikrofone einrichtet muss man fiir den Sprecher oder Musiker ansprechbar sein. Wahrend der Aufnahme geht es um die Umsetzung der Vorgaben, um die Interpretation, den Ausdruck, aber nicht um Technik. Von der Technik wird erwartet, dass sie funktioniert. Storungen des Ablaufs durch nicht funktionierende Technik wirken sehr lastig. Wenn der Techniker eingreifen muss, dann muss er das tun. Viele Tatigkeiten lassen sich aber erledigen, ohne dass der Sprecher das mitbekommt. Die Einrichtung des Mikrofons erfolgt wahrend der Sprecher sein Manuskript sortiert, das Pegeln erledigt man wahrend sich Sprecher und Regisseur besprechen, die Kopfhorermischung steht man ,bhnd' nach den Vorheben ein, die man vom Musiker bei der Aufstehung der Mikrofone erfahren hat... Damit wird die Zeit fiir eine Ansprechprobe oder den Soundcheck wesenthch reduziert. Bei der Aufzeichnung geht es um einen Pegel, nicht um die Lautstarke. Genauso geht es um ein verzerrungsfreies Signal, nicht um Sound Design. Ahe Anderungen, die man am Signal vornimmt, miissen darauf abgestimmt sein, das Signal in seiner besten Form aufzuzeichnen, damit es spater moglichst vielseitig variiert werden kann. Allerdings behalt man den spateren Anwendungsfall bereits im Blick. Was den Pegel angeht, so ist man um einen hochstmoglichen Signal-Rauschabstand bemiiht, klanglich erfolgt allenfalls eine Entzerrung, jedoch keine Klangformung. Effektsignale werden nicht aufgezeichnet. Sie entstehen jedes Mai ,live' im Effektgerat. Live Recordings kombinieren Aufnahme und Mischung. Hier gilt das Gesagte nur bedingt, da auch die Klanggestaltung und die Lautstarkebalance hergestellt werden miissen. Der technische Aspekt der Aufnahme gilt insofern fiir die Wandlung und den Vorverstarker, sowie fiir die Summe. Dazwischen gelten die Regeln der Mischung, die im gleichnamigen Kapitel 14 beschrieben wird. 13.6.4 Take fiir Take Das Erste, was passieren muss, wenn man aus dem Studio in die Regie kommt, ist die Priifung der Kommandoanlage. „K6nnen Sie mich horen?" ist der Klassiker der Fragen. Es nimmt den Sprecher aus der isolierten Umgebung. Aui^erdem provoziert es eine Antwort und zeigt so, dass die Kommunikation in beide Richtungen funktioniert. Dann kann die Aufnahme beginnen.
260
13 Aufnahme
Musikaufnahnien beginnen haufig niit einer Probeaufnahme, die genieinsam mit dem Musiker abgehort wird. Dessen Klangvorstellungen miissen beriicksichtigt werden. 1st der Musiker zufrieden, wird es ernst. Wahrend der Aufnahme verstandigt man sich mit dem Produzenten oder Regisseur dariiber, ob die Aufnahme in der Form in Ordnung ist, ob man Korrekturen durchfiihren mochte und ob die Aufnahme unterbrochen wird. Ist die Aufnahme angehalten, dann sohte dem Musiker die Teilnahme an den Gesprachen ermoghcht werden, indem man die Kommandotaste driickt, wahrend in der Regie gesprochen wird. Es wirkt fiir den Menschen im Studio leicht so, als werde iiber ihn Gericht gehalten, wenn er nicht horen kann, was in der Regie diskutiert wird. Grundsatzhch gibt es zwei Aufnahmeansatze. Entweder wird bei jeder Unstimmigkeit unterbrochen, so dass man am Ende mit moghchst wenig Aufnahmezeit jeden Bereich des Stiicks fehlerfrei hintereinander vorhegen hat. Das ist sehr bequem im Schnitt, spart Zeit, ist aber dem Groi^en Ganzen etwas abtraghch, weil weite Bogen nur schwer zu spannen sind, wenn man in kurzen Abschnitten aufnimmt. Die andere Moghchkeit ist, zunachst eine moghchst komplette Version aufzunehmen und dann Teile heraus zu korrigieren. Welche Aufnahmetechnik grundsatzhch verwendet wird, muss am Anfang klar sein. Der iibhche Weg ist die abschnittsweise Produktion. Das Stiick wird von vorne gelesen oder gespieh und bei einem Fehler wird sofort unterbrochen. Es kostet am Anfang etwas Uberwindung, dazwischen zu gehen, wenn jemand spieh oder spricht. Aber ein Fehler ist ein Fehler. Er muss korrigiert werden. Und je schneller man nach einem Fehler abbricht, desto weniger Zeit verhert man. Neben der Zeit ist auch die Konstitution des Musikers oder Sprechers wichtig. Man kann nicht unbegrenzt lang den Ansatz fiir sein Biasinstrument halten, oder die Konzentration. Eine sofortige Unterbrechung nach einem Fehler schont also die Ressourcen. Schwieriger ist die Beurteilung, wann die Darbietung zwar korrekt aber nicht optimal ist. Hier muss man abschatzen konnen, ob der Akteur im Studio in der Lage ist, es besser zu machen. Grundsatzhch ist aber auch hier eine schnelle Entscheidung gefragt. Und wenn man sich fiir eine Korrektur entscheidet, muss das ebenfaUs die Aufnahme sofort unterbrechen. Entscheidet man sich gegen eine Korrektur, dann muss man die Frage abhaken. Manchmal kommt es vor, dass man einige Zeit spater noch dariiber nachdenkt, ob eine Korrektur nicht besser gewesen ware. Das ware sie in diesem Moment sicher auch. Man wird sich spater immer iiber die Passage argern. Aui^erdem lenken die Gedanken iiber einen vergangenen Abschnitt von dem gerade gespielten ab. Die Aufforderung, einen Teil zu wiederholen muss mit einer Anleitung einhergehen, was geandert werden soil. Kleinere Unkonzentriertheiten, die zu einer unsauberen Aussprache gefiihrt haben, muss man nicht genau benennen. Hier reicht meist die Aufforderung, den entsprechenden Abschnitt zu wiederholen. Ob ein Sprecher oder Musiker auch genau wissen mochte, was falsch war, ist individuell verschieden.
13.6 Der Aufnahmeablauf
261
Manchnial kann man nicht einnial sagen, was falsch war. Aber wenn man beim Zuhoren iiber etwas stolpert, dann hat das meist auch einen Grund. Und dann ist die Wahrscheinlichkeit grofi, dass man spater wieder dariiber stolpern wird. Selbst wenn die Stelle doch in Ordnung war, macht man lediglich eine Korrektur umsonst. Man hat natiirhch auch die Moghchkeit, sich eine Aufnahme anzuhoren. Normalerweise verhert man dadurch aber mehr Zeit, als durch eine direkte Korrektur. Fiir die alte Version kann man sich auch im Schnitt entscheiden. Manchnial ist man sich nicht sicher, ob ein scheinbarer Fehler nicht doch beabsichtigt ist. In diesem FaU soUte man den Abschnitt fertigsteUen und anschhei^end mit dem Kiinstler die SteUe besprechen. Was bei der Aufnahme passiert, soUte protokoniert werden. Dazu macht man sich Notizen in das Manuskript oder die Partitur, fahs vorhanden. Das ist zusatzhche Arbeit bei der Aufnahme, erleichtert aber den Schnitt. Diese Notizen soUten mit Bleistift gemacht werden. Haufig verwirft man eine komplette Version. Die Notizen der alten Version sind damit hinfahig. Um die Hande frei zu haben, nutze ich personhch gerne Fui^schalter fiir die Aufnahmefunktion. Gerade bei nicht-kiinstlerischen Wortproduktionen wird oft zu wenig Wert auf eine gute Aufnahme gelegt. Oft hegt das an den Fahigkeiten der Reporter, die ihre Texte lesen, haufig hegt es am Zeitdruck, oft genug aber auch an der Nachlassigkeit der Mediengestalter. Ein Kohege sagte mal zu mir iiber einen Sprecher: „Das ist ein unangenehmer Mensch und das hort man eben raus." So einfach soUte man sich das nicht machen. Denn fiir den Zuhorer ist der Charakter des Sprechers unerhebhch. Wenn sich die Aufnahme nicht gut anhort, dann hat der Mediengestaher bei der Aufnahme Fehler gemacht. Es gibt keine Aufnahme ohne Regisseur. Ist niemand da, der diesen Titel tragt, dann nimmt entweder der Mediengestalter diese Aufgabe wahr oder aber der Kiinstler muss das selbst iibernehmen. Hier zeigt der neue Begriff des Mediengestalters deutlich den erweiterten Anspruch gegeniiber dem traditionellen Tontechniker. Nutzen Sie die Chance und gestalten Sie Ihre Aufnahmen.
14 Mischung
Die Mischung - englisch Mixdown - ist ein Bearbeitungsschritt, bei dem eine Mehrspuraufzeichnung klanglich optimiert wird und in das gewiinschte Zielformat iiberfiihrt wird. Als Quellen kommt Audiomaterial von Bandmaschinen und Harddiskrekordern in Frage und Audioausgange von Klangerzeugern, die von eineni MIDI-Sequencer gesteuert werden. Live-Elemente konimen bei der Mischung nicht zum Einsatz, es kommt aber vor, dass man sich zu Nachaufnahmen entscheidet. Wahrend der Mischung muss sich der Mediengestalter weit mehr mit der Technik auseinandersetzen, als bei der Aufnahme. Dennoch stehen kiinstlerische Ziele im Vordergrund, die mit Hilfe der technischen Moghchkeiten erreicht werden soUen. Der Einsatz von EfFekten folgt also nicht den technischen Moglichkeiten, sondern artikuliert einen kiinstlerischen Gedanken. Gleichzeitig geht die kreative Ausfiihrung vom Kiinstler auf den Mediengestalter iiber.
14.1 Qualitatskriterien fiir die Mischung Erlaubt ist was gefallt. Oder lasst sich Klangqualitat doch objektiv beurteilen? Auf jeden Fall muss Klangqualitat immer im Zusammenhang mit dem Verbreitungsmedium gesehen werden. Hochwertige Studioaufnahmen klassischer Musik miissen besser klingen, als die iiber Kurzwelle empfangenen Nachrichten aus der Heimat, die ein deutscher Bierbrauer in der Mongolei empfangt. Wird die Nachrichtensendung aufierdem auch iiber UKW gesendet, dann werden schon wieder andere Mafistabe angesetzt. Der beste Verbreitungskanal gibt den Mindeststandard vor. Aber auch, wenn das Verbreitungsmedium klangliche Beschrankungen hat, sollte das Ausgangsmaterial moghchst hochwertig sein. Die Verluste durch den Verbreitungsweg wirkt immer zusatzlich zu den Storungen aus der Produktion. Die Ubertragungskanale sind in ihrem Spektrum und auch in der Dynamik begrenzt. Wahrend die spektralen Verluste fiir die Produktion weitgehend unerheblich sind, muss die eingeschrankte Dynamik bereits bei der Produktion beriicksichtigt werden.
264
14 Mischung
Die Qualitatskriterien variieren aufierdem auch in Bezug auf das Genre. Wahrend klassische Musik von einer hohen Dynamik und einer natiirlichen Abbildung lebt, legt man in der Popmusik haufig den Schwerpunkt auf ein druckvoUes Klangbild und aufregende Sounds, die durch Verfremdungseffekte entstehen. Werbung muss laut sein. Dafiir nimmt man auch starke Verzerrungen in Kauf. Fiir den Rundfunk spielt die Lautheit ebenfalls eine groi^e Rolle. Untersuchungen zeigen, dass Autofahrer auf der Suche nach einem Sender gerne den lautesten wahlen. Die Kurven gleicher Lautstarke bescheinigen dem Gehor fiir laute Tone einen besseren Frequenzgang, so dass auch deshalb eine laute Wiedergabe bevorzugt wird. Zusatzhch versucht man durch eine gezielte Verzerrung des Frequenzgangs den Horer an den eigenen Klang zu gewohnen, so dass fremde Sender ungewohnt und damit schlechter khngen. Auch wenn in diesem Zusammenhang oft klanghche Griinde angefiihrt werden, handelt es sich um eine Marketingmafinahme, meist auf Kosten des Klangs. Die EBU definiert einen Kriterienkatalog fiir die subjektive Bewertung der Quahtat von TonmateriaL Sie ist nicht exphzit auf E-Musikproduktionen bezogen, kann aber entsprechend verstanden werden. Zuerst wird natiirhch eine technisch fehlerfreie Umsetzung verlangt. Die Mischung darf nicht rauschen und nicht verzerrt sein. Die Klangbalance soU sowohl den einzelnen Instrumenten, als auch der gesamten Mischung gerecht werden. Der Klangcharakter jedes Instruments soh erhalten bleiben. Die Mischung muss so transparent sein, dass jedes einzelne Instrument auch wahrnehmbar ist. Dazu muss die Lautstarke ausbalanciert sein. Auch auf die raumhche Darstellung groi^en Wert gelegt. Sowohl die Breiten- als auch die Tiefenstaffelung werden betrachtet. Zuletzt miissen alle Parameter im richtigen Verhaltnis zueinander stehen.
14.2 Klangmanipulation und Effekte Viele Effektgerate sind sehr spezieU und bearbeiten das Audiomaterial anhand von komplexen Algorithmen. Die Parameter dieser Gerate sind so speziell, dass sie im Rahmen dieses Buches nicht besprochen werden konnen. Andere Effektgerate haben herstellerunabhangig einen ahnlichen Satz von Parametern. 14.2.1 Klangregelung Grafische Equalizer werden fiir die Entzerrung von ganzen Anlagen verwendet, Parametrische Entzerrer verwendet man fiir die Einzelsignale. Die Beschaftigung mit der Klangbalance ist fiir das Mischen wesentlich. Gerade wenn man noch nicht viel Erfahrung mit der Einstellung der Klangregelung hat, kann es aber vorkommen, dass man den Klang eines Signals in die falsche Richtung fiihrt. Deshalb ist es immer sinnvoU, das entzerrte Signal mit dem urspriinglichen zu vergleichen, um zu iiberpriifen, dass man den Charakter der Schallquelle nicht verwassert und die Substanz nicht angegriffen hat.
14.2 Klangmanipulation und Effekte
265
Filter werden verwendet, um das Spektrum des Signals zu begrenzen. Sie werden zunachst beschrieben, anschliefiend geht es um die Equalizer. 14.2.1.1 Filter Filter begrenzen den Frequenzgang. Mit ihnen ist also nur eine Absenkung zu erreiclien. Ini Bereicli der Grenzfrequenz kann es jedoch bauartbedingt zu einer Uberhohung - einer Resonanz - konimen, da die Schaltung liier unter Umstanden als Scliwingkreis wirkt. Filtertypen Es gibt fiinf Typen von Filtern, die das Signal in unterschiedliclier Art und Weise besclineiden. Streng genommen sind es sogar nur zwei. Die anderen entstehen durch die Kombination der beiden anderen. Ein Hochpassfilter lasst nur hohe Frequenzen passieren. Ein Tiefpassfilter entsprecliend nur tiefe. Ein Bandpassfilter begrenzt den Filter auf beiden Seiten des Spektrums und ein Notch-Filter filtert einen meist sclimalen Bereicli aus der Mitte des Frequenzspektrums. Der Allpass wird der VoUstandigkeit halber hier erwahnt, aber nicht welter erklart. Er verandert den Frequenzgang nicht, sondern lasst alle Frequenzen durch. Statt dessen verandert er frequenzabhangig die Phasenlage des Signals. AUpassfilter sucht man deshalb in der Filterbank des Mischpults vergebens. Ein Bandpass ist eine Reihenschaltung eines Hochpass- und eines Tiefpassfilters. Die Reihenfolge der beiden Filter spielt keine RoUe. Allerdings muss die Grenzfrequenz des Hochpassfilters tiefer sein, als die des Tiefpassfilters. Sonst bleiben im resultierenden Signal keine Frequenzen mehr iibrig. Der Notchfilter - zu deutsch die Bandsperre - besteht aus zwei paraUel hegenden Filtern, einem Hochpass- und einem Tiefpass. Damit sich der Frequenzgang andert, muss die Grenzfrequenz des Hochpassfilters hoher sein, als die des Tiefpassfilters. Liegen die Grenzfrequenzen dicht zusammen und haben die Filter eine geringe Flankensteilheit, dann wird der gesperrte Bereich zunachst nur leicht abgesenkt. Parameter Die Filter haben zwei charakteristische Parameter, von denen das eine bauartbedingt fix ist und das andere normalerweise eingestellt werden kann. Im Frequenz-Pegel-Diagramm hat die abfallende Flanke bei linearer Darstellung der Pegelverhaltnisse und logarithmischer Frequenzdarstellung einen linearen Verlauf. Die Steigung dieser Geraden ist die Flankensteilheit. Die Flankensteilheit wird in dB pro Oktave angegeben. Bei einem Wert von 6 dB/Oktave spricht man von einem Filter erster Ordnung. Filter zweiter Ordnung senken den Pegel jenseits der Grenzfrequenz um 12, Filter drifter Ordnung um 18 dB/Oktave ab. Der zweite Parameter ist die Grenzfrequenz (engl. cut off frequency). Die Grenzfrequenz ist die Frequenz, bei der das Ausgangssignal gegeniiber dem Eingangssignal um 3dB abgenommen hat. Die Grenzfrequenz
266
14 Mischung Tabelle 14.1. Filter und ihre Bezeichnungen.
Hochpassfilter Low Cut High Pass dB>^
Tiefpassfilter
High Cut Low Pass
Bandpassfilter Band Pass
Bandsperre AUpass
Notch All Pass
ist meist regelbar, bei nianchen Pulten aber auch nur in einer oder mehreren Stufen schaltbar. Beim Bandpassfilter kann anstelle der Grenzfrequenz die Mittenfrequenz und die Bandbreite angegeben werden. Tatsachlich arbeitet man aber meist mit einer Reihenschaltung aus einem Tief- und einem Hochpassfilter. Ublicherweise hat man deshalb die Angabe zweier Grenzfrequenzen. Das driickt auch den ungefilterten Frequenzbereich besser aus. Die Mittenfrequenz liegt in der geometrischen Mitte zwischen der unteren und der oberen Grenzfrequenz:
14.2 K l a n g m a n i p u l a t i o n u n d Effekte Jm
267
V Jgu ' Jgo
Einsatzgebiete Filter werden sowohl fiir die technische Optimierung, als auch fiir die klangliche Verfremdung verwendet. Sehr haufig werden Hochpassfilter zur Trittschalldammung eingesetzt. Dabei werden tieffrequente Storsignale herausgefiltert. In giinstigen Pulten sind Trittschallfilter meist schaltbar, meist mit einer festen Grenzfrequenz zwischen 75 und 150 Hz. Je nach Schallquelle, die man aufnehmen mochte, ist ein Wert iiber 80 Hz nicht niehr akzeptabel. Selbst 75 Hz sind eigentlich ein zienilich hoher Wert. Bandpassfilter werden in den Signalweg eingeschleift, wenn der Klang verfremdet werden soil. Eine typisclie Anwendung ist die Telefonstimme, bei der ein Bandpass den Frequenzgang eines Telefons zwischen 300 Hz und 3 kHz naclibildet. AuEerhalb des horbaren Signalwegs dienen Bandpassfilter haufig dazu, einen Dynaniikprozessor - einen Kompressor oder ein Noise Gate - zu steuern. Diese Gerate, auf die in einem spateren Abschnitt eingegangen wird, arbeiten pegelabhangig. Treten in einem Kanal jedoch Signale mit ahnlichen Pegeln aber unterschiedlicher Frequenzverteilung auf, dann konnen iiber einen Bandpass im Steuerweg des Prozessors frequenzabhangige Pegelunterschiede erzeugt werden, auf die das Gerat reagieren kann. Soil ein Signal iiber einen begrenzten Kanal iibertragen werden und ist dieser Frequenzgang bekannt, dann kann ein Bandpass verwendet werden, um von Anfang an nur relevante Spektralanteile aufzuzeichnen. Das erhoht die Aussteuerbarkeit, schrankt aber die spatere Verwendbarkeit ein. Notchfilter werden verwendet, um Storgerausche zu eliminieren. Unhorbar funktioniert das nur mit schmalen Bandsperren und die filtern nur dann einen gro£en Teil des Storsignals heraus, wenn es ebenfalls schmalbandig ist. Ein Notchfilter bringt deshalb bei einer Brummschleife nichts. Tiefpassfilter begrenzen ein Signal zu hohen Frequenzen bin. Da ein so bearbeitetes Signal sehr schnell dumpf klingt, finden diese Filter in der Praxis hauptsachlich in Schaltungen Anwendung, bei denen das Signal in mehrere Frequenzbander aufgeteilt werden muss. Das sind zum Beispiel Frequenzweichen. Der heute wichtigste Anwendungsfall ist als Antialiasing-Filter vor der Digitahsierungsstufe. Mehr dazu steht im Abschnitt 9.5.2.1. Handhabung Die Einstellmoglichkeiten eines Filters beschranken sich meist auf die Grenzfrequenz. Sind die Grenzwerte bekannt, dann konnen sie anhand der Skala eingestellt werden. Ansonsten beginnt man bei anliegendem Signal mit einer Grenzfrequenz, die sicher auEerhalb des zu filternden Bereichs liegt und nahert sich dann kontinuierlich dem gewiinschten Punkt. Akustisch achtet man dabei darauf, dass das Nutzsignal moghchst nicht, auf keinen FaU jedoch substantiell verandert wird. Unhorbare, tieffrequente Signalbestandteile lassen sich
268
14 Mischung
zuni Teil auch iiber das Peaknieter iiberpriifen. Fiir eine technische Korrektur sollte das Signal so wenig wie moglich beschnitten werden. Anders sieht es aus, wenn KlangeflFekte gewiinscht sind. Hier stellt man die Filter nach Gelior und Belieben ein. Die Pegelveranderungen sind bei Filtern normalerweise unkritisch, da sie lediglich reduzieren. 14.2.1.2 E n t z e r r e r Die Klangregelung wird Entzerrer genannt, - auf englisch Equalizer, kurz EQ - well es urspriinglich darum ging, die Verzerrungen, die durch die Ubertragung entstehen, zu korrigieren. Aus dem Entzerrer ist langst auch ein Werkzeug zur Klangformung geworden. Sehr wichtig ist die Klangregelung auch fiir die Mischung, bei der viele Signale nebeneinander horbar sein miissen. Das funktioniert nur, wenn man die charakteristischen Klange jedes Instruments herausarbeitet und weniger wichtige Frequenzbereiche fiir andere Schallquellen freigibt. Grundsatzlich unterscheiden lassen sich zwei Typen von Entzerrern: Grafische und Parametrische Entzerrer. Grafische Entzerrer Die Grafischen Entzerrer werden vor allem auf Summen angewendet, seltener im Studio, bei Beschallungen haufig, um den Klang der Anlage an den jeweiligen Raum anzupassen. Es geht dabei weniger um das Signal als vielmehr um die Betrachtung des gesamten Spektrums. Sie haben in festen Intervallabstanden einzelne Regler zum Anheben und Absenken der Frequenz. Fiir den professionellen Einsatz kommen nur die Terzband-Equalizer in Frage, die den Ubertragungsbereich in insgesamt 31 Bander aufteilen. Grafisch werden sie deshalb genannt, well man die Anderungen, die auf den Frequenzgang wirken, an der Reglerstellung ablesen kann. Typisch fiir grafische Equalizer ist, dass das originale Signal nicht fiir die Einstellung zur Verfiigung steht. Da es sich um eine Entzerrung handelt ist das aber auch unerheblich. Vielmehr sollte bei einer korrekten Einstellung jedes Programm - oder zumindest jedes vergleichbare Programm - gleich gut klingen. Die Parameter eines Entzerrers sind pro Band die Verstdrkung (cut/boost), die Bandbreite (bandwidth) und die Mittenfrequenz (center frequency). Beim grafischen Equalizer sind Frequenz und Bandbreite festgelegt und aufeinander abgestimmt. Das bedeutet aber nicht, dass man nur Anhebungen und Absenkungen mit einer Bandbreite vornehmen kann. Eine Anhebung mehrerer nebeneinanderliegender Frequenzen ergibt eine breitbandige Anhebung. Veranderlich ist die Verstarkung. Da es zu Pegelveranderungen kommen kann, haben grafische Equalizer am Ausgang haufig einen Aufholverstarker, mit dem die Pegelanderungen wieder ausgeglichen werden konnen. Grafische Equalizer werden fiir Summensignale verwendet. Insofern liegen sie haufig vor oder sogar hinter dem Summenfader. Der gesamte Reglerweg soil aber fiir etwaige
14.2 Klangmanipulation und Effekte
269
Ausblenden genutzt werden konnen. Eine Pegelabsenkung iiber den Summenregler wiirde den verfiigbaren Reglerweg verkiirzen. Anhebungen sind oft gar nicht moglich, well Summenregler haufig nicht iiber 0 dB hinaus verstarken konnen. Um den grafischen Equalizer einzustellen, arbeitet man sich kanalweise durch den gesamten Frequenzbereich. Moglicherweise ist es zweckmafiig, die anderen Kanale auszublenden, wahrend man einen einstellt. Danach muss aber auf jeden Fall nocli der Gesamtklang iiberpriift werden. Ich personlicli beginne bei den tiefen Frequenzen, orte die Frequenz zunaclist durch eine deutliche Anhebung und entscheide dann ausgehend vom NuUpunkt, ob dieser Frequenzbereich angehoben oder abgesenkt werden muss. Dabei muss man beachten, dass eine Reduktion zunachst als angenehm empfunden wird, da die vorherige Anhebung eher unangenehm geklungen hat. Mit der Zeit bekommt man eine besseres Gefiihl fiir die Frequenzen, so dass die anfangliche Anhebung immer subtiler ausfallen kann. Fiir die Klangoptimierung der Summe wahlt man identische Einstellungen fiir beide Kanale. Insgesamt ist jedoch dieser Einsatz kritisch zu bewerten. Bei einer korrekten Entzerrung der Einzelsignale sollte eine Korrektur durch einen grafischen Equalizer nicht notig sein. Parametrische
Entzerrer
Parametrische Equalizer verwendet man typischerweise fiir die Einzelsignale in den Eingangskanalziigen des Mischpults. Der Schaltungsaufwand und der Platz auf der Oberflache, die ein grafischer Equalizer verlangen wiirden, disqualifizieren ihn fiir einen Einsatz im Mischpult. Da fiir die wenigsten Instrumente tatsachlich der gesamte Frequenzbereich interessant ist, und grafische Equalizer auch nicht gerade schnell zu bedienen sind, ist das Prinzip des Parametrischen Equalizers fiir diesen Anwendungsfall giinstiger. Die Parameter, von denen der Entzerrer seinen Namen erhalten hat also die einstellbaren Grofien - sind beim VoUparametrischen Entzerrer die Frequenz, die Verstarkung und die Bandbreite. Semiparametrische Equalizer bieten nur Einstellmoglichkeiten fiir die Verstarkung und die Frequenz. Die Bandbreite ist festgelegt. Der Entzerrer im Mischpult bietet meist mehrere semiparametrische Bander. In den AuEenbandern kommt normalerweise noch ein Schalter fiir die Charakteristik hinzu. Wahlbar ist die Kuhschwanzcharakteristik (Shelving) und die Glockencharakteristik (Bell). Die 14.1 zeigt typische Kennlinien fiir beide Filtertypen. Typischerweise verwendet man die Glockencharakteristik, die Hohen werden aber teilweise iiber den nach oben offenen Kuhschwanz-Entzerrer etwas luftiger gemacht. Was die einzelnen Parameter bedeuten, zeigt die folgende Auflistung. Frequenz: Wahrend es sich bei den Entzerrern mit Glockencharakteristik um die Mittenfrequenz (center frequency) handelt, also um den Punkt, mit der starksten Abweichung, wird bei Kuhschwanz-Equalizern die Frequenz
270
14 Mischung Hi Shelv
dBA
Bell dBA Mittenfrequenz I I
H Bandbreite
3dBl Verstarkung f
f g
Verstarkung f
f c
Abb. 14.1. Kennlinie fiir Kuhschwanz- und Glockencharakteristik. angegeben, bei der die Verstarkung oder Dampfung des Signals 3 dB betragt (cut off frequency). Die Frequenz lasst sich bei analogen Pulten fiir jedes Band nur in einem bestimmten Bereich einstellen. Verstarkung: Sie ist in Bereichen typischerweise zwischen ±12 und ±18 dB regelbar. Die Verstarkung hat natiirlich Auswirkungen auf den Pegel des Signals. Man muss also darauf achten, dass man das Pult niclit intern iibersteuert. Normalerweise regelt man einen Equalizer aber nicht im Grenzbereicli, so dass das in der Praxis kaum ein Thema ist. Anstelle einer Anhebung kann man auch immer eine Absenkung einer anderen Quelle erwagen. Lassen sich Frequenzbereiche trotz gro£er Verstarkung nicht in der gewiinschten Prasenz darstellen, dann kann das an Verdeckungseffekten liegen. Bandbreite: Die Bandbreite bestimmt bei Entzerrern mit Glockencharakteristik, wie gro£ der Frequenzbereich ist, der von dem Band beeinflusst wird. Die Angabe ist ein Intervall, wobei die Skala selten Auskunft iiber die tatsachliche Breite gibt. Letztendhch muss aber sowieso das Ohr entscheiden, wie breit die Anhebung beziehungsweise die Absenkung sein soil. Als Faustregel kann man sich merken, dass Anhebungen eher breitbandig und Absenkungen eher schmalbandig erfolgen. Das ist aber kein Dekret, sondern kommt daher, dass Absenkungen eher vorgenommen werden, um storende Bestandteile herauszufiltern, wahrend Anhebungen den Charakter eines Instruments betonen sollen. Jetzt sollten die Storgerausche einen deutlich geringeren Raum einnehmen, als die gewiinschten Signalbestandteile. Ansonsten liegt wahrscheinlich ein Problem vor, dass nicht mit Hilfe der Klangregelung, sondern vielleicht durch eine giinstigere Mikrofonaufstellung beseitigt werden soUte. Semiparametrische Equalizer haben teilweise fiir die Anhebung und die Absenkung unterschiedliche Bandbreiten und beriicksichtigen so diesen Umstand. Anstelle der Bandbreite wird in machen Pulten der Q-Faktor angegeben. Der Q-Faktor beschreibt das Biindelungsmafi. Ein gro£es Q ist ein stark gebiindeltes Frequenzband, also eine kleine Bandbreite und umgekehrt. Eine weitere Bezeichnung fiir parametrische Equalizer ist Sweep EQ. Ein Filtersweep ist ein durchschreiten des Frequenzbereichs mit meist konstanter
14.2 Klangmanipulation und Effekte
271
Verstarkung und Bandbreite. Mit diesem Verfahren lassen sich die erwiinschten und die unerwiinschten Frequenzen genau aufspiiren. Wichtig ist, dass man mit einer mittleren Bandbreite beginnt. Dann stellt man eine positive Verstarkung ein und andert bei anliegendem Signal die Frequenz. Ist die Frequenz gefunden, dann wird die gewiinschte Bandbreite eingestellt, sowie die richtige Verstarkung. Abgesenkt werden Storsignale und nicht signifikante Frequenzbereiche. Die Bandbreite und die Verstarkung beeinflussen sich immer gegenseitig. Mai^stab ist immer das Originalsignal, das in seiner Substanz nicht beschadigt werden darf. Oft kann man beobachten, dass sich der Klang des bearbeiteten, aber auch der anderen Instrumente verbessert, wenn man einen irrelevanten Bereich absenkt. Das kommt zum einen durch die Fokussierung auf die gewiinschten Klangbestandteile, zum anderen dadurch, dass Verdeckungseffekte minimiert werden. Den Einfluss einer Anderung kann man nur innerhalb der gesamten Mischung horen. Auch faht der Verlust der gefilterten Frequenzbereiche im SoloModus unter Umstanden unangenehm auf. Das bedeutet, dass der Entzerrer nicht im Solo-Modus eingestellt wird. Im Solo-Modus lassen sich storende Signalbestandteile ermitteln und entfernen. Auch Verdeckungseffekte, die auf denselben Kanal wirken, konnen so aufgespiirt werden, aber eben nicht die Wechselwirkungen mit anderen Kanalen. Eine weitere Schlussfolgerung dieser Wechselwirkung ist, dass bei einem Wechsel der Instrumentierung auch die konstant durchlaufenden Kanale neu eingestellt werden miissen. Spielen viele Instrumente gleichzeitig, dann bleibt fiir das einzelne Instrument nur wenig Platz im Spektrum. Lasst man die Halfte der Instrumente weg, dann konnten die verbleibenden Instrumente zu diinn klingen. Haufig hat man den Fall in Intros, die sparlicher instrumentiert sind. In einem solchen Fall werden sogenannte Section Mixes angelegt und die verschiedenen Abschnitte anschhefiend aneinandergeschnitten. Digitale Workstations bieten meist eine Automation, die solche Section Mixes ohne Schnitt ermoglichen. 14.2.2 Dynamikprozessoren Dynamikprozessoren - sie werden oft auch als Regelverstarker bezeichnet sind in giinstigen analogen Mischpulten nur selten im Signalweg zu finden. In gro£en Produktionskonsolen und digitalen Pulten sind sie jedoch Standard. Ein Dynamikprozessor bearbeitet die Dynamik eines Signals in Abhangigkeit des Pegels eines Steuersignals. Die wesentlichen Vertreter sind der Kompressor, der Limiter, das Noise Gate und der Expander. Expander und Kompressor steUen dabei die generischen Typen dar, das Noise Gate ist als Spezialfall des Expanders und der Limiter als ein Spezialfall des Kompressors anzusehen. Weitere Spezialfalle sind der De-Esser - hier arbeitet ein Kompressor frequenzabhangig, der Multihandkompressor, bei dem das Signal in mehrere Frequenzbander unterteilt wird, bevor es komprimiert wird und der Kompander, der in der analogen Welt zur Rauschunterdriickung verwendet wurde.
272
14 Mischung
Dynamikprozessoren sind inimer dann wichtig, wenn Audio iiber Kanale niit einer begrenzten Dynaniik iibertragen werden sollen. Das trifFt auf jeden existierenden Ubertragungskanal zu. Dennoch stehen gerade E-MusikTonnieister der Kompriniierung oft sehr kritisch gegeniiber. Langst wird auch bei Rundfunkiibertragungen klassischer Musik mit Kompressoren gearbeitet. Zum Wohle vieler Horer, die zum Beispiel im Auto unterwegs sind, aber zugegebenermai^en auch zum Nachteil einiger weniger, die dem Radioprogramm an einem gut eingerichteten Abhorplatz beiwohnen. 14.2.2.1 D y n a m i k Bevor die einzelnen Vertreter dieser Gerategattung besprochen werden, sollen noch einnial kurz die wesentlichen P a r a m e t e r des Begriffs Dynamik erklart werden. Die Dynamik einer Schallquelle ist die Differenz zwischen dem leisesten und dem lautesten Ton oder Gerausch. Bei der Betraclitung als technisclies Signal entspriclit das also der Differenz des niedrigsten zum hochsten Pegel. Die Dynamik eines technischen Systems, im Fall der Tonstudiotechnik also der gesamten Kette von der Schallaufnahme bis zur Lautsprecherwiedergabe beim Horer, ist die Fahigkeit, ein Signal in seiner gesamten Dynamik zu iibertragen. Dabei ist die Dynamik der Ubertragungskette nach unten durch das Grundrauschen begrenzt, nach oben durch die Verzerrungsgrenze. Deshalb ist die Dynamik eines Systems auch die Signal Noise Ratio. In der Analogtechnik setzen Verzerrungen allmahlich ein. Als Obergrenze des Ubertragungsbereichs wird der Pegel angesehen, bei der die Summe aller linearen Verzerrungen (Total Harmonic Distortion - THD) 3% erreicht. Der Bereich zwischen der Nominalaussteuerung, also dem optimalen Pegel und der Verzerrungsgrenze bildet die Ubersteuerungsreserve - den Headroom. Bei digitalen Systemen ist die Obergrenze durch den erschopflichen Wertebereich bestimmt. Der maximale Wert sind OdBps. FS steht dabei fiir Full Scale. Dariiber konnen keine Werte gespeichert werden. Berechnet m a n die Dynamik eines digitalen Systems nach dem Wertebereich, dann erhalt m a n etwa 6 dB fiir jedes Bit Auflosung. Bei der herkommlichen Audio-CD sind das 16 Bit und damit ungefahr 16 • 6 dB = 96 dB errechnete Systemdynamik. Um auch bei digitalen Aufnahmen eine Ubersteuerungsreserve zu erhalten, legt m a n als Nominalpegel einen Wert unterhalb von OdB fest. Das sind mittlerweile -OdBps- Die rechnerisch nutzbare Dynamik eines 16-Bit-Systems hegt damit bei 8 7 d B .
14.2.2.2 Kompressor Der Kompressor schrankt den Dynamikumfang eines Signals ein. Das kann aus verschiedenen Griinden technisch notwendig oder klanglich erwiinscht sein. Eine technische Notwendigkeit ergibt sich immer dann, wenn die Dynamik des iibertragenden Systems nicht ausreicht, um die Dynamik des Signals verzerrungsfrei wiederzugeben. Klanglich gewiinscht sind die auf diese
14.2 Klangmanipulation und Effekte
273
Weise verdichteten Signale, da sie bei gleichem Pegel mehr Energie und daniit mehr Druck besitzen und eine hohere Lautheit. In der Mischung sind konstante Lautheiten erwiinscht, um VerdeckungsefFekte unter KontroUe zu halten. Bei der E-Musik-Produktion ist es wie so oft ein bisschen anders. Ein Orchester wird als ein Klangkorper betrachtet, bei dem die Wechselwirkungen zwischen den Instrumenten Teil des Ganzen und damit erwiinscht sind. Ziel der E-Musik-Aufzeichnung ist deshalb auch, einen moghchst groi^en Teil der urspriinghchen Dynamik zum Horer zu transportieren. Ob man dem Horer damit in jedem Fah einen Gefahen tut, das ist an dieser Stehe sicher nicht abschhei^end zu klaren. Man sohte aber bedenken, dass die Abhorsituation des Horers sehen so optimal ist wie im Konzertsaal oder im Tonstudio. Von der Stra£e dringen Storgerausche ans Ohr, die Nachbarn bitten darum, die Musik doch bitte in Zimmerlautstarke zu spielen... Auch fiir die analoge Rundfunkiibertragung muss die Dynamik spiirbar eingeschrankt werden. Die negativen klanglichen Auswirkungen auf ein bereits bei der Produktion komprimiertes Signal waren dabei sicher geringer als die der einmaligen Kompression im Sendeweg. Aus diesen Griinden wird mittlerweile auch in der E-Musik-Produktion mit moderaten Kompressionsraten gearbeitet. Dargestellt wird die Wirkung des Kompressors genauso wie die der anderen Dynamikprozessoren mittels eines Diagramms, das den Ausgangspegel ins Verhaltnis zu seinem Eingangspegel setzt. Das Diagramm ist die Kompressorkennlinie. Kompressor auS'"'
Aein
em
Abb. 14.2. Die Kompressorkennlinie.
Multihand-Kompressor Da die optimalen Zeiteinstellungen von der Frequenz abhangen, teilen Multibandkompressoren das Signal in mehrere Frequenzbander auf, die danach separat komprimiert werden. Dabei kommt es zu Klanganderungen und zwar immer dann, wenn die Frequenzbander nicht identisch komprimiert werden. Hauptsachlich bei analogen Geraten kommen Phasenfehler hinzu. Multibandkompressoren werden haufig gerade wegen ihrer klangverandernden Eigen-
274
14 Mischung
schaften eingesetzt, meist in der Summenbearbeitung, zum Beispiel fiir das Sounddesign eines Horfunkprogramms, das eine bestimmte, gleichbleibende Klangfarbe haben soil. Parameter Die Einstellmogliclikeiten eines Kompressors sind vielfaltig. Der Parametersatz setzt sicli zusammen aus pegelabhangigen und zeitabliangigen Variablen. Schwellwert: Der Kompressor beginnt am Schwellwert {Threshold) zu arbeiten. Alle Signale mit eineni Pegel oberhalb des Schwellwertes werden kompriniiert. Ratio: Eingangspegel, die iiber dem Schwellwert liegen, werden mit einem einstellbaren Verhaltnis, der Ratio, komprimiert am Ausgang ausgegeben. Eine Ratio von 2:1 bedeutet, dass ein Pegelanstieg von 2dB am Eingang einen Anstieg von lediglicli 1 dB am Ausgang auslost. Ein Kompressor macht laute Tone leiser. Output Gain: Den Gesamtpegel abzusenken ist aber nicht das, was gewiinscht ist. Deslialb sitzt am Ausgang noch ein Ausgangsverstarker {Output Gain), der die Pegelreduktion linear - also auch fiir die Pegel unterhalb des Schwellwerts - ausgleiclit. Manclie Kompressoren verfiigen iiber eine Automatik, die das erledigt {Auto Make Up). Attack: Mit der Attack-Zeit wird eingestellt, wie sclmell nach Ubersclireiten des Schwellwertes die voile Ratio wirken soil. Die Einstellung ist eine konstante Zeit und unabhangig vom Pegel. Sie beginnt zu wirken, sobald der Schwellwert iiberschritten wird. Release: Das Gegenstiick zu Attack ist die Release-Zeit. Sie beginnt, sobald der Pegel wieder unter den Schwellwert sinkt. Attack- und Release sind Parameter, die programmabhangig eingestellt werden, um unerwiinschtes Verhalten des Kompressors zu verhindern. Er wird mit Hilfe dieser Werte trager gemacht. Link: Externe Kompressoren sind oft zweikanalig ausgefiihrt. Der Link-Schalter sorgt dafiir, dass beide Signale gleich stark komprimiert werden. Das geschieht zum Beispiel, indem der Steuerweg eine Mono-Mischung beider Kanale verwendet. Stereo-Signale miissen immer gemeinsam komprimiert werden, da es sonst zu Lautstarkeverschiebungen zwischen beiden Kanalen kommen wiirde und das wiirde zu wandernden Schallquellen im Stereobild fiihren. Je nach Kompressor werden die Parameter des linken Kanals fiir beide Kompressoren verwendet, oder man muss beide Kanale gleich einstellen. Auch im Mischpult konnen Kompressoren benachbarter Kanale zusammengeschaltet werden. Welcher Logik das folgt ist vom jeweiligen Pult abhangig. Im Bereich des Schwellwerts kommt es zu Ubernahmeverzerrungen, erkennbar am Knick in der Kennlinie. Um diese Verzerrungen abzumildern, werden die beiden zeitabhangigen Parameter Attack und Release eingesetzt. AuEerdem
14.2 Klangmanipulation und Effekte
275
gibt es haufig noch eine pegelabhangige Glattung. Sie wird als Kompressionsknie bezeichnet. Man unterscheidet Hard- und Softknee-Kompressoren. Hardkneekompressoren lassen Pegel unterhalb des Schwellwertes unbearbeitet und andern jeden Pegel iiber dem Schwellwert entsprechend der eingestellten Ratio. Softkneekompressoren beginnen bereits unterhalb des Schwellwertes mit einer leichten Kompression, die mit dem Pegel kontinuierlich ansteigt, bis sie kurz oberhalb des Schwellwertes die eingestellte Ratio erreicht. Handhabung Die Einstellung des Kompressors ist abhangig vom Programm und dem Ziel, das mit der Kompression verfolgt wird. Kompressoren konnen absichtlich klangfarbend eingesetzt werden. Das macht man mit Multibandkompressoren, die in mehreren Frequenzbandern arbeiten. Rundfunkstationen schaffen sich so ihren individuellen Klang. In der Regel, vor allem bei Einzelsignalen ist das Ziel jedoch eine unhorbare Dynamikreduktion. Die unterschiedlichen Programmformen erfordern unterschiedliche Einstellungen. Die pegelabhangigen Parameter Schwellwert und Ratio hangen ab von der Dynamik des Signals. Je dynamischer das urspriingliche Signal ist und je kleiner die Zieldynamik ist, desto hoher muss die Ratio und desto niedriger der Schwellwert angesetzt werden. Um Ubernahmeverzerrungen zu vermeiden, soUte ein niedriger Schwellwert gewahlt werden. So kann mit einer moderaten Kompressionsrate bereits eine betrachtliche Kompression erreicht werden. Mochte man das Signal iiber einen gro£en Pegelbereich unverandert lassen und den Kompressor nur fiir die Signalspitzen einsetzen, muss durch den hohen Schwellwert eine entsprechend grofie Ratio eingestellt werden.
OdB
OdB
em
OdB
em
Abb. 14.3. Gleiche Gainreduction bei 0 dB am Ausgang und unterschiedlichen Einstellungen fiir Ratio und Threshold. Der resultierende Pegelverlust wird Gain Reduction genannt. Er muss durch den ausgangsseitigen Aufholverstarker (Output Gain) ausgeglichen werden. Manche Kompressoren erledigen das automatisch (Auto Make Up). Eine oft verwendete Redensart lautet „We fix it when we mix it". Das gilt fiir die Kompression nur bedingt. Erstens lasst sich durch eine Signalkompression vor der AD-Wandlung oder vor einem analogen Aufzeichnungsmedium der
276
14 Mischung
Rauschspannungsabstand verbessern, was spater nicht mehr moglich ist, und auEerdeni ist eine niehrfache geringe Konipression, also bei der Aufnahnie und bei der Mischung fiir viele Programniarten giinstiger als eine starke Konipression bei der Mischung. Wahrend der Mischung verstarkt jede Konipression den Gerauschpegel. Heutige rauscharme Systeme verzeihen das nieist, eine falsche Einstehung der Parameter kann jedoch vorhandenes Rauschen storend laut niachen.
OdB ein
OdB
ein
Abb. 14.4. Bei falscher Konipression kann der Gerauschpegel verstarkt werden. Verantworthch fiir den Anstieg des Rauschens ist der Aufholverstarker, der das gesamte Signal und daniit auch das Rauschen linear anhebt. Wichtig fiir die zeitabhangigen Parameter Attack und Release ist der zeitliche Verlauf des Signals. Ganz grob kann man perkussive Klange von Flachenklangen unterscheiden. Die Attack-Zeit ist die Zeit, in der die Ratio von 1:1 auf den eingestellten Wert ansteigt, nachdem der Schwellwert iiberschritten wurde. Am Anfang eines Signals befindet sich die Einschwingphase. Eine kurze Einschwingzeit sorgt dafiir, dass bereits anfangliche Signalspitzen ausreichend gedampft werden. Auf der anderen Seite verliert das Signal durch kurze Attack-Zeiten viel von seiner Pragnanz. Gerade perkussive Instrumente klingen oft flach und dumpf. Flachenhafte Signale reagieren auf zu lange Attackzeiten mit horbaren Regelvorgangen. Der gleichformige Ton wiirde iiber die Attack-Zeit allmahlich leiser werden. Die Release-Zeit hat Auswirkungen auf Schallereignisse, kurz nachdem der Schwellwert unterschritten wurde. Damit beeinflusst die Release-Zeit unter Umstanden die Einschwingvorgange nachfolgender Tone, mit denselben moghchen Auswirkungen. Deshalb muss der Wert an die Zeitstruktur angepasst werden. Folgen die Tone eher kurz aufeinander, und sollen die Einschwingvorgange nicht komprimiert werden, dann muss die Release eher kurz eingestellt werden, mochte man aber eine gleichformige Kompression iiber das gesamte Stiick, zieht man langere Releasezeiten vor. Ein Patentrezept, wie der Kompressor einzustellen ist, gibt es aber nicht. Hier hilft nur ausprobieren und Erfahrungen sammeln. Falsch eingestellte Kompressoren verursachen unschone, horbare Regelvorgange. Typisch ist das sogenannte Pumpen. Es entsteht durch falsch gesetzte
14.2 Klangmanipulation und Effekte
277
Zeitparameter. Die Ratio andert sich standig mit dem Pegel, zum Beispiel aufgrund kurzer perkussiver Spitzen bei langeren Release-Zeiten. Dadurch andert sich die Lautstarke der statischen Klange im Hintergrund standig. Der Klang schwillt auf und ab. Aber auch andere Effekte sind beini Einsatz von Konipressoren zu beobachten. Durch die Einengung der Dynaniik treten leise Signalbestandteile starker in den Vordergrund. Rauschanteile werden verstarkt, raumliche Aufnahmen werden noch halliger und Instrumente klingen langer aus. Vorausschauende Kompression Die Digitaltechnik ermoglicht eine Analyse des folgenden Audiomaterials. Damit kann die Ratio punktgenau gesteuert werden. Storende Regelvorgange werden weitgehend vermieden. Das nennt man vorausschauende Kompression. Das Problem dabei sind die entstehenden Latenzen. Aufgrund der Zeitverzogerung kann eine vorausschauende Kompression wahrend der Aufnahme nicht eingesetzt werden. Sidechain Compressing Sidechain Compressing bezeichnet eine Technik, bei der ein Signal in Abhangigkeit eines anderen komprimiert wird. Ein Anwendungsfall sind Musikbetten, die leiser werden soUen, wenn der Moderator spricht und in den Sprachpausen wieder lauter werden soUen. Deshalb spricht man auch haufig von Voice Over Compression. Der Kompressor hat einen Steuerweg und einen Signalweg. Der Steuerweg - die Sidechain - tragt das Signal, anhand dessen ermittelt wird, wann der Schwellwert iiber- oder unterschritten wird. Der Signalweg fiihrt das Audiomaterial, das verandert wird. Im normalen Betriebszustand sind beide Signale identisch. Ein Beispiel: Wahrend einer Schlagzeugaufnahme soil die Bassdrum bei jedem Schlag komprimiert werden. Der Kompressor wird also entsprechend eingestellt. Da die anderen Trommeln auf das Mikrofon iibersprechen, arbeitet der Kompressor auch dann, wenn die Bassdrum nicht gespielt wird. Um das zu verhindern kann man das Steuersignal filtern, so dass es nur beim anspielen der Bassdrum den Schwellwert iiberschreitet. So arbeitet der Kompressor im Signalweg, der natiirlich das ungefilterte Signal fiihrt nur dann, wenn es auch gewiinscht ist. Manche Kompressoren bringen die Filter im Signalweg gleich mit. Ansonsten muss das Signal iiber den Insert Send im Steuerweg abgegriffen, extern bearbeitet und iiber den Insert Return dem Steuerweg wieder zugefiihrt werden. Bisher war das Steuersignal immer ein modifiziertes Originalsignal. Man kann aber, wie im Beispiel mit den Musikbetten bereits angesprochen, auch ein vollig anderes Signal verwenden. Das Musikbett lage dann im Audioweg und iiber den Insert Return wiirde der Sprecher in den Steuerweg eingeschleift. Kompressoren verfiigen meist iiber einen Abhorwahlschalter, mit dem der Steuerweg abgehort werden kann. Zur Einstellung der Filter ist das sehr sinnvoll. Meist tragt der Schalter die Bezeichnung Key Listen.
278
14 Mischung
Das Sidechain Compressing mit Hilfe eines Kompressors hat gravierende Nachteile. Wenn der Sprecher sehr leise spricht, dann wird das Musikbett nur leicht komprimiert. Spricht er dagegen laut, dann wird die Musik stark gedampft. Die Mischung zwischen Sprache und Text verandert sich also und sie verandert sich auf eine ungiinstige Art und Weise. Denn gerade die leisen Textpassagen werden durch die laute Musik stark beeintrachtigt. Bessere Ergebnisse erzielt man, wenn man ein Noise Gate verwendet. Digitale Audioworkstations haben zum Teil eingebaute Funktionen, die die Lautstarke um einen eingegebenen Wert reduzieren. Allen Verfahren haben aber den Nachteil, dass sie nicht ausreichend die dynamische Entwicklung der Einzelsignale beriicksichtigen. Die Dynamik des komprimierten Signal floss bisher gar nicht in das Mischungsverhaltnis ein, die Dynamik des Steuersignals wirkt teilweise kontraproduktiv. Die unmittelbare Einwirkung auf beide Signale hat man nur, wenn man zwei Hande auf zwei hochwertigen Reglern hat und wahrend das Programm lauft die beiden Quellen gegeneinander abstimmt. Das ist die einzige organische Moglichkeit. Das Einzeichnen von Lautstarkekurven in die Wellenform ist es nicht, ebensowenig die Automation mittels Kompressor oder Noise Gate.
14.2.2.3 Limiter Der Limiter - zu Deutsch Begrenzer - hat die Aufgabe, Signalspitzen zu eliminieren. Die Parameter sind dieselben, wie die des Kompressors, jedoch hat die Ratio einen festen Wert von oo : 1. Das bedeutet, dass der Pegel oberhalb des SchweUwertes nicht mehr ansteigt. Abbildung 14.5 zeigt die Kennhnie des Limiters. Durch die starke Einwirkung des Limiters kommt es sehr schnell zu Verzerrungen. Deshalb soUte der Limiter am besten gar nicht arbeiten. Miissen Ubersteuerungen unbedingt verhindert werden, zum Beispiel bei digitalen Aufnahmen oder auf der Rundfunksendestrecke, dann nimmt man notfalls jedoch die Verzerrungen in Kauf. Limiter
aus'
em Abb. 14.5. Kennlinie eines Limiters.
14.2 Klangmanipulation und Effekte
279
Der Vorteil des Limiters ist, dass die dynamische Struktur des Programms weitgehend erhalten bleibt, und Signalspitzen dennoch wirksam vermieden werden. Damit Signalspitzen erfasst werden, muss die Attack-Zeit sehr kurz sein. Da man davon ausgeht, dass es sich wirklich nur um kurzzeitige Peaks handelt, wird auch die Release-Zeit elier kurz gewahlt. 14.2.2.4 Expander Expander werden eingesetzt, um die Dynamik zu vergroEern. Dabei wird alles unterhalb des Scliwellwerts mit einer Ratio kleiner 1 bearbeitet. Dadurcli werden leise Signale leiser. Zum Beispiel lassen sich Atemgerausche eines Sangers mit Hilfe eines Expanders reduzieren. Bandrauschen lasst sich mit einem Expander reduzieren, sofern das Nutzsignal einen ausreichend gro£en Abstand zum Rauschen hat. Dieser Abstand ist notwendig, da der Effekt des Expanders (oder Kompressors) umso starker ist, je weiter das Signal vom Schwellwert entfernt ist. Ein Signal, dass bei einer Ratio von 1:2 am Eingang 1 dB unterhalb des SchweUwertes liegt, wird am Ausgang 2dB unterhalb des SchweUwertes ausgegeben. Das entspricht einer Dampfung von I d B . Ein Signal, das 6dB unter dem Threshold liegt, wird durch den Expander um weitere 6dB gedampft. Expander aus-"-
em
Abb. 14.6. Kennlinie eines Expanders.
14.2.2.5 Noise Gate Das Noise Gate schaltet den Ausgang fiir alle Pegel unterhalb des SchweUwertes stumm und lasst aUe Pegel oberhalb des SchweUwertes unverandert passieren. Hier ist auch die Starke des Effekts nicht vom Abstand zum SchweUwert abhangig. Ein Noise Gate verfiigt iiber einen teilweise eigenen Parametersatz und einen spezieUen Modus der die Schalterstellung des Noise Gates umkehrt. Mit den anderen Regelverstarkern gemein sind der Schwellwert, sowie die Ansprech- und die Abschwellzeit.
280
14 Mischung Noise Gate
Threshold
em
Abb. 14.7. Kennlinie eines Noise Gates. Duck: In der Betriebsart Duck - hier fiir ducken, nicht fiir Ente - schliefit das Gate fiir hohe Pegel. Range: Die Range bestimmt die maximale Dampfung. Das Tor wird also nicht ganz geschlossen, sondern ein Teil des Signals kann immer passieren. Key Input: Der Key-Input ist ein separater Eingang, iiber den ein externes Signal in den Steuerweg eingesclileift werden kann. Im Gegensatz zum Kompressor handelt es sicli liaufig nicht um einen Insert Send Return, sondern nur um einen Eingang. Filter, um das Steuersignal zu bearbeiten, sind in den Noise Gates normalerweise integriert, so dass die Notwendigkeit fiir einen Insert entfallt. Link: Beide Kanale eines Zweikanal-Gates arbeiten mit demselben Steuersignal. Noise Gates werden bei Beschallungen gerne fiir die Schlagzeugkanale verwendet. Der Grund liegt darin, dass beispielsweise die Toms verhaltnismafiig selten klingen, die Kanale aber standig rauschen, wenn sie standig offen sind. Auf diese Weise kann man das Rauschen der Mischung reduzieren und die Kanaltrennung verbessern. Ich personlich verwende auch Live keine Noise Gates, da sie verschiedene Probleme mit sich bringen, die der Vorteil des geringeren Rauschens meines Erachtens nicht aufwiegt. Damit das Noise Gate nicht offnet, wenn andere Kessel des Schlagzeugs gespielt werden, muss der Schwellwert moglichst hoch gewahlt werden. Damit riskiert man aber, dass leise Figuren das Gate nicht offnen. Sie wiirden verloren gehen. Da die Ansprechzeit eines Gates nicht beliebig kurz gewahlt werden kann, da sonst Schaltknackser entstehen, wird immer ein Teil des Einschwingvorgangs abgeschnitten. Wahrend das Gate geoffnet ist, wird dariiber nicht nur die entsprechende Trommel iibertragen, sondern auch ein moglicherweise in der Zeit klingendes Becken. Dadurch andert sich plotzhch der Klang des Beckens, well das Gate offnet und schliefit. Zuletzt ist der Gewinn ohnehin sehr gering, da das Schlagzeug einen hohen Pegel liefert. Die Mikrofonvorverstarkung ist entsprechend gering und mit ihr auch das Rauschen. eine gute Kanaltrennung ist immer dann wichtig, wenn man den Klang einzelner Kanale stark verandern mochte. Die iiblichen Klangeinstellungen am Schlagzeug machen aber auch ohne Noise Gates keine Probleme.
14.2 Klangmanipulation und Effekte
281
Eine interessante Anwendung ist hingegen das Voice Over Compression, haufig nur Voice Over genannt. Dabei werden zwei Signale iibereinandergelegt und das Eine in Abhangigkeit des Anderen in seiner Lautstarke reduziert. Das wird gemacht, wenn ein Sprecher in der Werbung oder eineni Dokumentarfilm iiber eine Musik spricht, oder ein Ubersetzer simultan einen fremdsprachigen Text iibersetzt. Reden Sprecher oder Ubersetzer nicht, soil das Basissignal ungedampft erklingen, walirend gesprochen wird, soil es jedocli in den Hintergrund treten. Die Bezeiclinung Voice Over Compression legt den Verdaclit nahe, dass das mit einem Kompressor gemacht wird. Das ist moglich, aber nicht empfehlenswert. Abbildung 14.8 zeigt den Signalfluss der Anwendung. Das Gate liegt im Signalweg des zu dampfenden Signals, also zum Beispiel der (Hintergrund-)Musik. Im Steuerweg liegt der Sprecher an. Wahrend der Sprecher spricht, also ein hoher Pegel anhegt, soil das Gate schhefien. Es muss deshalb auf Duck stehen. Selbst wahrend der Sprecher spricht, soU die Musik welter horbar sein. Deshalb wird iiber die Range die maximale Dampfung eingestellt. Sie bestimmt letztendlich, wie stark das Hintergrundsignal abgeschwacht wird. Wiirde man einen Kompressor an Stelle des Noise Gates verwenden, dann wiirde das prinzipiell funktionieren. Folgende Unterschiede kamen jedoch zum Tragen: Jeder Pegel oberhalb des Schwellwerts fiihrt im Gate zu einer konstanten Dampfung des Hintergrundsignals. Beim Kompressor ist die Dampfung abhangig vom Abstand des Signals zum Schwellwert. Abhilfe schaffen kann hier, wenn man den Sprecher vorher selbst komprimiert, so dass die Pegelunterschiede des Sprechers nur noch gering sind. Aufgrund klanglicher Aspekte - eine Kompression hat immer auch zumindest geringe Auswirkungen auf den Klang - ist das Gate dennoch im Vorteil. Die Kompression verdichtet das Signal, so dass dessen Lautheit ansteigt. Man muss also starker komprimieren, als es die gewiinschte Pegeldifferenz erfordern wiirde.
Originaltext
Gate Key Input
Ubersetzung
'""^^'^^"'^
Abb. 14.8. Voice Over Compression.
14.2.2.6 De-Esser Beim De-Esser handelt es sich um einen frequenzabhangigen Kompressor. Haufig sind S-Laute in Aufnahmen iiberbetont. Mit dem De-Esser werden sie gedampft. Neben den iiblichen Einstellmoglichkeiten verfiigt der De-Esser iiber Filter, die auf das Steuersignal des Kompressors wirken. Man bildet einen Bandpass iiber den Frequenzbereich, der reduziert werden soil. Meist wird dazu nur die Mittenfrequenz eingestellt. Treten im Signal Frequenzen im
282
14 Mischung
gewahlten Band auf, dann werden sie vom Kompressor bearbeitet. Grundsatzlich sollte man sich aber Gedanken iiber die Mikrofonauswahl und -Aufstellung machen, sollte man zu viele S-Laute auf seiner Aufnalime haben. Lasst man den De-Esser zu heftig arbeiten, fiihrt das zu einer lispelnden Stinime. 14.2.2.7 Kompandersysteme Ein Konipander ist die Kombination aus eineni Kompressor und einem Expander. Bezeichnet werden damit zwei unterschiedliclie Arten von Geraten. Zum Einen ist es ein Gerat, das beide Funktionen in einem Geliause vereint, viel haufiger handelt es sich aber um Systeme zur Rauscliunterdriickung. In der Zeit der analogen Aufzeiclinungsmedien waren die Bandmaschinen der dynamische Flasclienhals eines Studios. Es war kein Problem, Pulte und Mikrofone mit einem liolien Storspannungsabstand zu konstruieren, aber der Raum zwisclien Bandrausclien und der Sattigung war einfach zu eng. Deshalb erfand man eine Reilie von Systemen, mit denen ein Signal bei der Aufnahme komprimiert wurde. Bei der Wiedergabe wurde das Signal durcli einen Regelverstarker mit exakt umgekehrter Kennlinie wieder expandiert. Die messtechnisclien Anforderungen an die Systeme waren selir hocli, da die Expansion die Kompression haargenau umkehren musste, sollte es niclit zu Klangverscliiebungen kommen. Es gibt an den Einheiten zur Rauschunterdriickung auch keine Einstellmoglichkeiten. Das System wird kalibriert und arbeitet immer mit denselben Parametereinstellungen. Haufig sind Aufnahmeund Wiedergabemaschine unterscliiedlich. Aus diesem Grund werden Pegeltone auf das Band aufgezeiclinet, mit dem die Entzerrung korrigiert werden kann. Auch fiir einige Rauschunterdriickungssysteme gibt es spezielle Pegeltone, die einerseits einen akustischen Hinweis darauf geben, um welche Rauschunterdriickung es sich handelt, und auEerdem eine Kalibrierung des Wiedergabesystems ermoglichen. Im Abschnitt iiber die Kompressoren wurde bereits iiber die Frequenzabhangigkeit der Zeitparameter gesprochen. Aus diesem Grund verwendeten die meisten Rauschunterdriickungssysteme mehrere Frequenzbander. Einige Systeme arbeiteten zusatzlich in mehreren Pegelstufen. Analoge Rauschunterdriickungssysteme haben in der Zeit nicht mehr den Stellenwert, den sie in der Ara der Bandmaschinen hatten. Deshalb soUen die wichtigsten Systeme nur kurz angesprochen werden. dhx Die Rauschunterdriickung dbx arbeitet in einem Frequenzband und einem Pegelbereich. Dabei wird iiber einen weiten Bereich mit einer moderaten Kompression gearbeitet. Problematisch waren Rauschfahnen die bei dynamischem Programm auftreten konnten.
14.2 Klangmanipulation und Effekte
283
Telcom C4 Telconi C4 arbeitet in 4 Frequenzbandern niit einer Kompression von jeweils 1,5:1. Bei der Expansion wird dieses Verhaltnis wieder umgekehrt. Der Vorteil des Systems liegt darin, dass das System nicht auf Fremdbander eingemessen warden muss. Deshalb gibt es auch keinen extra Pegelton fiir Telcom C4. Man erkennt Telcom-komprimierte Bander am schwarz-weifi-roten Vorspannband. Telcom war in der deutschen Rundfunklandschaft sehr verbreitet, was auch am guten Rauschspannungsabstand von bis zu 85 dB gelegen liaben diirfte. Dolby A Auch Dolby A arbeitet in 4 Frequenzbereichen, die sich iiberschneiden. Bei Telcom handelt es sich um 4 Bandpassfilter, Dolby verwendet einen Tiefpassfilter, einen Bandpass fiir die Mitten und zwei Hochpassfilter mit unterschiedlicher Grenzfrequenz fiir die Hohen. Dolby arbeitet mit einer Kennlinie, die nicht linear ist. Deshalb miissen die Systeme eingemessen werden, wenn ein Band aufgelegt wird. Als Pegelton kommt der sogenannte Dolby Tone zum Einsatz. Es hort sich an wie ein normaler Sinuston, der in gewissen Abstanden abbricht und sofort neu einsetzt. Dolby SR Dolby SR war die Standardrauschunterdriickung in der hochwertigen analogen Studioproduktion. Das Kiirzel SR wird haufig fehlinterpretiert. Es hat nichts mit Surround zu tun sondern steht fiir spectral recording. Es arbeitet mit drei unterschiedlichen Pegelstufen und variablen Filtern. Auch Dolby SR muss eingemessen werden. Dazu verwendet man Dolby Noise. Dabei handelt es sich um ein Rauschsignal, dass ahnlich wie Dolby Tone periodisch von kurzen Aussetzern durchzogen ist. 14.2.3 Panorama Die Richtungsmischung ist ein wesentlicher Bestandteil der Gestaltung von Klangbildern. Sie ist entweder ein- oder zweidimensional, je nachdem ob es sich um eine Stereo oder Surroundmischung handelt. Die Tiefenstaffelung als weitere raumliche Dimension erfolgt iiber die Klangfarbe, die Lautstarke und den Hallanteil. In der Friihzeit der Stereofonie wurden Stiicke in Ping-PongStereo produziert. Dabei liegt ein Instrument entweder ganz links oder ganz rechts. Spater erzeugte man durch Pegelunterschiede zwischen den Kanalen Phantomschallquellen, die zwischen den beiden Lautsprechern wahrgenommen werden. Als Eingabewerkzeug kommt entweder ein Drehgeber mit Mittenrastung zum Einsatz, fiir Surround-Mischungen hat man oft einen Joystick oder man wahlt grafisch einen Punkt auf einer Flache aus.
284
14 Mischung
Wie das Panorama aufgeteilt wird, ist eine Frage der Szene, die dargestellt werden soil. Die Mischung der Studioaufnahme einer Rockgruppe folgt einzig klangastlietisclien Aspekten. Eine Live-Aufnahme derselben Band wird grundlegend anders abgemisclit. Stereoquellen konnen iiber die gesamte Stereobreite abgebildet werden. Das wird bei Studioproduktionen auch oft so gemaclit. Bei Live-Konzerten sitzen und stehen die Musiker an einer bestimniten Position auf der Biihne. Der optisclie Eindruck wird spater auch akustisch nachgebildet, indem Stereoinstrumente wie das Schlagzeug zwar eine gewisse Breite im Stereobild erhalten, aber nicht iiber das gesamte Panorama gestreckt werden. In der E-Musik wird ebenfalls eine natiirliche Breitenstaffelung des Orchesters angestrebt. Wortproduktionen mit szenischem Charakter stellen neben der Klangasthetik auch richtungsdramaturgische Anforderungen, die es zu beachten gilt. Je nachdem, ob die Aufnahme mit einer Stereotechnik oder durch Einzelmikrofonie erfolgte, hat man in der Mischung mehr oder weniger Einfluss auf die Position der Schallquellen. Existiert eine Stereoanordnung als Hauptmikrofonie, dann muss die Position der Stiitzmikrofone der Hauptanordnung folgen. Ansonsten kann es sein, dass das Instrument zweifach wahrgenommen wird, insbesondere wenn grofiere klangliche Anderungen vorgenommen werden. Wichtige Entscheidungsmerkmale fiir die Anordnung der Schallquellen im Raum sind die Visualisierung und der Fokus. Visualisierung ist die Vorstellung, wie eine akustische Szene aussieht. Der Fokus bestimmt, was man dabei ansieht. In der realen Welt korrespondiert die optische Wahrnehmung immer mit der akustischen. So kann aufgrund des Klangbildes der visuelle Eindruck abgeleitet werden. Deshalb ist es ein guter Ansatz, die Plausibilitat des Klangbilds anhand der optischen Vorstellung zu iiberpriifen. Gesprache sind ein haufiges Programmelement in Rundfunksendungen. Sie sollen deshalb als Beispiel herhalten. Die erste Frage ist, ob Dialoge iiberhaupt Stereo aufgenommen werden sollen. Tatsachlich werden im Rundfunkbereich viele Gesprache Mono aufgenommen und gesendet. Stellt man sich ein Gesprach vor, dann sitzen die beiden Gesprachspartner an unterschiedlichen Orten. Die Stereofonie bietet die Moglichkeit das abzubilden. Einwande kommen hingegen durch die Betrachtung der gewohnlichen Abhorsituation. Nur selten sitzt der Horer im optimalen Abhorpunkt. Deshalb hat jede stereofone Darbietung einen bevorzugten und einen benachteiligten Kanal. Bei Autofahrten beispielsweise ist fiir den Fahrer der linke, fiir den Beifahrer der rechte Kanal bevorzugt. Auch dramaturgisch ist ein Gesprach meist eine Gelegenheit, unterschiedhche Positionen zu vertreten. Das lasst sich akustisch durch eine stereofone Spreizung der Schallquellen abbilden. Je kontroverser die Positionen sind, desto welter konnen die Gesprachspartner auseinandergesetzt werden. Aber auch das hat aufgrund der iiblichen Abhorposition enge Grenzen. VergroEert man den Dialog zu einer Gesprachsrunde, dann stellt sich die Frage, wie die Positionen verteilt sein soUen. Es bietet sich an, den Moderator als unabhangigen
14.2 Klangmanipulation und Effekte
285
Gesprachsleiter in der Mitte zu postieren, die anderen Gesprachspartner nach ihrer Gesinnung von geniai^igt bis extrem von innen nach aufien zu postieren. Ini Hinblick auf die Klangasthetik niochte man aber haufig auch Manner und Frauen im Wechsel haben. Die giinstigste Sitzordnung soUte schon bei der Aufnahme festgelegt werden. Dass der Moderator in der Mitte sitzt, klingt plausibel. Er ist der Gastgeber, er hat die neutrale Position und in Magazinsendungen sind Gesprachsrunden oder Interviews meist eingebettet. Die meiste Zeit ist der Moderator ahein und hat wahrend seiner Moderationen den gesamten Fokus verdient. In eineni iibhchen Szenario moderiert der Moderator ein Gesprach an, spricht irgendwann seinen Gesprachspartner an und ab dort befindet er sich in der Gesprachssituation bis zu einer etwaigen Abmoderation. Im FaU des Dialogs gelten die bereits angesprochenen unterschiedhchen Positionen. Es gilt aber auch die dramaturgische Neutralitat. Das ergibt ein Stereobild mit einem Moderator in der Mitte, dem Gesprachspartner welter seitlich und einer leeren Seite. Die Frage nach dem Fokus ergibt ein anderes Bild. Man fokussiert immer noch den Moderator, der Gesprachspartner bliebe Beiwerk. Klangasthetisch vorteilhaft ware es, die beiden Gesprachspartner gleichmafiig aus der Mitte herauszudrehen. Damit hatte man aber das Problem, dass der Moderator seine Position verandert. Nun ist ein solcher Schnitt im Fernsehen keine Besonderheit mehr obwohl man als sicher gegeben ansehen kann, dass ein friiher Fernsehzuschauer von den heute iiblichen wilden Montagen ausgesprochen verwirrt gewesen ware. Vieles hangt ab von den Wahrnehmungsgewohnheiten der Horer und es bleibt an dieser Stelle unbeantwortet, ob sich nicht die Wahrnehmung akustischer Szenen auch an Schnitte gewohnen wiirde, wenn man den Horer damit konfrontieren wiirde. Die Alternative ist ein Schwenk, der den Moderator kontinuierlich an die Seite verschiebt. Aber auch hier hatte der unbedarfte Horer zunachst das Gefiihl, die SchallqueUe, also der Moderator wiirde sich bewegen, nicht der Fokus. Optische Szenen bieten Fixpunkte, an denen der Zuschauer die Position einer Person iiberpriifen kann. So ist nach einem Schnitt nachvollziehbar, was passiert ist. Solche akustischen Fixpunkte sind grundsatzlich denkbar, wiirden in vielen Fallen aber storen, da man sich ja auf das Gesprach konzentrieren mochte. Praktikabel kann es hingegen in montierten szenischen Produktionen sein. Das Problempotential, das diese zunachst harmlos wirkende Aufgabenstellung in sich birgt zeigt, dass die Richtungsmischung keineswegs trivial ist und es sich allemal lohnt, dariiber nachzudenken. 14.2.4 Hall Das HaUgerat ist das wichtigste Effektgerat im Studio. Es soUte eine entsprechend hohe Qualitat aufweisen. Hallgerate, die heute ausschlie£hch digital aufgebaut sind, miissen moglichst viele Reflexionen berechnen konnen, so dass ein moglichst natiirlich klingender Hall entstehen kann. Neben den
286
14 Mischung
Standalone-Geraten kommen oft Software Plugins zum Einsatz, die sich die Rechenleistung mit der Audiosoftware teilen miissen. Hallgrundlagen Das Verhalten eines Raumes hangt ab von seiner Groi^e und der Beschaffenheit seiner Oberflachen. Das Hallsignal ist zusatzlich abhangig von der Position der Schallwelle im Raum. Von einer idealen Schallquelle breiten sich die Wellen kugelformig aus. Irgendwann treffen sie auf Wande, Decken, Mobiliar oder Zuschauer. Dort werden sie teilweise absorbiert, teilweise gestreut und teilweise reflektiert. Wie ein Gegenstand auf eine Schallwelle wirkt, hangt ab von deren Wellenlange. Lange Wellen beugen sich um kleinere Hindernisse herum, so dass sie oft erst durch die Wande reflektiert werden. Ist ein Hindernis gro£ genug, um die Welle zu stoppen, dann kommt es auf die Oberflachenbeschaffenheit an, ob die Welle zuriickgeworfen wird, oder ob ihre Energie am Hindernis aufgezehrt wird. Die Streuung bestimmt, ob die Schallwelle wie eine Billardkugel von der Wand abprallt, oder ob sie wie ein Schneeball zerfallt und in kleineren Teilen in unterschiedliche Richtungen reflektiert wird. Bevor die SchaUwelle auf das erste Hindernis trifft, gibt es keine Reflexionen und damit auch keinen Raumeindruck. Die ersten oder auch friihen Reflexionen - die Early Reflections - sind zunachst noch einzeln wahrnehmbar. Aber wenn auch die Reflexionen wieder reflektiert werden, baut sich sehr schnell ein quasistationarer HaU auf, der in seinem Pegel an jeder Stelle des Raumes konstant ist. Erst wenn die SchaUquelle abgeschaltet wird, klingt der Raum aus. Die NachhaUzeit ist deflniert als die Zeit, in der das HaUsignal nach Abschalten der Schallquelle um 60 dB abnimmt. Man spricht deshalb auch von RTQQ. R T steht dabei fiir Reverberation Time. Der Nachhall ist abhangig vom Absorbtionsgrad des Raumes, also davon, wie schneU dem Schall seine Energie entzogen wird. Signalfluss Der HaU ist ein Erganzungseffekt. Das bedeutet, dass das Originalsignal, das verhallt werden soil, bestehen bleibt. Meist sollen mehrere Signale von einem Gerat verhallt werden. Deshalb nutzt man dafiir einen Hilfsausspielweg. Dieser liegt Post Fader, da sich Anderungen an der Lautstarke auch auf den HaUpegel auswirken soUen. Vom Aux-Master-Send geht es in den Eingang des Hallgerats. Die Ausgange werden auf einen Stereokanalzug oder zwei Mono Kanalziige gesteckt. Die in vielen Pulten vorhandenen Aux Returns sollten nach Moglichkeit vermieden werden, da sie keine voUwertige Klangregelung besitzen. Nimmt man allerdings als FX-Return einen normalen Kanalzug und offnet den falschen Aux-Weg, dann kann es zu einer Riickkopplung kommen. Das Problem besteht auch bei einer zirkularen Verkettung von Effekten (Hall -^ Delay ^Hall). Aber die Klangregelung ist wichtig. Denn auch der Ausgang
14.2 Klangmanipulation und Effekte
287
eines EflFektgerats wirkt als eigenstandiges Signal in der Mischung und alles, was bisher iiber VerdeckungsefFekte gesagt wurde, gilt oline Einsclirankungen aucli fiir die Effektriickwege. Da die Erganzungseffekte erst hinzugemischt werden, wenn die efFektfreien Einzelsignale erstnialig entzerrt wurden, ist die Wahrsclieinlichkeit, dass der Hall verdeckt wird sehr lioch, da in der Mischung fiir diese Quelle noch kein Raum vorgesehen wurde. Innerhalb des Hallgerats gibt es meist unterscliiedliche Routingmoglichkeiten, wie die Prozessoren mit den Eingangssignalen versorgt werden, und wie sie die Ausgange speisen. Monoeingange sind bei wenigen Ausspielwegen okonomisch. Stereoeingange mit und oline Uberspreclien auf den anderen Kanal ernioglichen eine weitergeliende Positionierung ini Raum. AUe Hallgerate geben ein Stereosignal aus. Interessant ist, wie dieses Stereosignal entsteht. Zwei getrennte Prozessoren bereclmen fiir hoffentlich unterschiedliclie Eingangssignale den Hall. Als Eingangssignal kommt ein Monosignal in Frage, ein Stereosignal, bei dem beide Eingange getrennt verarbeitet werden, oder ein Stereosignal, bei dem auch der jeweils andere Kanal auf den Eingang des Prozessors wirkt. In der Realitat stelit eine Scliallquelle nicht nur links oder nur reclits im Raum, oder erzeugt nur rechts oder links Reflexionen. Es ist immer der gesamte Raum betroffen, allerdings wecliseln die Anteile je nacli Position im Raum. Ein Monoeingang ist vorteilliaft fiir LiveAnwendungen, bei denen oft - zum Beispiel durch Front of House Monitoring - die Anzahl der Aux-Wege begrenzt ist. Parameter Die Parameterliste der Hallgerate ist lang. Nicht alle Parameter sind in alien Hallgeraten zu finden. Oft haben sie einen anderen Namen. Teilweise werden auch mehrere Parameter kombiniert. Predelay: Die Zeit bis zur ersten Reflexion. Sie gibt Auskunft dariiber, wie grofi der Raum ist und wo die Schallquelle im Raum positioniert ist. Early Reflections Level: Die ersten Reflexionen sorgen fiir die Raumlichkeit. Die Lautstarkeverhaltnisse zwischen den friihen Reflexionen und der quasistationaren NachhaUphase lasst sich einsteUen. Fiir eine ausgepragte Raumlichkeit benotigt man nur wenig Nachhall. Der Nachhall rundet den Klang jedoch ab und stelit in den Pausen eine Verbindung her. Reverb Time: Die Nachhallzeit. Ubliche Werte liegen zwischen zwei und dreieinhalb Sekunden. Anstelle der Nachhallzeit wird oft auch das Raumvolumen angegeben. Spread: Ein Indiz fiir die Oberflachenbeschaffenheit. Er wird auch Diffusion genannt. Er verandert die Dichte des Nachhalls. Er ist aber von Gerat zu Gerat unterschiedlich implementiert. High Damp: Hohe Frequenzen werden in normalen Raumen starker bedampft als tiefe. Die Hallzeit der hohen Frequenzen im Vergleich zu mittleren Frequenzen wird iiber den Parameter High Damp eingestellt. Normal sind Werte von 0,5 bis 0,8.
288
14 Mischung
Low Damp: Der entsprechende Parameter fiir die tiefen Frequenzen ist nicht immer vorhanden. Setzt man die Werte absichtlich auf unnatiirliche Werte, lassen sich unnatiirliche Raume erzeugen. Faltungshall Eine andere Gattung von Hallgeraten ist der Faltungshall. Die Basis eines Faltungshalls ist die Impulsantwort. Die Impulsantwort ist der Raumklang nach eineni kurzzeitigen breitbandigen Schallereignis. Kennt man die Impulsantwort, dann kann man das Verhalten des Raums fiir ein beliebiges Schallereignis berechnen. Der Vorteil eines FaltungshaUs ist, dass er sehr natiirlich klingt. Die Impulsantwort gut klingender Raume ist eine gute Voraussetzung fiir einen gut klingenden HaU. Der Nachteil des FaltungshaUs ist, dass er sich nur bedingt verandern lasst. Die Impulsantwort eines Tunnels ist keine gute Basis fiir die Simulation eines Konzertsaals und umgekehrt. Spezielle Hallalgorithmen sind der Flatten- oder Folienhall. Dabei handelt es sich um Simulationen friiherer Hallerzeugungsmechanismen. Eine besonderer Halleffekt ist der Gated Reverb. Phil Colhns gilt als Schopfer dieser Technik. Er verwendet ihn fiir die Snare Drum. Eine sehr starke Hallfahne wird von einem Noise Gate abgeschnitten. So lassen sich perkussive Gerausche verlangern. 14.2.5 Delay Das Delay erzeugt Echos und wird fiir rhythmische Effekte verwendet. Aui^erdem lassen sich Halleffekte um rhythmische Reflexionen erganzen. Spezielle Delays werden fiir Delay Lines verwendet, die im Abschnitt 16.1.5.3 auf Seite 315 beschrieben werden. Die Verzogerungszeit wird iiber den Parameter Delay Time eingestellt. Alternativ konnen haufig auch Notenwerte eingegeben werden oder iiber eine Taste der Rhythmus getastet werden. Das nennt man dann Tap Delay. Der zweite Parameter heii^t Feedback. Mit ihm wird ein Teil des Ausgangssignals auf den Eingang zuriickgegeben. So entstehen mehrere Echos hintereinander. Negative Werte stehen fiir eine phasengedrehte Riickkopplung. Auch iiber das Panorama lassen sich Echos verteilen. Diesen Effekt kennt man unter dem Stichwort Ping Pong Delay. 14.2.6 Chorus/Flanger/Phaser Auch Chorus, Flanger und Phaser erzeugen Verzogerungen. AUerdings nicht als horbares Echo, sondern im kurzen und kiirzesten Bereich. Eingestellt wird die Verzogerung iiber den Parameter Delay. Hinzu kommt ein LEO, der das Signal manipuliert. Er ist in Frequenz (frequency) und Amplitude (depth) einstellbar. Der Chorus arbeitet mit den langsten Verzogerungszeiten und erzeugt einen volleren Klang und eine Schwebung, die an einen Chor erinnert, bei dem
14.2 Klangmanipulation und Effekte
289
auch unregelma£ige geringe Abweichungen zwischen den Sangern auftreten. Ein zu grofier Hub des Oszillators fiihrt zu Dissonanzen. Ein verstimmtes Klavier (Honky Tonk) lasst sich auf diese Art leicht erzeugen. Flanger erzeugen Kammfiltereffekte, die durch den LFO durch das Spektrum wandern. So entstehen ,spacige' Klange. Der Name Phaser zeigt bereits an, dass der EflFekt auf Phasenverschiebungen beruht. Diese werden von AUpassen erzeugt.
15 Schnitt Bisweilen erntet man unglaubige Blicke, wenn man erzahlt, dass der Begriff Schnitt aus einer Arbeitstechnik herriihrt, bei der tin Tonband durchgeschnitten wird, um es neu zusammen zu kleben. Auf der anderen Seite stellt sich die Frage, wieso der Schnitt ,Schnitt' heifien sollte, gdbe es eine solche Arbeitstechnik nicht. Doch der Reihe nach.
Die Anfange der Tontechnik niussten noch vollig ohne Korrekturmoglichkeiten auskomnien. Die ersten Aufzeichnungsgerate, die Phonographen, nahnien auf Wachswalzen auf. Der Schall wurde wie spater bei der Schallplatte in mehr oder weniger Tiefe Rillen im Wachs umgesetzt. Als Abspielmedium entwickelte sich die Schallplatte. Fiir die Aufnahme wurde lange Zeit mit Drahten und Stahlbandern experimentiert. Schliefilich wurde Eisenoxid auf Papierbander aufgebracht und spater dann auf die verschiedenen Kunststoffe. So h a t t e m a n Ende der 1930er J a h r e endlich ein Tonband, das fiir Schnittbearbeitung geeignet war. Es war robust genug um den auftretenden Zugkraften Stand zu halten, es war mit einfachen Werkzeugen schneidbar und m a n konnte es wieder zusammenkleben ohne dass die Schnitte horbar waren. Schon die Stahlbandrekorder von Marconi waren mit eingebauten Punktschwei£geraten versehen, damit gebrochene Bander wieder zusammengefiigt werden konnten. Fiir eine tatsachliche Schnittbearbeitung war diese Methode allerdings aufgrund der gro£en Storgerausche, die an der Schnittstelle auftraten nicht zu gebrauchen.^ Als Werkzeug fiir den Schnitt dienen Scheren oder Klingen aus unmagnetischem Material, die entweder in der Hand gehalten oder an einer Vorrichtung zum Schneiden befestigt sind. Anfangs wurde nass geklebt. Dabei wurde das Band an der Schnittstelle mit einem Losungsmittel behandelt. Die beiden Enden wurden mit einer geringen Uberlappung aufeinandergepresst und so verklebt. Spater wurden Klebestreifen verwendet, die auf der Riickseite der Bander aufgeklebt wurden. Dabei liegen die Bandenden auf Stoi^ aneinander. Damit die Schnittkanten zueinander passen, wird das Band in eine Klebelehre gelegt und dort geschnitten. Eine Klebelehre hat eine Fiihrschiene in die das Band eingelegt wird. Feste Klingen schneiden das Band in einem definierten Winkel durch. Es gibt auch Klebelehren ohne feste Klinge. Hier sind dann in der Regel Einkerbungen in verschiedenen Winkeln vorhanden, durch die die Klingen gefiihrt werden. Eine besonders effektive Variante Analogbander
1 vgl. [25, 32]
292
15 Schnitt
zu schneiden sind Kopfscheren. Hier ist eine Schere direkt am Tonkopf angebracht. Durch die normale Bandfiihrung hat das Tonband seine definierte Lage. So stinimen auch hier die Winkel der Schnitte iiberein. Der Vorteil der Kopfschere liegt darin, dass die Schnittstelle nicht erst angezeichnet werden muss. Schrage Schnitte minimieren die Moglichkeit von Storungen durch die Schnittkante. Aufierdem entspricht der schrage Schnitt einem langsameren Ubergang von einem zum anderen SignaL So waren auch in begrenztem Mai^e Uberblendungen moghch. Bei einer Bandgeschwindigkeit von 38 Zentimetern pro Sekunde und einer Band-Breite von 6 Milhmetern kommt diese Technik jedoch sehr schnell an ihre Grenzen. Eine Blende iiber eine halbe Sekunde erfordert einen Schragschnitt iiber 19 Zentimeter. Mit der Einfiihrung der stereofonen Aufzeichnung tauchten neue Probleme mit dem Schragschnitt auf. Bisher war das Mono-Signal iiber die gesamte Breite des Bandes verteilt. Jetzt befindet sich aber der hnke Kanal auf der einen, der rechte auf der anderen Seite des Bandes. Wird schrag geschnitten, dann hat das zur Folge, dass der Schnitt von einem zum anderen Kanal wandert, was sich bei entsprechendem Programm auch bei gro£en Schnittwinkeln storend bemerkbar macht. Verhindert wurde das durch eine Schnitttechnik, die Schwalbenschwanz genannt wird und auch genauso aussieht. Man schneidet dabei ein Ende von beiden Seiten jeweils schrag bis zur Mitte ein, das andere Ende schrag nach aufien, so dass beide Enden zueinander passen und klebt sie zusammen. Bei zwei Spuren horte die analoge Langsspuraufzeichnung aber noch nicht auf. Mehrspurmaschinen kamen auf den Markt, die 8 und spater bis zu 24 Spuren auf maximal 2 ZoU breite Bander aufnahmen. Hier war ein Schragschnitt iiber die gesamte Breite volhg ausgeschlossen. Dafiir gab es dann ZickzackSchablonen, mit deren Hilfe das Band geschnitten werden konnte. Im allgemeinen werden Mehrspurbander gar nicht geschnitten, sondern erst die fertige Mischung. Anders als bei der Langsspuraufzeichnung ist bei der Schragspuraufzeichnung eine Schnittbearbeitung im herkommlichen Sinn nicht moglich. Deshalb werden Schragspurformate geschnitten, indem die gewiinschten Telle des Originalmaterials nacheinander auf ein neues Band kopiert werden. Dieses Verfahren heifit Linearer Schnitt. Der Vorteil liegt darin, dass das Originalmaterial erhalten bleibt. Der Fachbegriff dafiir ist Non Destructive. Aus demselben Material lassen sich also mehrere Versionen schneiden. Der Nachteil bei analogen Medien ist der Qualitatsverlust durch die Kopiervorgange. Auch unterliegen die Bander einer unerwiinschten mechanischen Beanspruchung. Die Schnittbearbeitung am PC ermoglicht den wahlfreien Zugriff auf das Originalmaterial. Auch bei der Montage genie£t man die Vorteile, nicht an die Chronologic eines Bandmediums gebunden zu sein. Deshalb spricht man auch vom nichtlinearen Schnitt - dem Nonlinear Editing. Auch der nichtlineare Schnitt ist normalerweise nicht destruktiv. Nur seiten soU das Originalmaterial selbst verandert werden. Statt dessen wird eine sogenannte Edit Decision
15 Schnitt
293
List - kurz EDL angelegt. In dieser EDL werden die Zeitstempel der gewiinschten Schnittpunkte gespeichert. Beim Abspielen des geschnittenen Materials werden nur die gewiinschten Abschnitte nacheinander wiedergegeben. Erst beim sogenannten Bouncing wird eine neue Audiodatei geschrieben, die das geschnittene Audiomaterial enthalt. Fast alle Systeme bieten aber auch eine Moglichkeit, das Material destruktiv zu bearbeiten. Das ist eine liaufige Fehlerquelle. Um den richtigen Sclinittpunkt zu finden, tastete man sicli beim analogen Bandschnitt langsam an den Sclinittpunkt heran, indem man die Spulen in immer kleineren Schritten bin und her bewegte. Wo der richtige Punkt lag, konnte nur akustisch iiberwacht werden. Digitale Schnittsysteme stellen das Audiomaterial als Wellenform dar. Diese Wellenform stellt die Amplitudenwerte im Zeitverlauf dar. Die meisten Systeme zeigen die positiven Werte sowohl auf der positiven Achse, als auch auf der negativen gespiegelt. Andere Systeme zeichnen tatsachlich beide Halbwellen. Wieder andere zeigen nur die positiven Halbwellen und verzichten auf die Spiegelung. Stereosignale konnen innerhalb einer Wellenform oder fiir den linken und rechten Kanal getrennt dargestellt werden. Ein Zoom ist meist bis auf die Sampleebene moghch. Wahrend es wiinschenswert ist, samplegenau zu schneiden, bringt die samplegenaue Ansicht selten Vorteile. Giinstiger ist es, eine VergroEerung zu wahlen, bei der mehrere Worter oder mehrere Schlage des Musikstiicks gleichzeitig zu sehen sind. So hat man die beste Orientierung, wo ein Satz oder ein Takt, ein Wort oder ein Schlag anfangt. Die Anzeige der momentanen Abspielposition kann auf zwei Arten erfolgen. Die eine Moglichkeit ist eine Linie, die die Zeitleiste entlang lauft. Kurz vor der rechten Bildschirmbegrenzung springt die Wellenform dann eine Seite weiter. Vergleichbar ist das mit einer Partitur, die man wahrend des Stiickes mitliest. Der Nachteil ist, dass man sich auf jeder neuen Seite neu orientieren muss. Man hat nur wenig Einfluss darauf, wann weitergeblattert wird. Nach Murphys Gesetz miissen potentieUe Schnittpunkte auch auf den Moment fallen, in dem geblattert wird. In der Praxis hat man oft das Gefiihl, dass es immer diesen Moment trifft. Die andere Darstellung ist die Tonbandmetapher^. Die momentane Abspielposition steht wie der Tonkopf einer Bandmaschine fest in der Mitte des Bildschirms und das Material lauft wie das Tonband daran vorbei. Spriinge durch das Blattern entfaUen, jedoch ist die DarsteUung wesenthch unruhiger, da standig die gesamte Wellenform neu gezeichnet werden muss. Es gibt nur wenige Programme, die diesen Modus befriedigend darstellen. Die Wellenform lasst bedingt Aussagen iiber die Lautstarke eines Signals zu. AUerdings darf man nicht die Spitzenwerte betrachten. Bei einem korrekt gepegelten Telefoninterview klingen beide Gesprachspartner gleich laut. In der Softwareentwicklung spricht man von einer Metapher, wenn ein Programm ein bekanntes Verfahren imitiert, um die Software intuitiver benutzbar zu maclien. Bekannt ist das Beispiel der Tabellenkalkulation, die in Arbeitsmappen und Arbeitsblatter organisiert ist und so an tatsachliche Akten erinnert.
294
15 Schnitt
obwohl die Spitzenpegel des Telefons wesentlich grower sind. Das Telefon zeichnet sich durch extreme Pegelspitzen, aber einen geringen Durchschnittspegel aus. Deshalb klingt es leiser, als es aussieht. Fiir die Lautstarke sind nicht die Pegelspitzen verantwortlich, sondern die Summe aller Amplitudenwerte. Also wie diclit ein Signal ist. Die Wellenform zeigt die Diclite an der gefarbten Flaclie unter der Hiillkurve. Gerade ini Gesprach mit langjahrigen Tontechnikern, deren Heiniat der analoge Bandschnitt war, entziindet sich immer wieder ein Disput dariiber, ob man nun mit dem Auge oder mit dem Olir sclmeidet. Mein Friedensangebot und die Metliode, die icli selbst praktiziere: Natiirlich sclmeidet man anhand der Wellenform optisch. Der PC bietet kein giinstigeres akustisches Verfahren zur Ermittlung der richtigen Schnittpunkte. Nachdem der Schnitt ausgefiihrt ist, wird er durch das Ohr kontrolliert und das Ohr ist auch die ma£gebliche Instanz bei der Bewertung eines Schnitts. Er kann noch so gut aussehen. Wenn er nicht gut klingt, dann ist er eben schlecht. Es ist haufig hilfreich, beim Abhoren eines Schnitts nicht auf die Wellenform zu schauen. Denn das, was man sieht hat auch eine Auswirkung auf das, was man hort. Das fiihrt in der Arbeit mit Kunden, die selbst auch schneiden immer wieder zu interessanten Effekten: Pausen werden bei einer grofien zeitlichen Auflosung als zu lang empfunden und Signale werden anhand ihrer Spitzenpegel bewertet und als zu leise oder zu laut empfunden. Versuchen Sie, eine Auflosung zu finden, die den Sehgewohnheiten Ihres Kunden entspricht und iiberzeugen Sie ihn von der Richtigkeit Ihrer Arbeit, sofern Sie selbst davon iiberzeugt sind. Auch wenn die technische Umsetzung in Form einer EDL geschieht, gibt es Schnittprogramme, die die Ergonomie einer analogen Bandmaschine nachbilden. Das ermoglichte einen einigermafien sanften Ubergang von der analogen zur digitalen Technik. Aus dem Originalmaterial werden die Telle rausgeschnitten, die nicht benotigt werden. Die Liicke zwischen den Schnittkanten wird automatisch wieder geschlossen.
Abb. 15.1. Audio-Editor mit Bandmaschinenmetapher: DigAS SingleTrack Editor.
15 Schnitt
295
Die grofie Gruppe der Digitalen-Audio-Workstations (DAW) verfolgt ein anderes Ziel. Die komplette Produktion von der Aufnahme iiber die Mischung und den Schnitt bis zum Mastering soUen in einem Progranim abgewickelt werden. Einzelne Eleniente werden dann einfach grafisch entlang einer Zeitleiste arrangiert. So konnen auch Liicken gelassen werden. Allerdings beinhaltet eine solche Liicke kein Audio. Die Aufnahme davor hatte auf jeden FaU einen - wenn auch nioghcherweise sehr geringen - RaunianteiL Dieser Raum ist in einer Liicke nicht vorhanden. Besser ist es dort, ein Stiick Atmo einzufiigen. Das setzt natiirhch voraus, dass man bei der Aufnahme daran gedacht hat, ein bisschen Atmo aufzunehmen. Mit den DAW hat man aui^er harten Schnitten auch die Moghchkeit langsam iiberzublenden. Geringe Uberblendzeiten sind notwendig, um Knackgerausche durch plotzhch springende Spannungswerte zu verhindern. Die Uberblendung eines Schnitts hegt normalerweise bei wenigen Milhsekunden. Diese Dauer ist oft ein einsteUbarer Parameter, so dass man auch Kreuzblenden iiber eine gewisse Zeit reahsieren kann. Zu einer Blende gehort immer eine Charakteristik und eine Dauer. Beim Fade In am Anfang und dem Fade Out am Ende kann man eine Kurve wahlen, bei der das Ergebnis am besten klingt. Bei Kreuzblenden ist man jedoch auf bestimmte Blendcharakteristika festgelegt, die in der Summe von Ein- und Ausblende eine konstante Ausgangsleistung liefern. Das bedeutet, der addierte Pegel muss immer dem Originalpegel des urspriinglichen Signals oder der Summe beider Signale entsprechen. Manche Workstations bieten aufwandige Crossfade Editoren, mit denen sehr ausgefeilte Uberblendungen realisiert werden konnen. Dazu gehoren auch asymmetrische Blenden, die sich fiir das endende und das beginnende Material in alien Parametern - dem Schnittpunkt, der Kurvencharakteristik und der Dauer unterscheiden konnen.
i>Qfm('^^!^%^>P^s'^^---'^^^^^^^^ ,•• —
i
y-^-: < • • ' "
•• '
y :
:
•r
J-X.-r"-.
_ t:'*^^.'*- -
'^p^'-'.
•-1/V
...r:~~\
••'*i,^r
"
fi
.,».v,ii.......^,.:^^.4 '.M.q| 7 ; „ . . • S . H
1. !(•"
Abb. 15.2. Crossfade Editor der DAW Sequoia.
\
296
15 Schnitt
15.1 Sprachschnitt Bei Sprachaufnahmen hat der Schnitt verschiedene Aufgaben. Es gibt Kiirzungsschnitte, Korrekturen und kosmetische Schnitte. Was am betrefFenden Material zu schneiden ist, hangt ab vom Material selbst, vom Zeit- und Geldbudget und den Qualitatsanspriichen. Kiirzungen, Korrekturen und kosmetische Schnitte konnen in einem Durchgang gemacht werden, oft empfiehlt es sich aber, erst einen Vorschnitt zu erstellen, der den richtigen Inhalt und die richtige Lange hat und anschlie£end einen Feinschnitt anzufiigen. Beim Horfunk ist es heute iibhch, dass die Reporter oder Redakteure den Vorschnitt selbst iibernehmen und nur den Feinschnitt von einem Mediengestalter ausfiihren lassen. 15.1.1 Kiirzungsschnitte Uberall, wo Beitrage gesendet werden, miissen sie in den vorgegebenen Zeitrahmen passen. Deshalb ist es unerlasslich, die Aussagen zu verdichten und auf das Wesentliche zu konzentrieren. Kiirzungen werden normalerweise vom Redakteur oder Regisseur vorgegeben. Gesprachspartner, die gerne vom T h e m a abschweifen oder in Einschiiben zu tief ins Detail gehen, werden so nachtraghch fokussiert. Bei Kiirzungsschnitten ist es sehr wichtig, dass die urspriingliche Bedeut u n g der Aussage nicht verfalscht wird. Auch muss m a n darauf achten, dass die Aussage verstandhch bleibt. Wer das Original kennt, der verfiigt iiber ein grofieres Hintergrundwissen als der groEte Teil der spateren Zuhorer. Durch dieses Hintergrundwissen erscheinen manche Sachverhalte verstandhch, obwohl anderen die weggeschnittenen Informationen fehlen. Kiirzungsschnitte sollten moglichst auf zusammenhangende Bereiche angewendet werden. Substantielle Kiirzungen ohne substantielle Einwirkungen auf das Material sind in vielen Fallen nicht moglich. Ein beliebtes aber leider vollig unbrauchbares Mittel, Kiirzungen ohne inhaltliche Verluste zu realisieren ist das Entfernen von Atmern und Pausen. Denn diese Elemente haben einen Sinn, auf den im Abschnitt 15.1.3 noch genauer eingegangen wird. Anschliisse passen danach oft nicht mehr zusammen und der Rhythmus wird zerstort. So offenbart m a n dem Horer die Manipulation durch die Schnittbearbeitung und selbst wenn m a n den Inhalt nicht verandert hat, erzeugt ein horbarer Schnitt sogleich einen Anfangsverdacht oder wirft zumindest die Frage auf, was denn dort geschnitten wurde. Zuletzt bringt eine solche Kiirzung nur selten die benotigte Zeitersparnis. 15.1.2 Korrekturen Korrekturen sind immer dann moglich, wenn m a n aus mehreren Versionen wahlen kann. Beispielsweise dann, wenn ein Sprecher einen Text gelesen hat und einen Teil wiederholt hat, well er sich versprochen hat, oder dem Regisseur
15.1 Spradischnitt
297
die Interpretation nicht gefallen hat. In vielen Fallen kann aber aucli aus einer falschen Version ein richtiger Satz entstelien. Dazu kann man Telle umstellen oder durcli einen neuen Anschluss zwei Satze miteinander verbinden. Wird ein Sprechertext korrigiert, von dem mehrere Versionen existieren, dann wird nicht direkt am Ansatz geschnitten. Der Sprecher braucht einige Worter, bis er wieder im richtigen Rhythmus spricht, in der richtigen Lautstarke und Klangfarbe. Steht der Schnittpunkt nicht ohnehin fest, dann hat man oft mehrere Moglichkeiten. Ich personlich bevorzuge Schnitte innerhalb eines Wortes. Selbst wenn die Sprachmelodie nicht iibereinstimmt werden Schnitte innerhalb des Wortes oft iiberhort, wahrend ein Wechsel der Melodie zwischen zwei Wortern unangenehm auffallt. Innerhalb des Wortes sucht man sich am Besten einen harten Konsonanten, vor dem man schneiden kann. Harte Konsonanten sind Explosivlaute. Sie erfordern vom Sprecher das Aufstauen der Luft direkt vor dem Laut. Dort, entsteht eine Pause. In dieser Pause kann geschnitten werden. Eventuelle Briiche in der Atmo werden durch den nachfolgenden Explosivlaut verdeckt. Falls es nicht moghch ist, innerhalb eines Wortes zu schneiden, dann schneidet man am Besten nach Zasuren - Atempausen oder Absatzen. Hier ist der Raumeinfluss am geringsten. 15.1.3 Kosmetik Interviews, Umfragen und alle sonstigen spontanen AuEerungen sind selten fehlerfrei gesprochen. Durch Kosmetikschnitte, man spricht auch vom Feinschnitt oder vom Saubern, kann man dem Horer die Fehler des Sprechers ersparen. Bei bildgebundenen Verfahren ist das in der Form nicht moglich, well ja immer auch das Bild geschnitten werden miisste, um den Ton synchron zu halten. Man kann das leicht nachweisen, indem man im Radio und im Fernsehen einen Bericht anhort, in dem ein bekannter Politiker sich aufiert. Im Radio wird er fiir gewohnlich sauberer klingen als im Fernsehen, nie jedoch umgekehrt. Die Fehler, die im Rahmen des Feinschnitts entfernt werden, sind AhLaute, zu lange Denkpausen, Rauspern, Husten, Halbsatze, die nicht zu Ende gefiihrt werden, Wortwiederholungen, Unverstandliches und Fiillworter. Hinzu kommen Storgerausche in der Atmo oder Kabel- beziehungsweise Mikrofongerausche. Das ist natiirlich nur dort moglich, wo das Gerausch nicht unter der Sprache liegt. Nicht nur sauber sondern rein - auch beim Feinschnitt gibt es des Guten zu viel. Zwei Fehler miissen beim Feinschnitt auf jeden Fall vermieden werden: Horbare Schnitte und eine sterile, klinisch kiinstliche Gesamtanmutung. Lasst sich ein Laut nicht unhorbar entfernen, dann bleibt der Fehler im Material. Es bringt keinen Gewinn, einen sprachlichen Fehler durch einen technischen zu ersetzen. Auch wenn es im Einzelfall wenig schmeichelhaft fiir den Sprechenden ist, sollte man sich in einem solchen Fall fiir das Mehr an Authentizitat entscheiden.
298
15 Schnitt
Ein Ah sagt mehr als Tausend Worte. Dopinggestandnisse, Vetterleswirtschaft, unbequeme Fragen eines Journalisten. Gerade Politikern passieren wenig verbale Entgleisungen. Zu weit greift ihre rhetorische Schulung. Schneidet man eine solche Aussage zu sauber, dann nimnit man ihr einen betrachtlichen Teil ihrer Emotion. Zogert der Sprecher oder konimt die Antwort wie aus der Pistole geschossen? 1st ihm die Frage egal oder fiihlt er sich dadurch sichtlich unwohl? Ringt er um Fassung, um Luft, um die richtigen Worte? All das sind Informationen, die aus den Pausen, aus der Atmung und sonstigen Gerausclien, die der Gespraclispartner von sich gibt, entnommen werden konnen. Sie niiissen auf jeden Fall erhalten bleiben, konnen aber in der Regel deutlich reduziert werden. Hier muss der Mediengestalter einen angemessenen Mittelweg finden. Da sich die Menschen heute einen grofien Teil der aktuellen Information aus dem Fernsehen holen, muss man auch darauf Riicksicht nehmen und sollte sich nicht zu weit vom Original entfernen. Denn im Fernsehen kann der Ton nicht ohne Bild geschnitten werden. Der Horer ware irritiert, wenn ein Mensch, der sonst lange Pausen macht, oder oft Ah sagt, plotzUch fehlerfrei spricht. Auch der Charakter des Sprechers soil beim Feinschnitt gewahrt bleiben. Beim Kiirzen von Pausen ist es wichtig, dass im Rhythmus geschnitten wird. Sonst wirkt das Ergebnis schnell holperig. Aufierdem ist darauf zu achten, dass ein eventueller Hall nicht abgeschnitten wird. Deshalb kiirzt man in der Regel das Ende der Pause, nicht den Anfang. Atmer zu entfernen ist grundsatzlich eine schlechte Idee. Denn vor dem Atmen hat der Sprecher in der Regel einen Luftdruckmangel, danach einen Uberschuss. Das aufierst sich einmal in einer groEeren Lautstarke und oft auch in einer grofieren Sprechgeschwindigkeit wahrend der ersten Worter nach dem Luftholen. Die horbare Atmung verbindet diesen akustischen Bruch zu einem schliissigen Horerlebnis. Wird der Atmer entfernt, dann wird dieser Bruch horbar. Manchmal verzerrt das Atmen an der falschen SteUe eine Aussage derart, dass man sich doch entscheidet, den Atmer zu entfernen. Der verbliebene Text muss dann unbedingt im Rhythmus geschnitten sein. Die zu gro£e Lautstarke nach der SchnittsteUe kann eventuell, wenn nicht zu viele Hintergrundgerausche existieren auch ein wenig in der Lautstarke reduziert werden. Das bringt aber nur in engen Grenzen den gewiinschten Erfolg, well sich nie nur die Lautstarke andert, sondern immer auch die Klangfarbe. Man kann ein Fliistern beliebig laut machen. Es wird sich nie anhoren wie ein Schreien. Hintergrundgerausche sind omniprasent. Deshalb sollte vor oder nach einem Schnitt nicht geblendet werden. Zulassig hingegen sind Kreuzblenden, die die beiden Telle langsam ineinander iiberfiihren. Aber auch das funktioniert am Besten bei quasistationaren Atmospharen. 15.1.4 M o n t a g e Die Montage ist ein wichtiges gestalterisches Mittel. Fiir den Filmschnitt gibt es sogar einen Oscar. Auch wenn man als Ton-Editor auf solche Ehrungen
15.1 Spradischnitt
299
verzichten muss, soUten inimer wieder neue Moglichkeiten der Montage in Betracht gezogen werden. Montagen konnen durch reine Schnittbearbeitung entstehen oder innerhalb von Mehrspursystemen iiberlappend mit spaterer Mischung. Dann spricht m a n vom Anlegen, als Zwischenschritt zwischen Schnitt und Mischung. Klassische Montagetypen sind Umfragen und Collagen. Szenische Tonproduktionen, Features oder Horspiele werden ebenfalls montiert. Montage ist hier im Gegensatz zur Live-Produktion zu verstehen, in der die Ereignisse in der Reilienfolge und in dem Tempo aufgezeichnet werden, wie sie im Stiick vorkommen sollen. Dort wird das Stiick selbst aufgezeichnet. Nicht jedes Einzelteil fiir sich. Einer Montage gelit immer einen Schnittbearbeitung voraus. Beginnend mit Kiirzungsschnitten, Korrekturen und schlie£end mit dem Feinschnitt. Nur fertig geschnittene Elemente sind fiir Mehrspurmontagen verwendbar. Einspurmontagen konnen auch nachtraglich ohne zusatzlichen Aufwand weiter gekiirzt und gesaubert werden. 15.1.4.1 Umfragen Bei der Umfrage als klassischer Einspurmontage achtet m a n bei der Zusammensetzung auf eine moglichst gro£e Abwechslung zwischen den einzelnen Akteuren. Man mischt Frauen und Manner, leise mit lauten Stimmen, alt und jung. Die Aussagen sollten einer Dramaturgic folgen, einen Ausgangspunkt haben und auf ein Ende zusteuern oder eben eine unvereinbare Meinungsvielfalt abbilden. Wie immer ist der Rhythmus beim Schnitt entscheidend fiir die Wirkung. Zwei gleichartige Meinungen lassen sich durch eine taktgemafie Montage zusatzlich vereinigen. Gegensatze kann m a n durch einen Schnitt gegen den Takt hervorheben. Pausen zwischen den einzelnen Aussagen sind eher ungewohnlich, die Passagen werden hart aneinandergeschnitten oder mit Hilfe einer Kreuzblende ineinandergeblendet, sofern m a n einen Atmo-Uberstand zur Verfiigung hat. Sofern es die Klangasthetik erlaubt, konnen auch diese beiden Techniken die Konkurrenz oder die Unterstiitzung unterstreichen. 15.1.4.2 Collagen Collagen sind ein typischer Vertreter fiir Mehrspurmontagen. Streng genommen ist jede Montage auch eine CoUage, hier aber soil an eine CoUage der Anspruch einer gewissen Gestaltungshohe gelten. Bei einer CoUage werden unterschiedliche P r o g r a m m a r t e n gemischt. Sowohl Sprache, als auch Musik und Gerausche haben ihren Platz. Der Abstraktionsgrad einer Collage ist frei wahlbar. Sie konnen sehr konkret ein T h e m a bearbeiten, sich aber auch beliebig weit davon entfernen. Noch wichtiger als bei einer Umfrage ist die Dramaturgic einer CoUage. Welche Aussage soU getroffen werden, soU das offenthch
300
15 Schnitt
oder verdeckt geschehen, welche Zielgruppe wird angesprochen... Gerade die letzte Frage ist wichtig, wenn es darum geht, die Inhalte zu verschliisseln. Der durchschnittliche Horer sollte iiber den Schliissel zur Decodierung verfiigen. Sind diese Fragen gelost - meist kommt der Kunde bereits mit einer halbwegs genauen Vorstellung - kann die Auswahl der Materialien erfolgen. Das angelieferte Material lasst sich meist noch optimieren. Hier kann der Mediengestalter eingreifen und seine eigenen Vorschlage machen. Der Kunde ist in der Regel dankbar dafiir. Nicht selten scheitert die optimale Umsetzung aber an den Terniinvorgaben. Wenn das gesamte Material verfiigbar ist, kann die Montage beginnen. Wieder durclilaufen die Einzelteile jedoch die Phasen Kiirzung, Korrektur und Kosmetik, bevor sie dem Arrangement liinzugefiigt werden. Bei Melirspurmontagen liaben naclitragliclie Schnitte in einzelnen Objekten immer einen Einfluss auf alle naclifolgenden Elemente. Deshalb sollte man die Einzelteile griindlicli vorbereiten. Bei der Montage hat man dieselben Optionen, Gegensatze und Zustimmung aneinanderzureihen. Es kommt jedoch noch eine weitere Dimension hinzu. Zeitgleich konnen mehrere Elemente erklingen. Unterstiitzen sich ihre Aussagen gegenseitig oder treten sie miteinander in Konkurrenz? Spater in der Mischung wird man diese Wirkung noch verstarken, wenn das eine Element das andere eher untermalt oder beide sich gleichberechtigt gegeniiber stehen. Elemente lassen sich durch kontinuierlich unterlegte Musik miteinander verbinden. Wechselt die Stimmung auf mehreren Spuren gleichzeitig, verstarkt das den Bruch. An die Montage der Elemente schliefit sich die Mischung an. In ihr werden einzelne Elemente mit Effekten versehen, die Lautstarken angeglichen und Blenden erstellt. Mehr zur Mischung steht im Kapitel 14.
15.2 Musikschnitt Der Sprachschnitt orientiert sich am Text. An den Satzen und Wortern. Die Syntax der Musik, also ihr formaler Aufbau, kennt diese Unterscheidungen ebenso. AUerdings gibt es auch gravierende Unterschiede, die die Frage aufwerfen, ob die fiir den Sprachschnitt geltenden Regeln auch auf den Musikschnitt anwendbar sind. Sprache folgt keinem festen Versmafi. Musik hingegen hat einen festen zeitlichen Ablauf, der sich am Metrum orientiert. Deshalb ist ein Feinschnitt wie beim Sprachschnitt nicht moglich. Man kann nicht einfach eine falsche Achtelnote herausschneiden, ohne das Taktmafi zu storen. Hingegen lassen sich Ungenauigkeiten im Timing unter Umstanden iiber den Schnitt korrigieren. Kiirzungsschnitte sind insofern uniiblich, da die Lange eines Musikstiicks vor der Produktion bereits fest steht. AUerdings werden Live-Aufnahmen eventuell fiir ein Album gekiirzt. Zudem werden von einzelnen Stiicken gerade in der U-Musik unterschiedhche Versionen erstellt. Das
15.2 Musikschnitt
301
ist in der Regel eine Aufgabe fiir den Schnitt. Die Moglichkeit bereits bei der Aufnahme Korrekturen in den zeitlichen Verlauf einzuarbeiten, wird hauptsachlich bei Mehrspuraufnahnien genutzt. Insofern ist die Art der Produktion wesentlich fiir die spatere Schnittbearbeitung. Der Musikschnitt kann entweder niit kurzen Schnitten an rhythmischen Grenzen, also vor den Schlagen erfolgen, oder iiber langere Kreuzblenden wahrend eher statische Bereiche. Der rhythniische Schnitt erfordert ein gutes rhythmisches Zusammenspiel der Akteure. Setzen nicht ahe gleichzeig ein, sind Tiniingprobleme vorprogranimiert. Das Gehor reagiert aber sehr robust auf angeschnittene Einschwingvorgange, so dass geringe bis mittlere Ungenauigkeiten iiber den Schnitt ausgeghchen werden konnen. Kleinere Besetzungen spielen meist mit einer groi^eren rhythmischen Genauigkeit als groi^e Orchester. Vor dem Schlag zu schneiden hat den Vorteil, dass der Schlag dahinter meist betont ist und so etwaige Briiche an der SchnittsteUe verdeckt werden. Allerdings muss man darauf achten, dass keine Instrumente iiber den Schnitt khngen, die am Schnittpunkt dann plotzhch abreii^en. Gerade auf Becken muss hier geachtet werden. Sie sind sehr laut und werden durch ihr extrem breite Frequenzspektrum kaum verdeckt. Grundsatzhch ist es empfehlenswert, die Uberblendung so kurz wie moghch zu machen. Je langer die Dauer der Blende, desto besser miissen die beiden Takes zueinander passen. 15.2.1 Versionsschnitte Um mehrere Versionen aus einem Stiick zu schneiden ist es giinstig, wenn das Ursprungsmaterial moghchst umfangreich ist. Nur so lasst sich eine ausreichende Varianz gewahrleisten. Hin und wieder kommen Kunden zu mir mit einem zweieinhalbminiitigen Musikstiick und mochten es auf sechs bis elf Minuten verlangert haben. Nun ist der Kunde Konig und Folter des K6nigs Privileg. Wenn man bedenkt, dass man pro Stiick nur einen Anfang und einen Schluss benotigt, bleiben vielleicht noch zwei Minuten, die dann auf fiinfeinhalb aufgeblasen werden miissen. Das ist auch fiir kreative Kopfe kaum erreichbar ohne Langeweile zu produzieren. Besser ist es, aus einem langen Original eine oder mehrere Kurzversionen schneiden zu konnen. Die Varianz ist das Eine. Man mochte so viel unterschiedliches Material wie moglich in der Kurzversion unterbringen. Ein Lied ansich hat aber bereits eine Struktur. Wenn man aus einem Limerick einen Vierzeiler macht, dann hat man unter Umstanden ein hiibsches Gedicht. Aber garantiert keinen Limerick mehr. Deshalb muss auch grobe Gliederungsebene beriicksichtigt werden. Mein personliches Streben ist immer, das Stiick moglichst abwechslungsreich zu gestalten. Manche Produzenten oder Musiker sind da aber anderer Ansicht und nehmen zugunsten der formalen Gliederung auch eine groi^ere Eintonigkeit in Kauf. Nicht nur in der Produktion treten Kiirzungen auf, auch in der Reproduktion. Formatierte Radiosender limitieren gerne die Lange einzelner Musikstiicke. Die Ergebnisse mogen zeithch befriedigend sein, das kiinstlerische Ergebnis
302
15 Schnitt
ist teilweise recht fragwiirdig. Das ist deshalb problematisch, well die Kontrolle des Ergebnisses nicht niehr der urspriinglichen kiinstlerischen Autoritat unterliegt. Der Mediengestalter muss selbst darauf achten, die Intention des Kiinstlers zu erhalten. Bei der Kiirzung soUten harmonische Zusammenhange gewahrt bleiben. Hatte der Komponist eine Riickung gewiinscht, er hatte sie in das Stiick hineinkomponiert. Schneidet man eine Modulation aus einer Musik, dann setzt man Akkorde direkt nebeneinander, die moglicherweise gar nicht passen, die aber auf jeden Fall nicht direkt hintereinander stehen soUten. Von sehr bekannten Stiicken hat der Horer oft eine sehr genaue Vorstellung von der Struktur in seinem Ohr. Weicht das Ergebnis wesentlich davon ab, dann reibt sich die Wahrnehmung in einer unangenehmen Art und Weise mit der Erinnerung. Deshalb ist es dort nicht ratsam, die Struktur des Stiickes zu verandern. In der Praxis werden haufig einzelne Phrasen entfernt. An dieser Stelle ware es giinstiger, eine ganze Strophe oder die Wiederholung eines Refrains zu streichen. 15.2.2 Korrekturen Die Art der Korrekturen ist abhangig von der Aufnahmetechnik. In Mehrspuraufnahmen konnen einzelne Instrumente korrigiert werden, bei Aufnahmen in das Zielformat steht nur die Summe zur Verfiigung. In der U-Musik ist es - zumindest ab einer bestimmten Preisklasse - iiblich, das Timing der Schlagzeugaufnahme durch den Schnitt zu verbessern. Das Schlagzeug eignet sich durch seine Impulshaftigkeit dafiir und wirkt au£erdem als rhythmischer Taktgeber auch auf das Timing aller anderen Instrumente. Die Voraussetzung fiir dieses Verfahren ist, dass im Overdub-Modus aufgenommen wird, also alle Instrumente nacheinander. Ansonsten wiirde das korrigierte Schlagzeuge durch den veranderten Zeitablauf nicht mehr zu den anderen Instrumenten passen. Ein weiterer Aspekt ist die akustische Trennung. Auch bei Mehrspuraufnahmen sind die einzelnen Instrumente nicht voUstandig separat aufgezeichnet. Sie sprechen auf andere Mikrofone iiber. Ist das der Fall, dann lasst sich die einzelne Spur im Zeitverlauf nicht mehr einzeln korrigieren, da sonst das Original von den anderen Spuren als Voroder Nachecho storend zu horen sein konnte. Je besser die akustische Trennung bei der Aufnahme ist, desto geringer ist das Ubersprechen und desto mehr Moglichkeiten der nachtraglichen Bearbeitung hat man. Korrekturschnitte sind mit der heutigen Technik auch Live moglich. Dabei spielt man die gemachte Aufnahme an, wechselt kurz vor dem Fehler in den Aufnahmemodus (Punch In) und geht nach der Korrektur wieder in den Wiedergabebetrieb (Punch Out). Auch dieses Verfahren wird in erster Linie auf einzelne Spuren bei ausreichender akustischer Trennung angewendet. Die zu korrigierenden Stellen sind meist kurz. Man spricht bei solchen kurzen Korrekturen innerhalb einer durchgehenden Aufnahme auch von Insertschnitten. Demgegeniiber steht der Assembleschnitt, bei dem durch den Schnitt dau-
15.2 Musikschnitt
303
erhaft in eine neue Version geschnitten wird. Auch das ist im Live-Betrieb moglich. Dabei entfallt lediglich das Punch Out. Auch der nachtraghche Schnitt lasst die Wahl, ob man einen Insert oder einen Assembleschnitt ausfiihren niochte. Das ist zuni einen abhangig von der Philosophic, die man verfolgt, zum anderen von dem Material, das man zur Verfiigung hat. Studioproduktionen werden meist Abschnittsweise eingespielt. Die Musiker spielen bis sic vom Dirigenten oder vom Tonmeister aufgrund eines Fehlers unterbrochen werden. Das wird besprochen, anschliefiend wird kurz vor dem Fehler neu angesetzt und bis zur nachsten Unterbrechung weitergespielt. Das fragmentierte Material, dass dabei herauskommt wird im Schnitt montiert. Anders sieht es aus, wenn ein Konzert mitgeschnitten wird. Hier mochte man so viel wie moglich aus dem Konzert iibernehmen. Damit iiberhaupt Material fiir Korrekturen zur Verfiigung steht, nimmt man auch wahrend der Proben auf und kann eventuell eine sogenannte Retake Session ansetzen, falls einzelne Stellen weder in der Probe, noch im Konzert befriedigend gespielt wurden. Diese Korrekturen werden dann als Inserts in das Konzertmaterial eingeschnitten. 15.2.3 EfFektschnitte Effektschnitte sind Schnittarbeiten, die zu einem Ergebnis fiihren, dass in Wirklichkeit nicht zu erreichen gewesen ware. So lassen sich Briiche durch harte Schnitte erzeugen, die dafiir sorgen, dass beispielsweise der HaU abrei£t oder die Klangfarbe der Aufnahme sich plotzhch andert. Das ist ein sehr radikaler Effekt, der deshalb auch vorwiegend in Bereichen vorkommt, die Aufmerksamkeit erregen woUen, zum Beispiel in der Werbung oder in der Jingleproduktion. In der U-Musik haufig zu finden sind kiinstliche Uberlappungen, vor allem im Gesang. Damit lasst sich dieselbe Wirkung erzielen, die schon beim montieren von Sprache genannt wurden. Man kann auf diese Weise Spriinge markieren, die sich auf die Zeit, oder auf das Thema beziehen.
16 Beschallung
Fiir viele Mediengestalter ist die Beschallung der Einstieg in die professionelle Tonteclinik nacli der Ausbildung. Haufig konimt man schon vor der Ausbildung mit Beschallung im No- und Low-Budget-Sektor in Beriihrung. Einige Beschallungsaufgaben eignen sich sehr gut fiir den Einstieg, well sie Fehler haufig verzeihen und das perfekte Ergebnis ohnehin nur ein fromnier Wunsch ist. Andere Beschallungen erfordern hingegen ein hohes Ma£ an Erfahrung und spezifischen Kenntnissen. Beschallung ist nicht gleich Beschallung. Sie unterscheiden sich zum einen in der Programmform. Sprachbeschallungen gibt es als Vortrags- oder Diskussionsveranstaltung oder als Konferenz. Musik wird in Konzerten und szenisch in Musicals gespielt. Hier unterscheidet man zusatzlich zwischen der FrontOf-House-Mischung und der Monitormischung, die im giinstigsten Fall von unterschiedlichen Personen erledigt wird.
16.1 Vorbereitungen Zu den Vorbereitungen einer Beschallung gehort zunachst die moglichst weitreichende Auseinandersetzung mit dem Programm. So kann man ein Beschallungskonzept erstellen, das den Einsatz der Technik optimiert. Der nachste Schritt ist die Auswahl des Materials. Wichtig hierfiir sind Kenntnisse der Raumverhaltnisse. AnschUefiend kann die Umsetzung der Mischung geplant werden, darunter die Spurbelegung, Automationsablaufe und der Effekteinsatz. 16.1.1 Das Programm In Vorgesprachen mit dem Auftraggeber miissen am Anfang moglichst viele Punkte geklart werden. Es liegt auf der Hand, dass ein Vortrag eine andere technische Ausstattung benotigt, als ein Rockkonzert. Aber auch naher
306
16 Beschallung
verwandte Genres konnen ganz unterschiedliche Anforderungen an die Beschallungsanlage stellen. Ein Rockkonzert soil besonders laut sein, dafiir wird ein gewisses Ma£ an Verzerrungen toleriert - der Mediengestalter toleriert es freilich niclit und soUte auf den Einsatz einer Anlage drangen, die ausreicliend dimensioniert ist. Oft wird er das aber aus Kostengriinden niclit durchsetzen konnen. Spielt eine Big Band, dann ist ebenfalls eine grofie Leistung notig, Verzerrungen sollen hier aber so weit wie moglich vermieden werden. Neben der Leistung ist auch die Anzahl der erforderlichen Kanale interessant. Fiinf Rockmusiker benotigen ini allgemeinen eine geringere Anzahl an Kanalen als eine zwanzigkopfige Big Band. Auch der Effekteinsatz variiert je nach Progranim und muss bei den Vorgesprachen abgefragt werden. Bei Veranstaltungen mit wechselnden Programmpunkten kann ein Mikrofon mehreren Akteuren zugeordnet werden, wenn diese nicht zusammen und nicht direkt nacheinander auftreten. Dabei muss man auch an ein eventuelles Finale denken. Dafiir reicht aber oft, dem Moderator ein zusatzliches Handmikrofon mitzugeben. Bei Sprachbeschallungen ist es wichtig, in Erfahrung zu bringen, wie mobil der Sprecher sein muss. Geniigt ein feststehendes Mikrofon am Rednerpult oder bewegt sich der Sprecher? Kann oder mochte er ein Mikrofon in der Hand halten, oder benotigt er seine Hande fiir etwas anderes? Dann kommen Ansteck- oder Headset-Mikrofone in Frage. Klanglich sind Headsets zu bevorzugen. Vor allem wenn es auf der Biihne ein Monitoring gibt, machen Ansteckmikrofone leichter Probleme. Der Tragekomfort spricht allerdings fiir die Lavaliermikrofone und gegen ein Headset. Ansteckmikrofone sind haufig auch dezenter. Generell sollten mobile Mikrofone - auch Handmikrofone iiber Funk arbeiten. Klang und Betriebssicherheit sind mit ihren kabelgebundenen Pendants vergleichbar. Wichtig ist hier auch, die Frage der Publikumsbeteiligung zu klaren. Fiir Diskussionsveranstaltungen miissen oft Saalmikrofone eingeplant werden, die entweder an festen Positionen im Saal stehen oder von Helfern mit der Angel zu den Rednern im Publikum getragen werden. Bei diesen Mikrofonen ist auf eine ausreichende Unempfindlichkeit gegen Riickkopplungen zu achten, gleichzeitig aber auch auf eine ausreichende Empfindlichkeit, da die Redner den Umgang mit einem Mikrofon in der Regel nicht gewohnt sind und bei feststehenden Mikrofonen die eingestellte Hohe auch nicht fiir alle gleichermai^en optimal ist. In den Pausen oder auch wahrend einer Veranstaltung wird oft zusatzliches Material eingespielt. Hier ist im Vorfeld zu klaren, welches Medium verwendet wird und wie die Einspielungen auszusehen haben. Es hilft nichts, einen CDSpieler bereitzuhalten, wenn das Material nachher auf MC angeliefert wird. Eine MC ist ohnehin qualitativ nicht ausreichend fiir eine Beschallung. Falls jemand von einer MC einspielen mochte, dann sollte man versuchen, darauf hinzuwirken, dass vom Originalmaterial eine CD angefertigt wird. Einzelne Titel lassen sich heute leicht iiber das Internet zu giinstigen Preisen kaufen. Die Investition ist ihr Geld wert.
16.1 Vorbereitungen
307
Haufig soil ein Titel niclit ganz gespielt werden, sondern beispielsweise nur der Refrain. Dafiir benotigt man ein Medium, das punktgenau eingestartet werden kann. Auch hier bietet sicli die CD an. Das funktioniert natiirlich nur, wenn auch die Zuspielmaschine in der Lage ist, Cuepunkte zu speichern und olme Verzogerung auf Knopfdruck abzuspielen. Gerade bei melireren Zuspielen ist es sinnvoU, wenn mehrere Cuepunkte gespeichert werden konnen. Ansonsten muss mit melireren Geraten gearbeitet werden, die im Wechsel benutzt werden. Dafiir muss die CD dann auch in mehreren Exemplaren vorliegen. Auf jeden Fall reicht es nicht, wenn eine CD mit dem gewiinschten Material vorliegt. Das Medium ist zu anfallig, als dass man ihm blindlinks vertrauen soUte. Mindestens zwei abgehorte Exemplare soUten zur Verfiigung stehen. Vor der Veranstaltung miissen die CDs noch mit dem tatsachlichen CD-Spieler getestet werden. Medien mit wahlfreiem Zugriff sind bandgestiitzten Formate aufgrund der fehlenden Umspulzeiten und -Gerausche vorzuziehen. Die Zuspieler soUten gut bedienbare Tasten haben, die grofi genug sind und einen deutlichen Druckpunkt verfiigen. Nach Moglichkeit soUten die Tasten nicht doppelt belegt sein (Abspielen/Pause), da man, gerade wenn der Druckpunkt nicht stark ausgepragt ist, sonst eventuell die Wiedergabe startet und sofort wieder anhalt. Am komfortabelsten sind Gerate, die iiber Reglerstart gesteuert werden konnen. Sie starten, wenn der Regler am Pult hochgezogen wird und halten nach dem Schhefien des Reglers auch wieder an. Das Pult muss diese Funktion aUerdings auch unterstiitzen, was auEerhalb des Rundfunks eher die Ausnahme ist. Vom Programm ist abhangig ob es ein Biihnenmonitoring gibt und wenn ja in welcher Form. Wird es nur fiir Einspielungen und die Publikumsbeteiligung verwendet oder auch fiir das Geschehen auf der Biihne, was bei vielen U-Musikrichtungen und bei elektronischer Musik der Fall ist? Das erfordert, dann mehrere Wege fiir die verschiedenen Musiker und eine gewisse Lautstarke. Die wiederum wirkt auf die Auswahl der Mikrofone zuriick, die auf der Biihne eingesetzt werden konnen und auf die Lautstarke, mit der das Publikum direkt vor der Biihne versorgt werden muss. 16.1.2 Die Halle Die Halle, in der die Auffiihrung stattfindet ist ein wichtiges Kriterium fiir die Dimensionierung der Anlage, aber auch fiir die Zusammenstellung der einzelnen Komponenten der Beschallungsanlage. Fines der wichtigsten Indizien fiir den Leistungsbedarf ist die Grofie des Raums. Die Anzahl der Zuschauer ist im Ubrigen relativ unerheblich. Denn eine Beschallung in einem Raum muss immer fiir den gesamten Raum ausgelegt sein. Denn nur, wenn die Beschallung den gesamten Raum ausfiillt, hat man es mit relativ konstanten Klangverhaltnissen im gesamten Raum zu tun. Unterschiedliche Frequenzen haben an den Wanden ein unterschiedliches Reflexionsverhalten und der unterschiedliche Energiegehalt sorgt fiir eine unterschiedlich starke Dampfung iiber den
308
16 Beschallung
Ausbreitungsweg. Das Ziel muss es sein, moglichst konstante Lautstarke- und Frequenzverteilungsverhaltnisse im gesamten Raum zu erreichen. Ich sage dazu gerne, dass der Raum mitschwingen muss. Das hort sich laut an, muss es aber nicht sein. Eine dezentrale Verteilung der Lautsprecher kann selbst ungiinstige Hallen bei geringen Lautstarken gleichma£ig beschallen. Dennoch hat jede Halle ihre Mindestlautstarke. Durch die Raumakustik entsteht aucli eine obere Lautstarkegrenze. Namlich dadurcli, dass die Reflexionen zu stark werden. Je leerer eine Halle ist, je reflexiver die Wande, je rechtwinkliger der Aufbau und je niedriger sie ist, desto problematischer ist das Reflexionsverhalten. Das ist natiirlicli eine starke Vereinfacliung der Tatsachen. Um das tatsachliclie Verhalten eines Raumes zu ermitteln, brauclit es aufwandige Messungen. Ein Mediengestalter, der eine Beschallung vorbereitet, muss aber oft genug anhand des Augenscheins auf moglicherweise auftretende Probleme schliefien konnen. Die Fahigkeit, sich den Klang einer Halle vorzustellen hat viel mit Erfahrung zu tun und selbst dann wird man oft genug vom Ergebnis iiberrascht. Meistens dann aber positiv. Und dieser Fall ist in der Praxis wenig problematisch. Gerade habe ich geschrieben, dass die Anzahl der Zuhorer unerheblich fiir die Dimensionierung der Anlage ist. AUerdings haben die Zuschauer einen Einfluss auf den Raumklang. Eine voile Halle ist leichter zu beschaUen, als eine leere. Sie klingen trockener, da die Reflexionen des Bodens wegfallen. Gleichzeitig steigt der Leistungsbedarf durch den erhohten Gerauschpegel und die SchaUabsorbtion durch das Publikum. Dass die Halle voll ist, darauf kann man sich nicht verlassen. Es ist die Aufgabe des Veranstalters, dafiir zu sorgen, dass die Grofie der HaUe an die Zahl der Zuschauer angepasst ist. Wie viele Menschen kommen lasst sich aber nicht endgiiltig sagen. Es gibt allerdings eine Obergrenze. Da aber sowieso die gesamte HaUe beschallt wird, ist ein voUes Haus kaum problematisch. Die Orientierung der Halle hat grofie Auswirkungen auf die Aufstellung und damit die Auswahl der Lautsprecher. Hallen im Querformat sind oft einfacher zu beschallen, als solche mit einer gro£en Tiefe. In tiefen Hallen verliert man von vorne nach hinten sehr viel Pegel, den man durch Delay-Lines wieder aufholen muss. Der Aufbau einer Delay Line ist im Abschnitt 16.1.5.3 beschrieben. Breitformatige Hallen konnen statt dessen durch Clusteranordnungen neben der Biihne angemessen akustisch ausgeleuchtet werden. Besonders leistungsfahige Anlagen braucht man fiir Open-Air-Veranstaltungen. Gleichzeitig muss vor allem in Wohngebieten grofier Wert auf eine scharfe Grenze zwischen beschalltem und unbeschalltem Bereich gelegt werden, so dass die Anwohner nicht durch die Veranstaltung gestort werden. Neben den akustischen Eigenschaften einer HaUe ist auch die sonstige Ausstattung interessant. Man soUte wissen, wie viel Strom zur Verfiigung steht. Man benotigt einen eigenen Drehstromanschluss mit mindestens 16 Ampere. Oftmals existieren grofiere Anschliisse, die aber sofort von den Beleuchtern annektiert werden. Deren Bedarf sollte im Vorfeld mit abgeklart werden.
16.1 Vorbereitungen
309
Fiir den NF-Bereich ist es wichtig zu wissen, ob Funkanlagen in der Nahe oder in der Halle selbst, zum Beispiel durch eine Parallelveranstaltung den Einsatz von Funkmikrofonen beeintraclitigen. Ist man darauf angewiesen, dann muss man Frequenzen linden, die storunanfallig sind. Veranstaltungshallen verfiigen oft iiber eine Biihnenmaschinerie, zum Beispiel liber Ziige, an denen Lautsprecher aufgehangt werden konnen. Sind solche Vorrichtungen vorhanden, und mochte man sie benutzen, dann ist die maximale Last zu erfragen, fiir die sie ausgelegt sind. Halten sie das Gewicht nicht, dann muss ein eigenes Tragersystem installiert werden, sofern das in der Halle moglich ist. Plant man eine dezentrale Beschallung, dann muss man klaren, ob es im Bereich des Zuschauerraums die Moglichkeit gibt, zusatzliche Lautsprecher aufzustellen. Bei variabler Bestuhlung lassen sich normalerweise Bereiche abtrennen. Bei fester Bestuhlung ist das meist schwieriger, da eine Mindestbreite von 1,20 Metern fiir Wege vorgeschrieben ist, auf denen sich das Publikum bewegt. Kann dieser Abstand nicht eingehalten werden muss der Weg ganz abgesperrt werden. Das ist aber nur moglich, wenn es sich nicht um einen Fluchtweg handelt. 16.1.3 Sonstiges Neben reinen Beschallungen kommt es haufig vor, dass ein Konzert oder eine Veranstaltung mitgeschnitten werden muss. Einfache Mitschnitte, als Belegexemplar fiir den Veranstalter oder den Redner beispielsweise lassen sich aus der Pultsumme generieren. Hoherwertige Stereo-Mischungen soUten iiber regelbare Ausgange erstellt werden, da das Effektsignal der Pultsumme normalerweise zu trocken fiir die Aufnahme ist, da die Beschallung Halleffekte nur zusatzlich zum Raumhall hinzumischt, wahrend fiir die Aufnahme der Raumhall weitgehend wegfallt. Aufwandigere Mitschnitte erfordern zusatzliche Technik und meist auch zusatzliches Personal. Nicht selten sind unterschiedliche Firmen mit der Beschallung und der Aufnahme betraut. Solche Mitschnitte erfordern die Verdopplung der Signale. Das muss so friih wie moglich in der Ubertragungskette geschehen. Vorzugsweise splittet man die Mikrofonsignale direkt auf der Biihne. So erhalt jeder Beteiligte das Ursprungssignal. Splitter miissen riickwirkungsfrei arbeiten. Das hei£t, dass ein Fehler des Einen, zum Beispiel des Beschallers, nicht zu einem Ausfall beim Anderen fiihren darf. Deshalb sind aktive Splitter vorzuziehen, die unter anderem iiber eine eigene Phantomspeisung verfiigen. Aufierdem sind die Ausgange voneinander unabhangig. Ebenfalls gesplittet werden die Signale, wenn sich ein zusatzlicher Tontechniker auf der Biihne um die Monitormischung kiimmert. Ist das nicht der Fall, dann spricht man vom Front-Of-House-Monitoring. Dafiir muss das Mischpult geniigend Pre-Fader-Aux-Wege zusatzhch zu den Effektwegen bereitsteUen. Die Riickwege werden iiber das Multicore zuriick zur Biihne gesendet, so dass auch hier auf ausreichend viele Wege geachtet werden muss.
310
16 Beschallung
Eine Besonderheit stellen Beschallungen dar, bei denen Film- oder Fernsehaufnahnien gemacht werden. Hier konnen nicht nur akustische Bediirfnisse fiir die Auswahl und die Aufstellung der Mikrofone herangezogen werden. Man muss auch beachten, dass die Mikrofone das Bild nicht zu sehr storen. Schon bei der Bestellung der Mikrofone kann man auf dezente Modelle ausweichen, was die Diskussionen mit der Bildtechnik reduzieren kann. Haufig kommen Fernsehteams, die in Form eines Kurzberichts iiber die Veranstaltung berichten. Hier wird oft eine Ausspielung gewiinscht, die der Tontechniker kurzfristig realisieren konnen soUte. Mitschnitte und die parallele Sendung mit oder ohne Bild liaben einen direkten Einfluss auf die Beschallung. Diese darf die Ubertragung oder den Mitschnitt nicht durch eine zu grofie Lautstarke und damit zu gro£es Ubersprechen auf die Mikrofone storen. Hier gilt es, spater eine Balance zu finden, die beiden Parteien zu einem zufriedenstellenden Ergebnis verhilft. 16.1.4 Materialauswahl Sind die Rahmenbedingungen klar, dann kann das Material zusammengestellt werden. Zubehormaterialien wie Kabel soUten in ausreichender Menge mitgenommen werden. Auch Mischpultkanale und Multicoreleitungen konnen ausfallen. Deshalb soUte auch hier im Zweifel die nachstgroEere Variante gewahlt werden. Die nachstehende Tabelle fiihrt die wichtigsten Positionen und ihre Entscheidungskriterien auf. Tabelle 16.1: Checkhste fiir die Materialbestellung. Was Drehstromauflosung Drehstromverlangerung SchukoVerlangerungen Mehrfachsteckdosen FOH Monitoring Kabel, Stative
Wie Stromversorgung 3 Phasen, einzeln abgesichert, Fl-Schutzschalter, passend zum existierenden Drehstromanschluss Lage des Anschlusses und Weg zur Biihne vorher klaren Auch eine Kabeltrommel fiir die Versorgung des Pultplatzes PA nach Bedarf nach Beschallungskonzept (FOH-Monitoring oder separat) nur Lautsprecher oder komplette Anlage Nach Bedarf + min. 10% Reserve
16.1 Vorbereitungen Tabelle 16.1: Checkliste fiir die Materialbestellung.
Was Multicore
Stagebox Pult
Grafischer Terzband-EQ Multieffekt Dynamics Zuspieler Mikrofone DI-Boxen Stative, Kabel, Klemnien Intercom Kopfhorer Analyzer / Rauschgenerator Referenz-CDs Kabelmatten Absperrband Klebeband Werkzeug
Wie Pultplatz und Anbindung Hinwege: Anzahl Eingangskanalziige am Pult Riickwege: Anzahl separater Lautsprecherwege inklusive Monitoring passend zum Multicore Eingange: Anzahl Quellen + 10% Reserve Pre Fader Aux Anzahl Monitorwege Post fader Aux Anzahl EflFektwege. Mono/Stereobeschickung beachten Gruppen- / Anzahl Lautsprecherwege Summenausgange Automation Nach Programmart Sonstiges Ausgange fiir Mitschnitte Outboard Equipment Fiir jeden Lautsprecherweg Nach Bedarf Nach Bedarf Nach Bedarf Quellen Kabelgebunden oder Kabellos Fiir alle Line-Signale auf der Biihne Nach Bedarf mit groi^ziigiger Reserve Sonstiges Nach Bedarf Zum Einmessen Zum ohrkontrollierten Entzerren Fiir alle Kabelwege im Zuschauerraum rot/weii^ und schwarz/gelb Gaffa und Lassoband Elektro, Mechanik
311
312
16 Besdiallung
16.1.5 Die Beschallungsanlage Die Beschallungsanlage setzt sicli aus verschiedenen funktionellen Lautsprechergruppen zusamnien. Eine Anordnung melirerer Lautspreclier erfiillt inimer eine akustische Aufgabe. Sie ist damit mehr als die Ansammlung verscliiedener Lautsprecher. Fiir die Planung gro£er Beschallungen gibt es Simulationsprogranime, mit denen die Beschallungsanlage konzipiert werden kann. Dazu gehoren zum Beispiel die Software EASE und Ulysses, die aber spezielle Kenntnisse erfordern und fiir kleine und mittlere Beschallungen iiberdimensioniert sind, allein schon, da zunachst der R a u m modelliert werden muss, in dem die Veranstaltung stattfindet. 16.1.5.1 Stacks & Cluster Stacking - zu deutsch stapeln - ist eine Technik, bei der Lautsprecher iibereinander angeordnet werden. Clustering hingegen beschreibt die Anordnung von Lautsprechern nebeneinander. Durch stacking und clustering entstehen die Lautsprechertiirme, die friiher bei Beschallungen hauptsachlich verwendet wurden. Heute werden zunehmend Line Arrays eingesetzt, iiber die im Abschnitt 16.1.5.4 gesprochen werden wird. Jedoch bieten Stacks fiir kleinere BeschaUungen ethche Vorteile. Sie werden auf dem Boden, beziehungsweise auf der Biihne aufgestellt und erfordern deshalb keine Vorrichtung zum Aufhangen der Lautsprecher. Dabei geht m a n so vor, dass die Basslautsprecher die Basis bilden. Die Basse werden vom Publikum am wenigsten absorbiert, weshalb es unkritisch ist, wenn sie auf der Hohe des Publikums stehen. Basslautsprecher erzeugen Frequenzen mit sehr grofien WeUenlangen. Die Abmessung eines einzelnen Basslautsprechers reicht fiir tiefe Frequenzen nicht aus, um Beugungseffekte zu verhindern. Der Schall kann sich kugelformig ausbreiten. Das ist unerwiinscht, well dadurch erstens Schall auf die Biihne dringt. Fremdgerausche auf der Biihne verschlechtern aber das Signal der Mikrofone und erhohen die Gefahr von Riickkopplungen. Zweitens sinkt die Leistung die nach vorne abgestrahlt wird. Ein Stack oder Cluster wirkt wie ein einzelner Lautsprecher, die Gesamtoberflache markiert die Grofie des Hindernisses, um dass sich der Schall beugen muss, dadurch wird mehr Energie nach vorne gerichtet. Dariiber angeordnet werden die Mittel- und Hochtoner fiir die biihnennahen Regionen. W a h r e n d der Abstand der einzelnen Lautsprecher bei den Bassen klein im Verhaltnis zur Wellenlange sind, addieren sich die Wellen gleichphasig und die Leistung steigt. Im Bereich der mittleren und hohen Frequenzen fiihrt die parallele Abstrahlung zu Uberlagerungen und damit zu Kammfiltereffekten. Um diese zu vermeiden, miissen die Bereiche, in denen sich die Schallwellen iiberlagern reduziert werden. Jeder Lautsprecher strahlt mit einer vom Hersteller angegebenen Breite ab. Nebeneinanderstehende Lautsprecher miissen dann um die Breite versetzt abstrahlen. Oft gibt
16.1 Vorbereitungen
313
A b b . 16.1. Abgeschragte Kanteii helfen bei der horizontalen Ausrichtung.
es optische oder bauliche Hilfsmittel, die die Ausrichtung zweier Boxen aneinander erleichtern. Die Reichweite eines Lautsprechers ist durch ihren OfFnungswinkel bestimmt. Eng strahlende Lautsprecher reichen weiter als breit strahlende, da erst in einem grofieren Abstand das beschallte Feld dieselbe Groi^e hat.
A b b . 16.2. Unterschiedliche horizontale horizontale Offnungswinkel sorgeii fiir eine unterschiedliche Reichweite der Box. Die Mittel- und Hochtoner fiir die entfernten Regionen stehen ganz oben. Damit sie ihre Energie nicht iiber das P u b h k u m hinweg an die Riickwand abstrahlen, miissen sie leicht nach unten geneigt werden. Auch hier gibt es Lautsprecher, bei denen das Chassis in der Box bereits geneigt ist.
314
16 Beschallung
Ein besonderer Anwendungsfall fiir ein Cluster ist das Center Cluster. Es komnit bei breiten Biihnen zum Einsatz. Die Aufstellung von Lautsprechern in der Mitte der Biihne ist natiirlich keine gute Idee. Ein Center Cluster muss deslialb iiber der Biihne aufgehangt - man sagt geflogen - werden. Dabei werden Lautsprecher nebeneinander entsprecliend ihres Offnungswinkels gedreht montiert und stalilen so von aus der Mitte nacli aufien. Als alleiniges System konnen so Interferenzen vermieden werden. Meist sind Center Cluster aber nur eine Erganzung zu den Stacks am Biilmenrand zur Versorgung der vorderen Zuschauerreilien bei breiten Biihnen. Fehlt die Moglichkeit, ein geflogenes Center Cluster einzusetzen, dann kann man sich mittels eines Center Fills behelfen. Von den Fills handelt der nachste Abschnitt. 16.1.5.2 Fills Ein Fill ist eine Lautsprecheranordnung, die dafiir zustandig ist, einen Bereich zu beschallen, der von der Hauptbeschallung nur unzureichend erreicht wird. Das ist vor allem der Bereich direkt vor der Biihne. Da die Stacks an der Biihnenseite aufgestellt werden und sie nicht beliebig breit abstrahlen, ergibt sich ein Schallschatten vor der Biihne. Dieser wird wie schon gesagt entweder mit einem Center Cluster oder mit einem Center Fill ausgeglichen. Fiir Sprach- und Musikveranstaltungen nutzt man in der Regel unterschiedliche Ansatze. In jedem Fall ist es aber ausreichend, lediglich die mittleren und hohen Frequenzen iiber ein Center Fill abzustrahlen. Bei einem Konzert wird das Center Fill normalerweise direkt neben die Haupt-Stacks gestellt und zur Biihnenmitte hin eingedreht. Dabei ist darauf zu achten, dass moglichst wenig Schall die Biihne erreicht. Abbildung 16.3 zeigt das Prinzip eines Center FiUs. Die Richtwirkung der Lautsprecher ist nicht perfekt. Deshalb wird man in der Praxis das Center Fill nie so weit nach innen drehen. So kame zu viel Schall auf die Biihne. Man dreht sie lediglich so weit nach innen, dass man vorne in der Mitte eine gute Hohenwiedergabe hat.
Abb. 16.3. Schallabstrahlung von Stack und Center Fill mit jeweils 60°
16.1 Vorbereitungen
315
Solche Center Fills liaben den Vorteil, dass dem Zuhorer eine stereofone Wiedergabe angeboten werden kann. Die Mittenortung ist jedocli schleclit, wenn man niclit in der Mitte stelit, da der Scliall stark seitlich einfallt. Fiir Sprachbescliallungen, bei denen die Ortung auf der Biihne gewiinsclit wird, konnen in einigem Abstand kleine Lautsprecher an der Biihnenkante aufgestellt werden. Diese bringen keine liolie Leistung, weshalb sie fiir Rockkonzerte elier ungeeignet sind. Fiir die Sprachwiedergabe ist da Verfaliren aber durchaus vorteilliaft. Weitere Fills werden fiir die Monitoranlage verwendet. Typisch sind Side Fills, die eine Art Hauptbescliallung der Biihne darstellen. Sie stehen liinter den Stacks der Saalbeschallung und sind schrag riickwarts auf die andere Biihnenseite ausgericlitet. Neben den Schlagzeugern stelit oft das sogenannte Drum Fill. Fills auf der Biihne sind generell nicht besonders gut fiir den Klang, aber bei den Musikern aufgrund der groi^en moglichen Biihnenlautstarke zum Teil sehr beliebt. Gliicklicherweise setzt sich das In Ear Monitoring immer niehr durch.
® ® ® ®
Stack Center Fiil Side Fiil Drum Fiii
Abb. 16.4. Stack, Center Fill, Side Fill und Drum Fill.
16.1.5.3 Delay Lines Bei kugelformiger Schallausbreitung nimmt der Schallleistungspegel bei jeder Verdopplung der Entfernung um 6dB ab. Gerade fiir weite Distanzen ergibt sich damit das Problem, dass trotz einer gro£en Lautstarke vor der Biihne die Leistung nicht ausreicht, um die hinteren Bereiche ausreichend laut zu beschaUen. Man benotigt zusatzliche Energie durch dezentrale Lautsprecher,
316
16 Beschallung
die in bestimmten Abstanden aufgestellt werden. Man spricht dabei von Delay Lines. Das Prinzip der Delay Line niacht sich den Haas-Effekt zunutze. Der besagt, dass man zwei identische Schallereignisse, die das Ohr im Abstand von zehn bis dreifiig Millisekunden erreichen, am Ursprung des ersten ortet, selbst wenn das zweite um 10 dB lauter ist. Man spricht auch vom Gesetz der ersten Wellenfront. Natiirlich mochte man die Ortung auf der Biihne haben. Der Schall soil nicht plotzlich von der Seite kommen, walirend man das Gescliehen auf der Biihne beobachtet. Also muss man bei der Einrichtung einer DelayLine zwei Kriterien beachten. Zum einen muss der Abstand von der Biihne klein genug sein, dass sich die gewiinschte Lautstarke durch eine Delay Line aufholen lasst, die nicht mehr als 10 dB lauter ist, als die Biihnenlautstarke am Ort des Horers. In der Praxis ist der realisierbare Abstand noch geringer. Zum anderen muss das Signal fiir die Delay-Line nicht nur um die Laufzeit des Schalls verzogert werden, sondern zusatzlich um den Betrag, der fiir den Haas-Effekt notwendig ist. Ein Rechenbeispiel: Die momentane Temperatur betragt 20° Celsius. Das ergibt eine Schallgeschwindigkeit von 343 m/s. Die erste Delay Line steht 15 m von der Biihne entfernt. Damit ergibt sich eine Verzogerung von 43,7 Millisekunden. 15TO • S = 43, 7ms 343m Der Aufschlag fiir den Haas-Effekt hegt zwischen 10 und 30 ms, was in der Summe eine Verzogerung von etwa 60 ms ergibt. Spezielle Delays fiir Delay Lines nehmen dem Techniker die Rechnerei und die Anpassung der Zeiten ab. Hier wird lediglich der Abstand der Boxen voneinander angegeben. Diese speziellen Delays sind auch aufgrund ihres Frequenzgangs fiir die Verzogerung ganzer Mischungen gut geeignet. 16.1.5.4 Line Arrays Fiir gro£e Beschallungen werden immer haufiger sogenannte Line Arrays eingesetzt. Line Arrays sind in der Kegel geflogene Systeme mit untereinander angeordneten Lautsprechern. Sie arbeiten nach dem Prinzip der Linienquelle, die eine Zylinderwelle erzeugt. Neben der besonderen Anordnung der Systeme untereinander miissen die einzelnen Lautsprecherboxen nach bestimmten Kriterien entworfen sein. Aber selbst das geniigt noch nicht. Auch die Konstruktion jedes einzelnen Lautsprechers erfordert bestimmte Ma£nahmen. Linienquelle und Zylinderwelle Normale Schallquellen sind theoretisch Punktschallquellen. Sie breiten sich von einem einzelnen Punkt aus kugelformig aus. Im Gegensatz dazu strahlt eine Linienquelle den Schall entlang einer Strecke ab - im theoretischen Modell entlang einer unendlich langen Geraden. Die Folge ist eine zweidimensionale
16.1 Vorbereitungen
317
Ausbreitung in Form eines Zylinders urn die Schallquelle herum. Ein Vorteil der zweidimensionalen Ausbreitung ist, dass der Pegel mit jeder Verdopplung der Entfernung von der Quelle nicht wie bei einem Punktstrahler um 6 dB abnimmt, sondern lediglich um 3 d B . So kann mit geringeren Leistungen dieselbe Lautstarke u n d / o d e r eine grofiere Reichweite erzielt werden. Dieser Effekt ist nicht nur den unterscliiedlichen geometrisclien Gegebenheiten des Scliallfelds gescliuldet, sondern aucli der Tatsaclie, dass m a n Ausloschungen durch Interferenzen zwischen den einzelnen Boxen verhindert. Chassis Walirend die Erzeugung einer koharenten Scliallwelle bei tiefen und mittleren Frequenzen aufgrund der langen Wellenlangen aucli mit konventionellen Chassis moglich ist, erfordert der Bau der Hochtoner einen sogenannten Waveguide, eine Vorrichtung, die die Schallwellen umlenkt, so dass sie unabhangig von ihrer Frequenz gleichphasig aus dem System austreten. Box Die Erzeugung koharenter Wellenfronten erfordert eine Kopplung der unterschiedlichen Chassis. Die korrekte Kopplung verlangt einen frequenzabhangigen Maximalabstand. Zusatzlich soil ein Line Array zu einem moglichst gro£en Teil aus strahlender Flache bestehen. Zumindest 80% werden angestrebt^. Da der Maximalabstand nicht nur in der Horizontalen sondern auch in der Vertikalen eingehalten werden muss, liegt eine achsensymmetrische Anordnung der Chassis im Querformat auf der Hand. Dabei liegen die Tieftoner am weitesten auseinander und damit ganz aufien, daneben die Mitteltoner und die Hochtoner senkrecht und direkt untereinander in der Mitte.
I u J„, ; ( o ) A b b . 16.5. Prinzipaufbau eines Line-Array-Lautsprechers.
Anordnung Die Lautsprecherboxen werden untereinander in einer Linie montiert. Damit sie als Linienschallquelle wirken, ist eine Mindestanzahl Elemente notwendig. Eine maximale Lange gibt es aber nicht. Sie wird bestimmt durch die geringste fiir die Anwendung ausreichende Menge. Die Anordnung kann gerade
1 vgl.[39]
318
16 Beschallung
untereinander erfolgen, oder aber gecurved, also in eineni Bogen. Dieser Bogen beschreibt nornialerweise keine Kreisbahn, sondern eine Spirale. Daniit die zusammenhangende Wellenfront nicht aufreifit ist auf der einen Seite der vertikale OfFnungswinkel begrenzt, auf der anderen Seite sorgt man fiir einen geringen vertikalen Offnungswinkel des einzelnen Elements, wodurch bei gecurvten Systemen die Verbindung der Wellenfront erhalten bleibt. Line Arrays liaben einen festen horizontalen Offnungswinkel, meist zwisclien 90 und 110°. Damit lassen sich normalformatige Hallen gut bescliallen. Reiclit die Breite nicht aus, dann darf nicht einfach ein zweites Line Array wie bei einem Cluster daneben gehangt werden. Die Kopplung der Lautsprecherchassis funktioniert nur in vertikaler Richtung. Deshalb gibt es Mindestabstande von einem Line Array zum nachsten. Breite Biihnen konnen mit einer kiirzeren Center Line ausgestattet werden, Breite Zuschauerraume werden eventuell durch weiter seitlich angebrachte zusatzliche Line Arrays erganzt. Nicht so optimal ist hingegen die Erganzung durch konventionelle Systeme, da sie den Hauptvorteil der Line Arrays - den besseren Klang durch reduzierte Interferenzen - teilweise wieder aufheben. Gerade im Bereich der vorderen Platze in der Mitte der Biihne kommt man oft um zusatzliche Lautsprecher nicht herum. Line Arrays werden von speziellen Simulationsprogrammen berechnet, die die Hohe, die Anzahl der Elemente und die Neigung berechnen.
Abb. 16.6. Line Array - gecurved.
16.1.5.5 Installationen Ausstellungen, Events und Multimedia-Installationen erfordern ein individuell angepasstes Konzept. Oft ist die Beschallung nicht das vordergriindige Element einer solchen Veranstaltung. Musik, Sprache und Gerausche werden meist von vorproduzierten Tontragern abgespielt. Man darf die Komplexitat
16.2 Technische Einrichtung
319
einer solchen Beschallung jedoch nicht unterschatzen. Die raumlichen Voraussetzungen sind akustisch oft ungiinstig. Eine leise bis unterschwellige Beschallung erfordert liochwertiges Material und einen wohliiberlegten Einsatz. An dieser Stelle zu sclireiben, dass das so oder so zu realisieren ist, wird den Anwendungen nicht gerecht. Der Mediengestalter kann hier kreativ werden und neue Wege gehen. Mut wird hier - vor allem wenn er von Erfahrung inspiriert ist - meist belohnt.
16.2 Technische Einrichtung Die technische Einrichtung beinhaltet den Auflsau der Anlage bis zur Inbetriebnahme. Neben der ordnungsgema£en Verkabelung miissen auch Bestimmungen zur Sicherung und Kennzeichnung der Gerate beachtet werden. 16.2.1 Technische Aspekte Die Technik muss aufgestellt und verkabelt werden. Die Verkabelung lasst sich in drei unterschiedliche Segmente unterteilen: Die Stromversorgung, die Nutzsignalverteilung von den Schallquellen zum Pult und zuriick zur Beschallungsanlage und die Leistungsverteilung, die die verstarkten Signale an die Lautsprecher ausgibt. In Betrieb genommen wird die Anlage erst, wenn zumindest die Strom und die Leistungsverkabelung vollstandig abgeschlossen sind. 16.2.1.1 Strom Bei der Planung wurde bereits angesprochen, dass die gesamte Tonanlage von einem eigenen Stromkreis betrieben werden muss. Das bedeutet, dass der gesamte Strom fiir die Anlage aus diesem Anschluss bezogen werden muss und dass aufierdem kein anderer Verbraucher an diesem Stromkreis hangen darf. Der Grund ist zum einen die Betriebssicherheit. Die Stromaufnahme einer Tonanlage ist konstant. Hangen keine anderen Verbraucher an dieser Leitung, dann ist zu erwarten, dass die Anlage durchlauft, wenn sie einmal erfolgreich hochgefahren werden konnte. Hangt aber noch die Kreissage der Schreinerei oder die Waschmaschine der Ausstattung an der gleichen Leitung, ist die Zuverlassigkeit nicht mehr gegeben. Der zweite Grund ist die Vermeidung von Brummschleifen. Brummschleifen - hier das sogenannte Netzbrummen entstehen, wenn unterschiedliche Bezugspotentiale iiber die Erde miteinander verbunden werden. Dann erscheint die Wechselstromfrequenz des Stromnetzes als horbares Signal in der Audioleitung. Dieses Netzbrummen ist iibrigens kein Sinuston, der iiber einen Notchfilter herausgefiltert werden konnte, sondern ein Signal mit zahlreichen Obertonen und damit einer hohen Bandbreite.
320
16 Beschallung
Fiir kleine und mittlere Beschallungen geniigt ein Drehstromanschluss niit 16 Ampere. Dieser wird iiber einen Drehstromverteiler auf drei Schutzkontaktsteckdosen umgesetzt. Diese soUten einzeln abgesichert sein und zwingend iiber einen Fl-Schutzschalter verfiigen. Wie die drei Phasen aufgeteilt werden ist abhangig davon, wie groi^ die PA ist. Oft ist eine giinstige Aufteilung, eine Phase fiir den Puftplatz, eine fiir die Backline, also die Technik auf der Biihne, inklusive der Monitoranlage und eine fiir die Beschallungsanlage zu verwenden. Drehstromanschliisse sind immer als CEE-Steckverbinder ausgefiihrt, die eine stabile Verbindung garantieren und zudem meist verriegelt werden. Die verbreiteten Schutzkontaktstecker bieten weder eine Verriegelung, nocli dieselbe Stabilitat. Deslialb gibt es auch CEE-Stecker fiir normale Netzverbindungen. Werden Schuko-Stecker verwendet, dann sollten die Stecker gegen verselientliclies Herausziehen gesicliert werden. Dasselbe gilt fiir Verlangerungen. Dieser Schutz, der auEerdeni die inneren Verbindungen vor zu starker Beanspruchung scliiitzt, liei£t Zugentlastung. Eine Zugentlastung stellt kurz vor der gewiinscliten Steckverbindung eine feste Verbindung des Kabels zum Gerat her, wo es eingesteckt werden soU. Stromkabel sollten nicht parallel zu Audiokabeln verlegt werden. In der Praxis mochte man aber iiblicherweise so wenig Kabelwege wie moglich haben. Deshalb fiihrt man Strom und Audio auch parallel von der Biihne zum Pultplatz. Bei intakten Audiokabeln treten dabei auch keine Probleme auf. 16.2.1.2 Pultplatz Der Pultplatz bildet eine technische ,Exklave'Als Insel im Zuschauerraum ist er zugleich die wichtigste Schaltstelle zwischen der Backhne und der PA. Ein Ausfall des Pultplatzes hat immer auch eine Unterbrechung der Veranstaltung, unter Umstanden verbunden mit zum Teil gesundheitsgefahrdenden Gerauschen. Deshalb muss auf die stabile Anbindung der groEte Wert gelegt werden. Audio- und Stromkabel miissen von der Biihne zum Pultplatz und zuriick gefiihrt werden. Die Kabelwege sind moglichst auf dem gesamten Weg durch Kabelmatten, und zumindest dort wo Fahrzeuge fahren durch stabilere Kabelkanale zu schiitzen. Das hat aufierdem den Vorteil, dass die Kabel in ihrer Nebenfunktion als Stolperfalle entscharft werden. Die Kabelverbindungen sind auf beiden Seiten, sowohl auf der Biihne, als auch am Pultplatz durch eine Zugentlastung zu schiitzen. Audioverbindungen werden normalerweise gesammelt iiber sogenannte Multicore-Kabel transportiert. Das sind dicke Kabel die viele einzelne Audioleitungen in ihrem Inneren enthalten. Auf der Biihne endet das Multicore an der sogenannten Stagebox, an die die Instrumente angeschlossen werden. Der Anschluss an das Pult erfolgt entweder iiber eine Auflosung auf einzelne XLR-Stecker - die sogenannte Peitsche - oder iiber Hartingstecker, das
16.2 Technische Einrichtung
321
sind stabile, verriegelbare Multipinstecker, die alle Aus- und Eingange des Multicores auf einmal mit den Pultein- und Ausgangen verbinden. Der Pultplatz ist auch der Ort, an dem das Outboard Equipment aufgestellt wird. Dazu gehoren Dynamikprozessoren fiir die Eingangskanale, Rauschgenerator, Analyzer und Grafisclie Equalizer fiir die Summenausgange, EfFektgerate und die Enipfanger der Funkmikrofonanlage. Die zugeliorigen Diversity-Antennen konnen ebenfalls an den Seiten des Pultplatzes aufgestellt werden. Auf die Verkabelung ini Einzelnen soil liier niclit eingegangen werden. Sie ist in eineni liolien Ma£e abliangig von den verwendeten Geraten. Generell gilt, dass nur symmetrische Kabel am Pultplatz verwendet werden soUten. Die meisten Gerate haben mittlerweile symmetrische Ein- und Ausgange. Die Inserts sind dagegen oft unsymmetrisch ausgefiilirt. Mit symmetrisclien Kabeln lassen sicli sowohl symmetrische als auch unsymmetrische Ein- und Ausgange miteinander verbinden. Hat man die Wahl zwischen einem unsymmetrischen und einem symmetrischen Anschluss, dann wahlt man auch bei kurzen Kabelwegen den symmetrischen. Fallt bei unsymmetrischen Kabeln eine Ader aus, dann ist der Stromkreis geoffnet und das Signal verloren. Bei symmetrischen Kabeln verliert man lediglich 6 dB Pegel, die im Pult wieder aufgeholt werden konnen. Diese Wahlmoglichkeit hat man in der Regel zwischen den unsymmetrischen Gruppen- und Summeninserts und den Ausgangen. Hinter dem Ausgang liegt der grafische Entzerrer. Hat dieser symmetrische Anschliisse, dann geht man aus dem symmetrischen Gruppenausgang in den Equalizer und von dort direkt auf das Multicore. Sind die Anschliisse dagegen unsymmetrisch, dann verwendet man die unsymmetrischen Inserts im Pult und schickt das am Ausgang symmetrierte entzerrte Signal durch das Multicore auf die Biihne. Das Prinzip der Verkabelung besteht immer aus den beiden Komponenten moghchst geringe Verluste und moglichst hohe AusfaUsicherheit. 16.2.1.3 Backline Mit dem Wort Backline bezeichnet man die gesamte Biihnentechnik, also die Instrumente, die Mikrofone und die Monitoranlage. Auch hier gilt es zunachst, die gesamte Biihne mit Strom zu versorgen. Man kann dazu einen Ring um die Biihne bilden, der in regelma£igen Abstanden Mehrfachsteckdosen bereitstellt, in die die Gerate eingesteckt werden konnen. Vor allem bei bewegten Biihnenbildern miissen die Geh- und Fahrwege allerdings frei bleiben. Auch bei Biihnenelementen, die in der Hohe verandert werden konnen, diirfen Kabel nicht in den Fugen zwischen zwei dieser Biihnenteile verlegt werden. Neben der ringformigen gibt es auch die sternformige Verkabelung. Welche Variante besser ist, hangt davon ab, wie die Biihnenaufbauten angeordnet sind. Die sternformige Verkabelung wird bei kleineren Veranstaltungen haufig verwendet, wenn von der einen zentralen Stagebox aus Kabel zu alien Instrumenten und Mikrofonen gefiihrt werden. GroEere Setups arbeiten mit
322
16 Beschallung
mehreren Stageboxen, die an verschiedenen stellen der Biihne postiert werden. An der (Haupt-)Stagebox wird das Signal bei Bedarf gesplittet. Die Audio-Verkabelung auf der Biihne erfolgt durchgehend niit symmetrischen Mikrofonkabeln. Hier sind unsymmetrische Signale nicht tolerierbar, da sie ja den weiten Weg bis zum Pultplatz vor sich haben und unsymmetrische Kabelwege nicht langer als drei Meter sein sollten. Die Mikrofone sind ohnehin symmetrisch ausgelegt, Kondensatormikrofone aUein schon wegen der Phantomspeisung. Demgegeniiber stehen unsymmetrische Ausgange elektronischer Musikinstrumente. Hier muss eine Symmetrierung des Signals erfolgen. Das geschieht mittels sogenannter DI-Boxen. Fiir den Einsatz auf der Biihne eignen sich passive DI-Boxen besonders. Kabel sollten immer so verlegt werden, dass niemand dariiber stolpern kann. Sie sollten nach Moglichkeit nicht dort liegen, wo sich die Akteure bewegen. Manchmal lasst sich das aber nicht vermeiden. Dort muss dann sichergestellt sein, dass das Kabel eben auf dem Boden aufliegt. Schleifen und Knoten sind zu entfernen. Um zu gewahrleisten, dass das Kabel auch bis zum Mikrofonstativ auf dem Boden bleibt, kann man das Kabel unten am Stativ befestigen oder unter einem Bein durchfiihren. Auf dem Weg nach oben gibt es regelrechte Wickelkiinstler, die das Kabel acht Mai um den Stander wickeln. Eine Umdrehung reicht allerdings normalerweise aus. Am Ausleger soUte eine Zugentlastung folgen und iiber eine weitere Wicklung wird das Kabel mit ausreichend Reserve zum Mikrofon gefiihrt. 16.2.1.4 PA Die PA bekommt ihre Signale vom Pultplatz iiber das Multicore. Danach geht es in die Endstufe beziehungsweise zum Controller, falls die Module getrennt sein sollten. Das verstarkte Signal lauft anschlie£end iiber die Leistungsverkabelung zu den Lautsprechern. Aktivlautsprecher haben eine eingebaute Endstufe und deshalb wird ein NF-Signal an sie angeschlossen. Aktivboxen kommen vor allem bei kleinen Gesangsanlagen und im Monitorbereich zum Einsatz. Die ControUer sind auf den jeweihgen Lautsprecher angepasst. Deshalb muss man darauf achten, die richtigen Controller zu verwenden. Die meisten Systeme erlauben eine Verkettung von zwei Lautsprechern an einer Endstufe. Eventuell muss die Impedanz dazu angepasst werden. In jedem Fall ist vor dem Anschluss zu priifen, ob die Impedanz ausreicht. Als Lautsprecheranschliisse haben sich zwei Steckverbindungen durchgesetzt. Lautsprecherkabel mit XLR-Verbindungen sind problematisch, da sie sich aufierlich nicht von NF-Kabeln unterscheiden. Intern sind sie allerdings unsymmetrisch aufgebaut. Ein NF-Kabel darf nicht fiir Lautsprechersignale verwendet werden, well die Adern fiir die hohe Leistung einen zu geringen Querschnitt aufweisen. Besser geeignet sind Speakon-Stecker, die spezieU als Lautsprecheranschliisse konzipiert sind. Bis zu zwei Audiokanale konnen iiber ein Kabel geleitet werden. Das ist fiir Systeme geeignet, die eine Bassbox und
16.2 Technische Einrichtung
323
eine Hoch-Mitteltoner-Box haben. Dann geht man zunachst zum Hoch- Mitteltoner und von dort zur Bassbox. Dabei handelt es sich um zwei voUig unabhangige Audiowege innerhalb eines Kabels, nicht um die oben beschriebene Verkettung zweier Lautsprecher. Diese ist, wenn Lautsprecher und Endstufe das zulassen, zusatzlich moglich. Bei der PA arbeitet man tendenziell mit kurzer Leistungsverkabelung. Das bedeutet, dass die Endstufen in der Nahe der Lautsprecher aufgestellt werden. Idealerweise hat aber der Mischer den Bhck auf die Statusleuchten des Verstarkers.
Do
Outboard Equipment L-
PA
Endstufe _L
Controller
-^DA
In O)
Pult •
Out
-
In
Monitor
Pult NF sym. Multicore 230V/16A Lautsprecher
Out
Abb. 16.7. Prinzipielle Verkabelung von Strom, NF und Lautsprechersignalen.
16.2.2 Sicherheitsaspekte Beschahungen sind eigenthch das Metier der Veranstaltungstechniker. Dennoch bilden sie einen nicht unwichtigen Teil des Repertoires eines Mediengestalters. Der muss sich deshalb auch mit den Sicherheitsvorschriften vertraut machen, die seine Arbeit als Beschaller betreffen. Sicherheitsauflagen haben den Sinn, die Akteure, vor ahem aber die Besucher einer Veranstaltung vor UnfaUen zu schiitzen. Nicht gesetzhch reglementiert, aber fiir den reibungslosen Ablauf einer Veranstaltung ebenso notwendig ist der Schutz der Tonanlage und des Tontechnikers selbst. Die Anschliisse an das Pult und an das Outboard Equipment sind ein sehr sensibler Bereich, der vor dem Zugriff durch die Zuschauer gesichert werden muss. Gerade bei unbestuhlten Konzerten soUte der gesamte Pultplatz mit einem grofiziigigen Sicherheitsabstand durch stabile Absperrungen abgetrennt werden. Ist mit einem grofien Alkoholkonsum unter den Zuschauern
324
16 Beschallung
zu rechnen, dann ist auch der Einsatz von Sicherheitspersonal sinnvoU. Die Anschlussfelder und auch die Bedienelemente werden auf die Art vor mechanischer Belastung geschiitzt, aber auch vor mutwihiger und fahrlassiger Manipulation. Auch der Mediengestalter hat in so einem Fall mehr Ruhe, sich um seine Arbeit zu kiimmern. Bei einer PA sind nicht unerhebliche Massen in Bewegung. Selbst schwere Lautsprecher miissen deshalb vor dem Verrutschen gesichert werden, insbesondere wenn sie iibereinandergestapelt werden. Viele Lautsprechersysteme haben bereits Vorrichtungen, mit denen die einzelnen Boxen untereinander verbunden werden konnen. Ansonsten lassen sie sich gut mit Spanngurten zusammenzurren. Geflogene Systeme miissen doppelt gesichert sein. Die eigenthche Aufhangung konnte versagen und damit das Material dann nicht ungebremst auf die Zuschauer stiirzt, sind Sicherungsseile, sogenannte Safeties vorgeschrieben. Das Safety muss sicherstellen, dass der gesicherte Gegenstand nicht wesentlich absacken kann. Bei der Befestigung muss man darauf achten, dass die Sicherung nicht am primaren System befestigt wird. Versagt dies, dann hatte das Safety natiirlich keinen Sinn. Bereiche, die vom Publikum frequentiert werden, miissen frei von Stolperfallen sein. Miissen Kabel an solchen Stellen verlegt werden, dann miissen sie durch geeignete Mittel, Kabelmatten oder Kabelkanale abgedeckt werden. Doch auch dann bleibt eine Unebenheit auf dem Boden zuriick, auf die man die Besucher aufmerksam machen muss. Bereiche mit erhohter (aber akzeptabler) Gefahrdung markiert man mit schwarz-gelb-gestreiftem Klebeband, dass an die Kanten des Hindernisses geklebt wird. Neben den Kabelwegen sind auch Lautsprecherstative durch ihre breiten Beine gefahrlich fiir Passanten. Bereiche, in denen die Gefahrdung zu gro£ wird werden mit Hilfe von rot-weii^-gestreiftem Band abgesperrt. Wege, die fiir den Publikumsverkehr freigegeben sind, miissen eine Mindestbreite von 1,20 Metern aufweisen, in groi^en Hallen sogar noch mehr. Bei Absperrungen ist zu iiberpriifen, ob die notwendige Breite noch gegeben ist. Andernfalls muss der Weg komplett gesperrt werden, sofern das moglich ist und es sich nicht um einen Fluchtweg handelt. Brandschutzbestimmungen sehen vor, dass die Biihne vom Zuschauerraum getrennt werden kann. In Theatern findet man zu diesem Zweck den sogenannten Eisernen Vorhang. Auf der Trennlinie diirfen keine festen Objekte aufgestellt werden. Kabel, die durchlaufen sind zulassig. Es kommt vor, dass die Feuerwehr bei der Besichtigung des Veranstaltungsorts die Funktion des Vorhangs priifen mochte. In diesem Fall sollten die Kabel aus dem Weg geraumt werden, bevor sie vom Eisernen Vorhang beschadigt werden.
16.3 Soundcheck
325
16.3 Soundcheck 1st die technische Einrichtung abgeschlossen, ist es Zeit fiir den Soundcheck. Beim Soundcheck geht es sowohl um die Funktionspriifung und Entzerrung der PA, als auch die grundlegende Klangeinstehung der Instrumente sowohl fiir die FOH-Mischung, als auch die Monitormischung. 16.3.1 Einmessen der PA Bevor man die akustischen Werte der Anlage verandert, muss zunachst jeder einzelne Lautsprecher in seiner Funktion iiberpriift werden. Funktionieren alle Lautsprecher, dann wird im nachsten Schritt iiberpriift, ob die verwendeten Pultausgange auch die richtigen Lautsprecher ansteuern. Dazu hort man sich jeden Weg einzeln an. Oft ist eine genaue Ortung, welcher Lautsprecher arbeitet, vom Pultplatz aus gar nicht moglich, so dass es hilfreich ist, einen Heifer zu haben, mit dem man iiber Intercom verbunden ist. Anschhei^end erkhngt das Gesamtsystem zum ersten Mai. Jetzt werden die Delay- und Dampfungseinstellungen der Delay-Lines iiberpriift, die vorher rechnerisch ermittelt wurden. Eventuell miissen sie auch aufgrund veranderter Temperatur angepasst werden, sofern es sich nicht um selbstkalibrierende Systeme handelt. Jetzt kann der Klang der Anlage entzerrt werden. Damit gleicht man die Nichtlinearitaten der Raumakustik und der Beschallungsanlage aus. Dazu gibt es zwei Verfahren mit spezifischen Vor- und Nachteilen. Ublich ist auch eine Kombination der beiden. Wichtig ist, dass sie in Konzertlautstarke erfolgen miissen. Die erste Methode ist ein eher messtechnischer Vorgang, bei dem eine Anordnung aus Rauschgenerator, Messmikrofon und Spektrum Analyzer zum Einsatz kommt. Das Rauschsignal wird einzeln auf die Lautsprecherwege der PA gegeben. Mit dem Messmikrofon misst man den Frequenzgang am Pultplatz, der mit dem Analyzer angezeigt wird und entzerrt mittels eines grafischen Terzband-Equalizers den Klang so, dass ein moglichst linearer Verlauf entsteht. Damit kann man eine groi^tmogliche Leistung der Anlage erreichen. Der Hub, der im Pult durch die Klangregelung erreichbar ist, ist ebenfalls maximal, da er in Neutralstellung beginnt. Der Nachteil ist, dass man auch tatsachlich an der Klangregelung mehr arbeiten muss, da man oft kein lineares Klangbild haben mochte. Bei Sprache noch eher als bei Musik. Jede Musikrichtung hat ihren eigenen Klang, jede Gruppe zusatzlich ihre eigene Variation. Die zweite Moglichkeit, die Raumakustik anzupassen ist also, eine ReferenzCD zu verwenden und nach Gehor zu entzerren. SinnvoU ist dabei eine CD, auf der ein ahnlicher Musikstil zu finden ist, eventuell sogar von der Band, die am Abend spielen soU. Gleichzeitig muss der Tontechniker aber die CD auch sehr gut kennen, um zu wissen, wie sich die Musik darauf anhoren muss. Aui^erdem muss der Klang der CD ausreichend ausdifferenziert und qualitativ hochwertig sein. Die Kombination der Anforderungen ist nur selten auf einer CD zu finden. Ich personlich bevorzuge den Weg, dass ich zunachst eine klanglich breite
326
16 Beschallung
Mischung verwende, dass ich den Klang iiber den gesamten Frequenzbereich beurteilen kann. Dafiir eignet sich klassische Musik in kleinen Besetzungen oft besonders gut. Danach werden iiber eine gut bekannte, stilistisch dem Programm angepasste CD bewusste Klangveranderungen vorgenommen und anschliei^end iiber Material der spielenden Band iiberpriift. Der Weg geht also auch liier aus von einer mogliclist linearen Klangeinstellung, die auch durcli die Rauscligenerator-Analyzer-Konibination ermittelt worden sein kann. Der Nachteil hier ist, dass man Verzerrungen auf liochster Ebene - in die Sumnie - einarbeitet. Damit arbeiten unter Unistanden niclit alle Lautsprecher in iliren optimalen Bereiclien. Die maximale Leistung ist dadurch etwas geringer. Vorteilhaft ist die Entlastung der Entzerrer in den Eingangskanalziigen. Hier muss nicht die generelle Klangfarbung eingestellt werden, sondern es geniigt eine Entzerrung mit anscliliefiender individueller Klangformung. Werden Line Arrays verwendet, wird schon bei der Simulation eine Entzerrung vorgegeben, die verhindern soil, dass sich der Klang iiber den Weg von vorne nacli hinten verandert. 16.3.2 Der Monitor Soundcheck Die Monitormischung wirkt direkt auf die FOH-Miscliung. Sie beeinflusst sowolil die Vorverstarkung, als auch die Entzerrung. Deshalb laufen die beiden Soundchecks parallel. Die Monitormischung kann sogar vorher angelegt werden. Zunachst muss auch hier gepriift werden, ob alle Monitorboxen funktionieren und ob die Monitorwege zu den richtigen Boxen laufen. Das gilt auch fiir eventuell verwendete Kopfhorer und In-Ear-Monitoring-Systeme. Ist das erledigt, dann kann der Monitormischer eine Vormischung nach den Wiinschen der Musiker anlegen, bevor diese spielen. Die Musiker fiihlen sich in der Regel wohler, wenn sie sofort zu Beginn etwas auf dem Ohr haben. Der Techniker sollte darauf achten, die Lautstarke der Kopfhorer zu iiberpriifen, bevor ein Musiker ihn aufsetzt. In-Ear-Systeme sind sehr gut fiir die Bewegungsfreiheit der Musiker. Jeder hat zu jedem Zeitpunkt an jedem Ort auf der Biihne seine personliche Mischung. Dariiberhinaus verbessert die geringe Biihnenlautstarke die Qualitat der Mikrofonsignale, da weniger Ubersprechen der Monitorboxen erfolgt. Wichtig ist aber, dass die Musiker damit nicht in ein steriles Zelt gesperrt werden. Um den Kontakt zur Aufienwelt und damit auch zum Publikum nicht zu verlieren, miissen Ambience-Mikrofone aufgestellt werden, die den Raumklang einfangen und als Beimischung in das Monitorsignal eingeschleift werden. Weitere externe Signale sind Effektsignale, die eventuell von der FOHMischung iibernommen werden konnen, der Monitormischer kann aber auch eigenes Outboard Equipment verwenden. Immer vom Pultplatz kommen Zuspiele, die zum Beispiel fiir Tanzvorfiihrungen auf die Monitoranlage gelegt werden miissen. Diese werden iibrigens nicht Pre-Fader auf die Monitorwege gegeben, sondern immer Post Fader ausgespielt. Der Unterschied zwischen
16.3 Soundcheck
327
Live Musikern und Tonkonserven liegt darin, dass die Musiker inimer gehort werden sollen, wenn sie spielen. Sie werden nie vom Mischer ausgeblendet. Deshalb sollen sie auch immer ilire vom Saalsound unabliangige Monitormischung lioren, wenn sie spielen. Tonkonserven, auch Playbacks, werden dagegen oft ausgeblendet. Gerade in kleinen Hallen wird der Monitorsound storend horbar, wenn die Musik im Saal ausgeblendet wird. Deshalb muss man sicherstellen, dass das Monitorsignal mit der Saalbeschallung reduziert wird. Auch Funkmikrofone, die zum Beispiel von Moderatoren verwendet werden soUten Post Fader beschickt werden. Hinter der Biihne finden oft Absprachen statt, die nicht iiber die Monitorboxen auf die Biihne iibertragen werden sollen. Bei Sangern, die Headsets nutzen und die sich zeitweise hinter der Biihne aufhalten ist es komplizierter. Auf der einen Seite mochte man den Musikern eine unabhangige Monitormischung anbieten, auf der anderen Seite wiirde man das Geschehen hinter der Biihne iiber den Monitor horen, wenn das Mikrofon Pre Fader auf die Biihne iibertragen wiirde. Hier hilft entweder die bereits genannte Snapshot-Automation, die die Kanale in Szenen mutet, in denen sie nicht benotigt werden, oder man muss den Monitorweg manuell schlie£en. Bevor der erste Musiker auf die Biihne gerufen wird, erfolgt ein Linecheck. Beim Linecheck wird gepriift, ob die angeschlossenen Mikrofone funktionieren. Fiir den Musiker bedeutet es unnotige Wartezeit, wenn erst wenn er auf der Biihne ist ein defektes Kabel ausgetauscht werden muss. Bei der Monitormischung kommt es in erster Linie darauf an, den Musikern gerecht zu werden. Und das ist oft nicht einfach. Grofie Probleme entstehen haufig, wenn zwei Musiker sich einen Lautsprecher teilen miissen, was auf kleinen Biihnen manchmal sinnvoU ware. Aber jeder Musiker hat eine bestimmte Klangvorstellung und - was viel gravierender ist - das Gefiihl anders nicht musizieren zu konnen. Insofern hat der Monitormischer einen ganz entscheidenden Einfluss auf das Gelingen des Konzerts. Nur wenn er es schafft, auf der Biihne fiir eine gute Stimmung zu sorgen, wird sich die Veranstaltung spater auch gut anhoren - nicht nur fiir die Musiker. 16.3.3 Der FOH Soundcheck Auch der Soundcheck fiir die Saalbeschallung beginnt mit einem Linecheck. Danach werden die Musiker nacheinander auf die Biihne geholt um ihr Instrument anzuspielen. Ublicherweise beginnt man mit dem Schlagzeug und arbeitet sich dann durch die Rhythmusgruppe und die Melodieinstrumente zu den Stimmen. Anschlie£end spielt die gesamte Gruppe zusammen, damit man priifen kann, wie die Einzelsignale in der Mischung zusammenpassen. Einmal eingestellte Kanale bleiben die ganze Zeit geoffnet. Auch spater miissen sie zusammen gut klingen. Beim Soundcheck muss innerhalb moglichst kurzer Zeit eine grofie Zahl an Kanalen eingestellt werden. Deshalb sollten eventuelle Patcharbeiten bereits vorher gemacht werden. Sind externe Dynamikprozessoren im Insert eingeschleift, dann muss man darauf achten, dass sie auf Bypass gestellt sind
328
16 Beschallung
und die Aufholverstarker in neutraler Position stehen. Dann kann die Vorverstarkung eingestellt werden, anschliei^end Noise Gates und Kompressoren und danach die Klangregelung. Dabei soUte die spatere Dampfung der Hohen durch das Publikum miteinbezogen werden. Oft schicken die Musiker beim Soundcheck einen Testhorer in den Saal, der den Klang beurteilen soil. Dieser bericlitet dann richtigerweise iiber zu starke Hohen. Lassen Sie sicli nicht auf Diskussionen ein. Merken Sie sicli die Einstellung, reduzieren Sie die Hohen und stellen Sie sie wieder richtig ein, sobald der Soundcheck fiir diesen Kanal beendet ist. Im Gegensatz zu Studioaufnahmen vermeidet man bei Beschallungen extreme Stereobreiten. Es gibt keinen Sinn, das Schlagzeug iiber die gesamte Breite zu verteilen. Seitlich stehende Zuhorer horen die einzelnen Trommeln des Schlagzeugs mit stark unterschiedlichen Lautstarken und aus der teilweise volhg falschen Richtung. Auch die in der Mitte stehenden Besucher haben einen anderen visuellen als akustischen Eindruck. Namlich optisch eine raumlich begrenztes Schlagzeug und dazu eine drei£ig Meter breite Phantomschallquelle. Es empfiehlt sich, die sichtbaren Akteure so im Stereobild zu verteilen, dass sich ein zum Biihnenbild schliissiges Klangbild ergibt, die Klangbalance aber immernoch iiber die gesamte Breite des Zuschauerraums zufriedenstellend ist. Bei FOH-Monitoring werden die Monitorwege Pre Fader abgegrifFen. Vorteilhaft ist es, wenn der AbgriflF dabei hinter der Klangregelung sitzt. So bekommen auch die Musiker eine entzerrte Monitormischung. Die Post-FaderAuxwege fiir die Effektbeschickung liegen sowieso hinter der Klangregelung. Zum Schluss erfolgt das ,Einpfeifen' der Anlage. Wahrend fiir die Entzerrung der PA synthetische Klange ausreichend waren, muss hier mit den tatsachhchen Schallquellen gearbeitet werden. Deshalb kann es erst erfolgen, wenn die Mikrofone auf der Biihne aufgestellt und gepriift sind. Um das tatsachhche Risiko von Riickkopplungen zu ermitteln ist es sinnvoU, es erst nach dem Soundcheck durchzufiihren, wenn die Vorverstarkung der Mikrofone eingestellt ist. Haufig wird das System aber auch schon vor dem Soundcheck eingepfiffen, mit dem Argument, dass auf diese Art Riickkopplungen wahrend des Soundchecks vermieden werden. Das ist zwar richtig, aber ohne die korrekte Vorverstarkung der Mikrofone kann man nicht beurteilen, ob die auftretenden Riickkopplungen im fertigen Setup auch auftreten werden oder was noch gravierender ist, ob die spater tatsachlich kritischen Frequenzen auch wirklich beim Test zum Vorschein kommen. Um die Anlage zum koppeln zu bringen werden die Mikrofonkanale weit aufgezogen. Stehen alle Regler auf Anschlag, ohne dass es koppelt, dann sind keine weiteren Mai^nahmen notwendig. Dann wird es auch wahrend der Veranstaltung keine Riickkopplungen geben. Denn durch das Publikum sinkt die Gefahr von Riickkopplungen betrachtlich. Die Monitorwege sind allerdings anhaltend gefahrdet. Um Riickkopplungen zu eliminieren kann man entweder die entsprechenden Frequenzen mit dem grafischen Equalizer reduzieren, oder man vertraut seine Summe einem Gerat an, das versucht, Riickkopplungen automatisch aufzuspiiren und durch variable
16.3 Soundcheck
329
Filter zu eliniinieren. Dadurch gibt man aber einen Teil der KontroUe iiber die Signale ab. Ich personlich benutze solche Gerate nicht, die Mehrzahl der KoUegen in nieineni Umfeld verzichten jedoch nur ungern darauf. Am Schluss muss die Automation eingerichtet werden. Systeme, die es erlauben, die Automation auf einem Datentrager zu speichern, ersparen viel Zeit fiir die Programmierung, auf jeden Fall sollte man aber die einzelnen Snapshots iiberpriifen. Ansonsten muss man Szene fiir Szene die Mutes programmieren. Ein Snapshot enthalt aUe Mutes, die im Pult gedriickt sind. Nicht verwendete Ein- und Ausgange soUten zumindest bei analogen Pulten moglichst gemutet sein. Sie in die Snapshot-Automation zu integrieren ware jedoch der falsche Ansatz. Zu oft kommt es vor, dass kurzfristig eine einzelne Quelle dazu kommt oder eine zusatzliche Ausspielung, zum Beispiel fiir ein Fernsehteam erstellt werden muss. In diesem Fall miisste jeder Snapshot verandert werden. Statt dessen werden nur die verwendeten Kanale fiir die Snapshots gemutet. Anschlie£end erstellt man eine Mute-Gruppe mit den nicht verwendeten Einund Ausgangen und aktiviert diese von Hand. Alternativ kann man auch die nicht verwendeten Kanale manuell muten. 16.3.4 Larmschutz Die bei Rockkonzerten iibhchen Lautstarken steUen eine gro£e Belastung fiir das Gehor des Pubhkums dar. Neben der normalen Beschallungslautstarke konnen durch Storgerausche hohe Signalspitzen auftreten, die zusatzlich problematisch sind. Um das Publikum vor den Gesundheitsgefahren zu schiitzen, ist die Schallmenge, der das Publikum wahrend einer Veranstaltung ausgesetzt sein darf begrenzt. Der Veranstalter ist nicht verpflichtet Lautstarkemessungen durchzufiihren. Klagt jedoch ein Besucher einer Veranstaltung wegen eines erlittenen Gehorschadens, dann muss der Veranstalter nachweisen konnen, dass die zulassigen Grenzwerte nicht iiberschritten wurden. Verantworthch fiir den Schutz des Pubhkums ist die DIN 15905 Teil 5. Fiir die Mitarbeiter gilt die Ldrm- und Vibrations-Arbeitsschutzverordnung und fiir die Anwohner die TA Ldrm. 16.3.4.1 TA Larm Die TA Larm regelt, wie stark die Larmbelastung in unterschiedlichen Nutzungsgebieten sein darf. Dabei wird ein A-bewerteter Dauerschalldruckpegel angegeben. Die Werte sind nach Tageszeit gestaffelt. Kurzzeitige Gerauschspitzen diirfen tagsiiber maximal 30 dB, nachts 20 dB oberhalb der Grenze liegen. Gemessen wird dort, wo am ehesten mit einer Uberschreitung des Grenzwerts zu rechnen ist. Tabelle 16.2 zeigt die Werte an.
330
16 Beschallung Tabelle 16.2. Immisionsrichtwerte gemafi TA Larm. Nutzungsart Industriegebiet Gewerbegebiet Mischgebiet allgemeine Wohngebiete reine Wohngebiete Kurgebiete
6:00 - 22:00 70 dB(A) 65 dB(A) 60 dB(A) 55 dB(A) 50 dB(A) 45 dB(A)
22:00 - 6:00 70 dB(A) 50 dB(A) 45 dB(A) 40 dB(A) 35 dB(A) 35 dB(A)
16.3.4.2 Larm- und Vibrations-Arbeitsschutzverordnung Zum Schutz der Beschaftigten vor Larmbedingten Gesundheitsschaden hat der Gesetzgeber 2007 eine Arbeitsschutzverordnung erlassen, die Grenzwerte definiert, oberhalb derer ein Beschaftigter - auch ein Mediengestalter einen Gehorschutz tragen muss. Die Durchschnittspegel beziehen sich dabei auf einen achtstiindigen Arbeitstag. Die Verordnung definiert kennzeichnungspflichtige Larmbereiche ab einem Tages-Larmexpositionspegel von 85dB(A) oder bei Pegelspitzen iiber 137 dB. Der Tages-Larmexpositionspegel ist der iiber die Zeit gemittelte Larmexpositionspegel bezogen auf eine Achstundenschicht. Er umfasst aUe am Arbeitsplatz auftretenden SchaUereignisse.^ Bereits an Arbeitsplatzen mit einer mittleren taghchen Belastung von 80dB(A) oder einem Spitzenpegel von mindestens 135 dB miissen die dort beschaftigten einen Gehorschutz tragen, der geeignet ist, den personhchen Tages-Larmexpositionspegel unter 85dB(A) mit weniger als 137 dB Spitzenpegel zu reduzieren. Diese Auflage gilt auch fiir einen Mediengestalter, auch fiir den, der die Beschallung durchfiihrt, aber natiirlich auch alle anderen, die in dem Larmbereich zu tun haben: Sicherheitspersonal, Bedienungen, etc. Es ist sicher nicht iiblich, mit Gehorschutz zu mischen. Man sollte sich aber bewusst sein, dass das Gehor ein recht empfindhches Organ ist und Gehorschaden nicht reversibel sind. Die Verordnung dient dem Schutz der Gesundheit, und was das Ohr des Mediengestalters angeht auch dem Erhalt der Arbeitsfahigkeit. Es gibt sogenannte Otoplastiken, Mafigeschneiderte Ohrschiitze, die den Pegel linear um einen festen Wert absenken. So kann auch mit Gehorschutz eine klanghche Beurteilung stattfinden. Es ist recht schwierig, bei einer Konzertbeschallung zu ermitteln, wie hoch der Bezugsschallpegel auf acht Stunden hochgerechnet tatsachhch ist. Als Orientierung dient Tabelle 16.3. Sie zeigt aquivalente Schallpegel und ihre Einwirkungszeiten, die einer achtstiindige Exposition von 85dB(A) entsprechen.
[41]
16.4 Die Veranstaltung
331
Tabelle 16.3. Schalldruckpegel und Wirkzeiten entsprechend einer achtstiindigen Larmexposition von 85 dB(A). Schalldruckpegel 88 dB (A) 91 dB(A) 94 dB(A) 97 dB(A) 100 dB(A) 105 dB(A)
Wirkzeit 4 Stunden 2 Stunden 1 Stunde 30 Minuten 15 Minuten 4,8 Minuten
16.3.4.3 DIN 15905 Teil 5 Larmbelastung zu norniieren ist ein schwieriges Unterfangen. Das Enipfinden der Lautstarke ist in hohem Ma£e subjektiv. Es kommt darauf an, ob das angebotene Progranim einer Beschallung als Musik oder als Krach enipfunden wird. Dennoch gibt es eine physiologische Grenze, ab der bleibende Gehorschaden erwartet werden miissen. Diese Grenze soil mit der DIN 15905 Teil 5 definiert werden. Die derzeit giiltige Fassung hat allerdings nocli konzeptionelle Scliwachen, weshalb sie iiberarbeitet wird. Neben der Definition von Grenzwerten besclireibt die Norm aucli ein Verfaliren, mit dem wahrend einer Veranstaltung die Einhaltung der Grenzwerte iiberwaclit und bei einer drohenden Ubersclireitung reagiert werden kann.
16.4 Die Veranstaltung Ist die Veranstaltung gut geplant und ist der Soundcheck wie beschrieben durchgefiihrt worden, dann steht einer geordneten Abwicklung nichts melir im Wege. Am meisten Arbeit hat man in der Regel am Anfang, weil hier die klanglichen Korrekturen vorgenommen werden, die durch das Publikum notwendig geworden sind. Nach den ersten Minuten konzentriert sich aber die Arbeit auf die vom Genre der Veranstaltung abhangenden Schwerpunkte. 16.4.1 Prazision Szenische AufRihrungen, alien voran Theaterstiicke sind von einem Regisseur inszeniert und sollten bei jeder Auffiihrung moglichst identisch ablaufen. Grofiere Hauser haben deshalb meist automatisierte Pulte, die mehr als nur den Mutestatus speichern. Vom Mediengestalter erwartet wird hier keine eigene kreative Entfaltung, sondern eine moglichst originalgetreue Umsetzung der vom Regisseur vorgegebenen Eckdaten. Insofern haben Eingriffe in das automatisierte Geschehen weniger einen kreativen als einen korrektiven Charakter. Auch bei moderierten Veranstaltungen hat die Prazision einen hohen Stellenwert. Hier hat man es mit haufig wechselnden Akteuren auf der Biihne zu
332
16 Beschallung
t u n . Sobald ein Akteur die Biihne betritt, miissen die entsprechenden Kanale geofFnet und gleich nach dem Abgang wieder geschlossen werden. 16.4.2 Balance Bei vielen Veranstaltungen wird ein konstantes Klangbild verlangt. Hier steht dann die Lautstarkebalance im Vordergrund. Musik, die klanglich durch die Beschallung nur verstarkt, aber nicht verfremdet werden soil, dazu geliort die klassische Musik sowie Jazz mit akustischen Instrunienten soil iiber die Zeit einen konstanten Klang haben. Die unterscliiedlichen Arrangements konnen aber Anpassungen in der Lautstarkebalance erfordern. Mikrofone von Akteuren, die zwar momentan nicht sprechen, sich aber weiterhin auf der Biihne aufhalten, werden allenfalls reduziert aber nie ganz geschlossen. Eine Reduktion ist sinnvoU, falls die Menge der offenen Wege dazu fiihrt, dass die Beschallung zu raumlich klingt oder zu viele Nebengerausche verstarkt werden. Damit hat m a n haufig bei Podiumsdiskussionen oder Pressekonferenzen zu kampfen. Die Unbeschaftigten sprechen in der Zeit gerne mit ihren Sitznachbarn oder gie£en sich einen Kaffee ein. Beides soil nicht iiber die Beschallung verstarkt werden. 16.4.3 Klanggestaltung In weiten Teilen der U-Musik erhalt jedes einzelne Lied einen eigenen Klangcharakter, was zum Teil durch den Einsatz von VerfremdungsefFekten erreicht wird. Um diesen Klangcharakter auch im Konzert zu erhalten, muss der Mediengestalter die Effekte wahrend der Veranstaltung an das P r o g r a m m anpassen. Dazu sind Kenntnisse iiber das P r o g r a m m und den gewiinschten Klangcharakter notwendig. Deshalb haben viele Gruppen ihren eigenen Mischer, der sich mit dem P r o g r a m m auskennt. Zumeist kleinere Veranstaltungen werden dagegen von einem einzelnen Tontechniker betreut, der in der Klanggestaltung viele Freiheiten hat. Natiirlich sollte er mit der oder den Gruppen vorher den klanglichen Rahmen abstecken, innerhalb dessen er sich bewegen kann. Danach aber sind kreative Ideen gefragt, um aus der dargebotenen Musik auch technisch das Beste zu machen. Weniger ist dabei allerdings wie so oft mehr.
Literaturverzeichnis
1. Cornelius Bradter (2000) Bandgestiitzte Digitale Audioaufzeichnung. http://www-tfh-berlin.de/cbradter/DAT/Material/^^ CBradter_Band.pdf 2. Michael Dickreiter (1997) Handbuch der Tonstudioteclinik. 6. verbesserte Auflage. K. G. Saur Verlag KG Miinclien 3. John Emmett (1995) Engineering Guidelines - The EBU/AES Digital Audio Interface. http://www.ebu.ch/CMSimages/en/tec_AES-EBU_eg_tcm611890.pdf 4. Georg Eska (1997) Schall & Klang - Wie und was wir horen. Birkhauser Basel, Boston, Berlin 5. Hartmut Forster (1999) Apt-xlOO™ Coding-System. www.aptx.de/download/aptx.pdf 6. A. Gernemann (1999) Akustische Merkmale von Sprachlauten (Eigenschaften & "physical modeling") http://www.uni-koeln.de/phil-fak/muwi/ag/aph2.html 7. O. Gieschen, A. Grothlow (1993) Mikrofonie oder welches Mikrofon wie und wofiir. 2. Auflage. MusikHouse, Miinchen 8. Thomas Gorne (2006) Tontechnik. Fachbuchverlag Leipzig im Carl Hanser Verlag Miinchen, Wien 9. Anselm Goertz (o. J.) Theoretische Grundlagen und die praktische Anwendung von Line-Arrays in der Beschallungstechnik und ihre Beriicksichtigung in Simulationsprogrammen. Audio & Acoustics Consulting Aachen. http://www.anselmgoertz.de/Pagel0383/^^ Anselm_Goertz_dt/Veroffentlichungen_dt/Cavis2002-Goertz.PDF 10. A. Grothloh (1993) MIDI - Musical Instruments Digital Interface. 3. Auflage. MusicHouse, Miinchen 11. Roman Haefeli (2003) RAUMSIMULATION DURCH FALTUNG. romanhaefeli.net/Diplomarbeit_SAE_2003.pdf 12. Urtext von Julius Hey neu bearb. und erg. von Fritz Reusch (2004) Die Kunst des Sprechens - Der kleine Hey. 51. Aufl. Schott Mainz, London, Madrid, New York, Paris, Prag, Tokio 13. Volker Holtmeyer (o.J.) Line-Arrays The Hype Goes On. http://www.ifbcon.de/publication/documents/^^ d_PLS-2006_VH_Line-Arrays%20-%20The%20Hype%20Goes%20On.pdf
334
Literaturverzeichnis
14. Jiirg Jecklin (2003) PAPER SURROUND SOUND, Aufnahmetechnik OSIS 321. Script Universitat fiir Musik, Wieii, Institut fiir Komposition und Elektroakustik 15. jglatt (o.J.) MIDI Time Code, http://www.borg.com/~jglatt/tech/mtc.htm 16. Boris Kellenbenz (2006) Digital Radio Mondiale (DRM) auf Lang- und Mittelwelle: technische Eigenschaften und ihre Konsequenzen fiir Programmkonzepte. 17. H.W. Lang (1997) Huffman-Code. http://www.inf.fh-flensburg.de/lang/algorithmen/code/huffman/huffman.htm 18. Dietmar Lochmannn (2004) Vom Wesen der Information - eine allgemeinverstandliche Betrachtung iiber Informationen in der Gesellschaft, in der Natur und in der Informationstheorie. Books on Demand. 19. Bert Marx (2003) Der online MIDI Guide, http://www.midiguide.de 20. Jiirgen Meyer (1999) Akustik und musikalische Auffiihrungspraxis - Leitfaden fiir Akustiker, Tonmeister, Musiker, Instrumentenbauer und Architekten. 4. Aufl. Bochinsky Frankfurt/Main 21. Otto Mildenberger (1990) Informationstheorie und Codierung. Friedrich Vieweg & Sohn, Braunschweig, Wiesbaden 22. MIDI Manufacturers Association (1995-2007) http://www.midi.org 23. Dipl.-Ing. (FH) Volker Neumeyer (o. J.) Line-Arrays - The Hype Goes On. http://www.ifbcon.de/publication/documents/d_PLS-2006_VH_LineArrays%20-%20The%20Hype%20Goes%20On.pdf 24. Christoph Neuss (2004) Digitale Audiotechnik. http://www.christoph-neuss.de/digi_audio_l_l.pdf 25. G. Redlich (2007) Die Magnetband Story. http://www2.magnetbandmuseum.info/magnetband_story 1.0.html 26. Juan G. Roederer (2000) Physikalische und psychoakustische Grundlagen der Musik. 3. Auflage Springer Berlin Heidelberg, New York, Barcelona, Honkong, London, Ailand, Paris, Singapur, Tokio 27. Martin Schorkmaier (2000) Aufnahme- Mikrofonierungstechniken fiir 3/2 Surround Sound. iem.kug.ac.at/~sontacchi/hoat/^^ Mikrofonierungstechnikenfuer3_2SurroundSound.pdf 28. Dipl.-Ing. Eberhard Sengpiel (o. J.) Forum fiir Mikrofonaufnahmetechnik und Tonstudiotechnik. http://www.sengpielaudio.com 29. Robert Sontheimer (1994) Audio-Schaltungstechnik - verstehen - entwerfen bauen. Elektor-Verlag Aachen 30. Erich Stadler (1986) Modulationsverfahren - Modulation u. Demodulation in d. elektr. Nachrichtentechnik. 4. iiberarbeitete Auflage. Vogel, Wiirzburg 31. Dipl.-Ing. W.J. Tenbusch (1989) Grundlagen der Lautsprecher. Michael E. Brieden Verlag Oberhausen 32. Stefan Weinzierl, UdK Berlin; Christoph Franke, HR (o. J.) „Lotte, ein Schwindel." - Geschichte und Praxis des Musikschnitts am Beispiel von Beethovens 9. Symphonic. http://kgw.tu-berlin.de/forschung/publikationen/MJ3.PDF 33. Wikipedia - Information, Formant, Semiotik, Weber-Fechner-Gesetz, General Midi, Line Array. http://de.wikipedia.org 34. Jim Wright (2003) MIDI Over Ethernet (IP) OpenMuse http://openmuse.org/transport/mip_intro.html 35. Jorg Wuttke (2000) Mikrofonaufsatze. 2. erweiterte Auflage. Schalltechnik Dr.Ing. Schoeps GmbH. http://schoeps.de/D-2004/PDFs/Mikrofonbuch_komplett.pdf
Literaturverzeichnis
335
36. o. N. (2005) BGV B3 - Berufsgenossenschaftliche Vorschrift fiir Sicherheit und Gesundheit bei der Arbeit Unvallverhiitungsvorschrift Larm. Carl Haymanns Verlag KG Koln. http://www.arbeitssicherheit.de/servlet/PB/show/^^ 1224220/b3.pdf 37. O.N. (1997) Assessment methods for the subjective evaluation of the quality of sound programme material - Music. Tech 3286. European Broadcast Union. Genf 38. O.N. (1988) G.722 - General Aspects of Digital Transmission Systems. http://www.itu.int/rec/T-REC-G.722-198811-I/en 39. o. N. (2000) Wavefront Sculpture Technology(R) - zylindrisches Abstrahlverhalten am Beispiel der patentierten Lautsprechersysteme von L-ACOUSTICS. http://www.sonicdesign.ch/downloads/^^ 3_technische_dokumentationen/Wavefront-Scupture.pdf 40. o. N. (1998) Sechste AUgemeine Verwaltungsvorschrift zum BundesImmissionsschutzgesetz (Technische Anleitung zum Schhutz gegen Larm - TA Larm). http://www.umweltbundesamt.de/laermprobleme/^^ anlagen/talaerm.pdf 41. o. N. (2007) Larm- und Vibrations-Arbeitsschutzverordnung - LarmVibrationsArbSchV. http://www.bgfe.de/bilder/pdf/gv_16_a06-03-2007.pdf
Sachverzeichnis
l-Bit-Wandler 130 8-Bus-Pult 138,158 AAC 196 AB-Technik 249 ABC-Technik siehe MehrpunktTechnik Absorbtionsgrad 286 Abtasttheorem 125 Aclit 102 Active Sensing 203 AD-Wandler 123 AD AT 194 ADC siehe Analog-Digital-Wandler Additive Synthese 71 ADPCM 179 ADSR 74 aolisch 79 Aquivalenzstereofonie 249-253 AES/EBU 192 AFL 143 After Fader Listening 143 Aftertouch 200 Akkord 78 Aktiver Filter 27 Akustik 7 Akustischer Kurzschluss 113 Aliasing 126 All Notes Off 202 Allpassfilter 265,266 Alphabet 175 Alternate Mark Inversion 186 AM 169, 170
Ambience-Mikrofon 227,326 AMI-Code 186 Ampere 13 Amplitude 8 Amplitudenmodulation 169 AMS Soundfield 257 Analog-Digital-Wandler 123 Analyzer 147 Anpassung 22 Ansatzrohr 48 Anschlagsgeschwindigkeit 200 Ansteckmikrofon 106 Anti-Aliasing-Filter 126 apt-xlOO 196 Assembleschnitt 302 Atmokreuz 253 Atmos siehe Atmospharen Atmosphare 89,226-227 Atmung 52 Attack 74, 274, 276 Aufienaufnahme 225-227 Aufienohr 30 Aufienohriibertragungsfunktion 30, siehe Head Related Transfer Function Aufier-Kopf-Lokalisation 252 Audioiibertragung analog 167 digital 192 Audioaufzeichnung analog 160 digital 174 Audiodownloads 197
338
Sachverzeichnis
Aufnahme 225-261 Ablauf 257-261 Leslie 243 Schlagzeug 248 Wasser 227 Aufnahmeraum 232-235 Aufnahmevorbereitung 232-235 Augenblicksfrequenz 171 Ausspielweg siehe Aux-Weg Automation 147,329 Aux-Weg 139 Azimuth 163 B-Format 257 B-Kanal 195 Bandchenlautsprecher 112 Bandchenmikrofon 96, 97, 102 Biindelungsgrad 10 Biindelungsmai^ 10 Backline 321 Balance 85 Bandbreite 266,268 Psychoakustik 35 Bandniaschine 161 Bandpassfilter 265,266 Bandsperre 266 bandwidth 268 Bandzugfiihler 162 Bark 36 Basilarniembran 31 Bassreflex 115 Begrenzer siehe Liniiter Beifall 227 Belastbarkeit siehe Nennbelastbarkeit Bell EQ 269 Beschallung 227,305-332 Backline 321 Monitor 326 Pultplatz 320 Sicherheitsvorschriften 323 Stromversorgung 319 Besselfilter 27 Betonung 51 Bewertungskurven 34 Binarsystem 123 Biphase 215 Biphase Mark 186 Bit 123, 176 Blasinstrumente 60-65
Blechblasinstrument siehe Blasinstrunient blocking 45 Blu-ray Disc 190 Blumlein-Technik 247 Bouncing 293 Breite Niere 103 Broadcasting 197 Bus 138 Butterworthfilter 27 Byte 123 Capstan 162 cardioid 103 CD 190 CEE-Steckverbinder 320 Center Cluster 314 Center Fill 314 center frequency 268 Channel Mode Message 201 Channel Pressure 200 Channel Voice Message 200 Chassis 110 Chorus 288 Chromatik 77 Clock 214 Cluster 312 Collage 299 Control Change 200 Controller 115,322 Corti-Organ 31 Crest-Faktor 11,35 critical band 36 Crown Sass 252 DA-Wandler 130 DAC siehe Digital-Analog-Wandler DASH 188 Daten-Byte 200 dBFS 144 dBm 144 dBu 144 dBV 144 dbx 282 DDP-Master 189 De-Esser 281 Decay 74 Deemphasis 172 Delay 288
339
Sachverzeichnis Delay Line 40, 315 Delta-Sigma-Wandler 130 DI-Box 322 Dielektrikum 15 Dielektrizitatskonstante 98 Differenzton 39 Digital Radio Mondiale 198 Digital-Analog-Wandler 130 Digitaler Rundfunk 197 DIN 15905 Teil 5 331 Direct Out 141 directional 105 Diskriminator 172 Dithering 128 DLS siehe Downloadable Sounds Dolby A 283 Dolby SR 283 Dominante 81 Doppelmembranmikrofon 106 Downloadable Sounds 208 DPCM 179 Drehstrom 320 DRM 198 Druckempfanger 99 Druckgradientenempfanger 100 Druckkammer 112 Druckkammerprinzip 122 Drum Fill 315 Ducking 280 DVB 197 DVB-S 197 DVB-T 197 DVD 190 Dynamik 54, 55, 272 Dynamikprozessoren 271-283 E-Musik 57,58 Early Reflections 286 EB siehe Elekronische Berichterstattung Ebene Welle 10 Echo 288 Edit Decision List 293 Effektgerat 264 Effektivwert 11 Effektklang 90 Eingangskanalzug 134 Einschwingverhalten 60 Einseitenbandmodulation 170
Einzelmikrofonierung 240 Elektretkondensatormikrofon 98 elektrisches Potential 14 Elektrolytkondensator 15 Elektronische Bauteile 14 Elektronische Berichterstattung 226 Elektronische Instrumente 70-76 Elektrotechnik 13 Empfindlichkeit 108 End of Exclusive 202 Endstufe 115 Entropie 176, 177 Entscheidungsgehalt 176 Entzerrer 268-271 Glockencharakteristik 269 grafisch 268 Kuhschwanzcharakteristik 269 parametrisch 269 semiparametrisch 269 Envelope 75 EOX 202 EQ siehe Entzerrer Equalizer siehe Entzerrer Erde 14 Erganzungseffekt 286 Ersatzgerauschpegel 108 Ersatzwiderstand 22 Erste Reflexionen 286 Eustach'sche Rohre 31 Exabyte 189 Expander 279 F-Musik 58 Faltungshall 288 Faulkner 251 Feedback 288 Fehlererkennung 178, 181 Fehlerkorrektur 183 Feinschnitt 297 Feldleerlaufiibertragungsfaktor Fernfeldmonitor 118 Festplatte 190 EFT 12 figure eight 102 Fill 314 Filmton 226 Filter 265 aktiv 27 Bessel 27
108
340
Sachverzeichnis
Butterworth 27 digit ale 26 Low Cut 266 Parameter 265 Tschebyscheff 27 Filterschaltungen 25 Filtersweep 270 Flote 63 Flachmembranlautsprecher 112 Flanger 288 Flankensteilheit 265 FM 171 FM-Synthese 72 FOH siehe Front of House FOH-Monitoring 152,328 Fokus 284 Formant 49 Friihe Reflexionen 286 Frequenz 8 Frequenzgang 107 Frequenzmodulation 171 Frequenz weiche 110, 115, 116 Front of House 151 Front-Of-House-Monitoring 309 Fukuda Tree 254 Funktionstheorie 78,81 G.711 195 G.722 195 Gabelschaltung 169 Gain Reduction 275 Gegenelektrode 97 Gehor 29 Gehorgang 30 Gehorknochen 30 Gehorschutz 31 Gemischte Schaltungen General MIDI 207 General Standard 208 Generalhall 227 Gerausch 41
21
Gerauschpegelabstand 108 Gerauschspannungsabstand 108 Gesang 76 Gesetz der ersten Wellenfront 39, 316 GM siehe General MIDI Grenzflachenmikrofon 106 Grenzfrequenz 27,265 bei Abtastung 125
Grenzschalldruckpegel 108 Grofimembranmikrofon 105 Grundrauschen 272 Grundtonhoren 39 Guide Tracks 230 Horfeld 32 Horschwelle 11 Hiillkurve 74,75 Haas-Effekt 39,316 Halbkugel 106 Half-Byte 124 Hall 285-288 Hallabstand 239 Hallradius 239 Hamming-Distanz 182 Hardpatch 150 Hardwarecontroller 156 Harmonik 77 Harting 320 Hauptdampfungsrichtung
siehe
off-axis Haupteinsprechrichtung 99 Hauptmikrofonierung 241 Head Related Transfer Function 30, 242, 250 Headroom 144,272 Headsets 106 Heptatonik 77 Hertz 8 Hexadezimalsystem 124 High-Cut-Filter 266 High-Pass-Filter 266 Hilfsausspielweg siehe Aux-Weg Hochpassfilter 265,266 Holzblasinstrument 60 Homerecording-Pegel 144 HRTF 30, siehe Head Related Transfer Function Humbucker 70 Hystereseschleife 161 Impedanz 110 Impedanzwandler 24,98 Impulsantwort 234, 288 Impulstreue 96 In-Ear-Monitoring 326 INA 5 254 Induktion 70,96
Sachverzeichnis Induktivitat 18 Information 176 Informationstheorie 174 Informatives Wort 45 Inline-Pult 154 Innenohr 31 Insert Send Return 137 Insertschnitt 302 Intensitatsstereofonie 244-248 Interferenzrohr 104 Interpretation 86 Intonation 83 Invertierender Verstarker 25 ionisch 79 Irrelevanz 178 Irrelevanzreduktion 181 ISDN 194 Jecklin-Scheibe
251
Korperschall 7 Kiinstlerisches Wort 45 Kadenz 78,81 Kalottenlautsprecher 112 Kanalcodierung 181 Kanaltrennung 280 Kapazitat 15 Kennschalldruck 110 Keule 104 Key Listen 277 KFM 360 256 Klang 54 Klangbild 283 Klangcharakteristik 60 Klangfarbe 84 Klangqualitat 263 Klangregelung 264 Klangsynthese 70,71 Klein-AB 249 Kleinmembranmikrofon 105 Klirrfaktor 110 Koerzitivfeldstarke 161 Koinzidenzstereofonie siehe Intensitatsstereofonie Kombinationstone 39 Kompandersysteme 282 Kompression vorausschauende 277 Kompressor 272-278
341
Sidechain Compressing 277 Kompressorkennlinie 273 Kondensator 15,26 Konuslautsprecher 112 Konversation 45 Kopfhorer 121 geschlossen 121 offen 122 Kopfsdiere 292 Korrelation 145 Kristallsystem 109 Kugel 101 Kugelflachenmikrofon 253 Kugelwelle 10 Kunstkopf 252 Kurven gleicher Lautstarke 34 Kurzschluss akustisch 113 Kurzwelle 172 L-Musik siehe U-Musik Langsspuraufzeichnung 292 Larm-Arbeitsschutzverordnung Larmschutzmessung 329 Land 190 Langwelle 172, 173 Lastwiderstand 26 Laufzeitglieder 102 Laufzeitstereofonie 248-249 Lautheit 35,273 Lautsprecher aktiv 115 Elektrodynamisch 111 Elektrostatisch 111 Horn 112 passiv 115 Lautsprecherbox 113 Lautstarke 32 Lautung 52 Lavaliermikrofon 106 Leistungsanpassung 24, 144 Leitungscodierung 184 LFE 119 LFO 76 Lichtton 160 Limiter 278 Line Array 316-318 Line-Eingang 136 Linear Editing 292
330
342
Sachverzeichnis
lineare Verzerrung 272 Linearer Schnitt 292 Linecheck 327 Linienquelle 316 Lippenpfeife 63 Live End - Dead End 234 Live Recording 228-229 Live-Konzerte 227 Local control 201 Longitudinalwelle 10 Loslassgeschwindigkeit 200 Low Frequency Effects 119 Low Frequency Oscillator 76 Low-Pass-Filter 266 Luftsaule 60,62 Luftschall 7 Machine Control Command 207 Machine Control Response 207 MADI 194 Magnetband 160 Magnetton siehe Magnetband Masse 14 Mastersektion 142 MCC 207 MCR 207 Mehrkanalton 119 Mehrpunkt-Technik 249 Mehrspuraufnahme 154, 231 Mehrspurmaschine 164 Mehrwegsystem 113, 114 Melismatik 42,76 Melodie 54 Melodik 77 Metrum 82 MIDI 198-211 ProtokoU 199 MIDI Clock 203 MIDI In 204 MIDI Machine Control 207 MIDI Out 204 MIDI Sequencer 209 MIDI Show Control 207 MIDI Timecode 206 MIDI-Mute-Automation 149 MIDI-Schnittstelle 205 MIDI-Through 204 Mikrofon 95-108 dynamisch 96
elektrodynamisch 96 elektrostatisch 97 Spannungsversorgung 98 Mikrofoneingang 136 Mikrofonierung 235-241 Bewegliche Schallquellen 243 Crown Sass 252 DIN 251 Echtkopf 252 Faulkner 251 Kugelflachenmikrofon 253 Kunstkopf 252 Mikrofonaufstellung 236-241 Mikrofonauswahl 235-236 Olson 251 ORTF 250 OSS 251 Stereoaufnahmen 241 Surroundtechniken 253-257 Mischpult 133 virtuell 156 Mischung 263-289 Mithorschwelle 37 Mittelohr 30 Mittelwelle 172, 173 Mittenfrequenz 266,268 Mix-Minus 154 Mixdown siehe Mischung Mixdown-Status 155, 156 MMC 207 Modularer Synthesizer 75 Modulation 169 Modulationshub 171 Modulationsindex 171 MoUparallele 81 Monitor 326 Monitormischung 139, 152 Mono 117 Mono Mode 202 Montage 298-300 Motiv 77 Moving Coil 109 Moving Magnet 109 mp3 196 MPEG 196 MS-Technik 102, 247-248 MSC siehe MIDI Show Control MTC Full Message 207 MTC Short Message 206
Sachverzeichnis
343
MTK siehe Mehrspurmaschine Multi Mode 202 Multiband-Kompressor 273 Multibit-Wandler 129 multitimbral 199 Musicam 196 Musik 41 Musikschnitt 300-303 Mutegruppe 148
Ortung 30 Osis 321 255 OSS 251 Oszillator 75 Otoplastik 32 Ovales Fenster 30 Overdub Session 230 Overload 145 Oversampling 126
ii-l 154, 169 Nachhall siehe Hall Nacliriclit 175 Nachverdeckung 38 Nahfeldmonitor 118 Nennbelastbarkeit 110 Neukurve 161 Nichtdestruktiver Sclinitt 292 Nichtinvertierender Verstarker 25 Nichtlinearer Sclinitt 292 Mere 103 Noise Gate 279 Noise Shaping 128 Non Destructive Editing 292 Nonlinear Editing 292 NOS 251 Notch-Filter 266 Note Off 200 Note On 200 Notensatz 210 Nyquist-Frequenz 125, 126
PA 322 Panorama 118, 283-285 Parallelschaltung 21 Paritatsbit 182 Passive Filter 26 Patchbay 150 PCM 179 Peak Program Meter 145 Peitsche 320 Pentatonik 77 Perfolaufer 165 Perforation 214 Periodendauer 8 Permittivitat 97 PEL 143 Phantomschallquelle 118, 283 Phantomspeisung 98 Phaser 288 Phon 33,34 Phonem 51 Phrase 77 Physical Modeling 73 Pilotton 215 Ping Pong Delay 288 Ping-Pong-Stereo 283 Pit 190 Pitch Bend 201 Plasmalautsprecher 111 Point to Point 197 Polar Pattern 101 Poly Mode 202 Polymikrofonie 242 Polymikrofonierung siehe Einzelmikrofonierung polyphon 199 Polyphonic Pressure 200 PPM 145 Pragmatik 52 Pre Fader Listening 143
0-T6ne 44 Obertonstruktur 60 off-axis 99 Ohm 14 Ohmsches Gesetz 14 Ohrmuschel 30 Ohrsignal 251 Ohrtrompete 31 Olson 251 Omni Mode 202 omnidirectional 101 on-axis 99 Operationsverstarker 15, 19, 24 Optimales-Stereo-Signal siehe OSS Optokoppler 205 ORIS 195 ORTF 250
344
Sachverzeichnis
Predelay 287 Preemphasis 172 Pressure Zone Microphone 106 Prinzipschaltbild 133 ProDigi 188 Program Change 201 Psychoakustik 32 Public Address siehe PA Punch In 302 Punch Out 302 PZM siehe Grenzflachenmikrofon Quadrophonic 119 Quantisierung 127 Quantisierungsrauschen Quarter Frame 206 QueUe 175 QueUencodierung 180 Quintenzirkel 79
127
Rohrenmikrofon 107 Range 280 Ratio 274 Rauhigkeit 36 Rauschgenerator 75 Rauschunterdriickung 282 RC-Glied 26 Recieve-Channel 199 Record-Status 155 Redundanz 178 Redundanzreduktion 180 Reflektionen 286 Regelverstarker siehe Dynamikprozessoren Reihenschaltung 21 Release 74, 274, 276 Relevanz 178 Remanenz 161 Remanenzflussdichte 161 Reporter 44 Reset All Controllers 201 Residualeffekt 39 Return to Zero 186 Reverb siehe Hall Rhythmik 81 Rhythmus 54, 83, 298 Richtcharakteristik 99 Richtungsdiagramm siehe Polar Pattern
Richtungsmischung siehe Panorama RLL 187 Rohrblattinstrumente 64 Routing 138 RT60 240,286 Run Length Limited 187 Rundes Fenster 31 Rundfunknormpegel 144 Running Status 204 S/PDIF 193 Sangerformant 37,76 Safety 324 Saiteninstrumente 65-68 Sammelschiene 138 Sample 125 Sample & Hold 127 Sample Player 73 Sampling 70 SCAM 170 Schalldruck 11 Schalldruckpegel 11,32 Schallgeschwindigkeit 9 Schallleistung 12 Schallleistungspegel 12 Schallplatte 160, 165 Schallschnelle 10 Schallwandler 95 Schlaginstrumente 68-70 Schnecke 31 Schnitt 291-303 Kiirzung 296 Korrektur 296 Kosmetik 297 Schnittliste 293 Schnittstelle 192 Schragspuraufzeichnung 292 Schutzschalter 320 Schwalbenschwanz 292 Schwebung 36 Schwingkreis 265 Section Mix 271 Seitenband 170 Selbstinduktion 18 Selektiver Tragerschwund 170 Semantik 51 Senke 175 SFX 90 Shannon 125
Sachverzeichnis Shelving EQ 269 Sicke 112 Side Fill 315 Sidechain Compressing 277 Sigma-Delta-Wandler 130 Signal 175 Signaliiberwachung 142 Signalfluss 133 Signalfornicodierung 179 Single Coil 70 Skala 77 SMPTE 206 Snapshot-Automation 148 Solo in Place 143 Solo Safe 144 Sone 33,35 Song Position Pointer 203 Song Select 203 Soundcheck 325-331 Sounddesign 274 Spannung 13, 14 Spannungsanpassung 23, 144 Spannungsquelle 14,20 Spannungsteiler 26 spectral recording 283 Speichermedium elektronisch 191 magnetisch 188 magnetooptisch 191 optisch 190 Spektrum 12 spezifischer Widerstand 14 Splitpult 154 Splitter 152 Sprache 41,43-55 Sprachschnitt 296-300 Sprecher 43 Spule 15,18, 26 Stiitzmikrofonierung 241 Stack 312 Standard MIDI File 205 Status-Byte 199 Steckfeld 150 Stereo 117,118 Stereoaufnahmen 241-253 Stereobild 145 Stereomikrofone 252 Stimmbander 47 Stimme 47-51
345
Stimmritze 47 Streaming 197 Strom 13 Stromanpassung 23 Stromkreis 13 Studioaufnahmen 227 Studionormpegel 144 Stufenmodell 78 Stufentheorie 80 subcardioid 103 Subdominante 81 Subgruppe 139 Subtraktive Synthese 72 Summe 140 Summenton 39 Supply Reel 162 Surround 119, 253 Sustain 74 Sweep EQ 270 Syllabik 42,76 Synchronisation 213 Syntax 51 Synthesizer 71 SysEx 202 System Common Message 202 System Exclusive 202 System Real-Time Message 203 Tone 47 Tonung 52 TA Larm 329 Take Up Reel 162 Takt 83,300 Synchronisation 214 Tap Delay 288 Tape Return 154 Tape-Eingang 136 Tascam Level 144 Tastung 127 Tauchspulenmikrofon 96 Telcom C4 283 Telefonhybrid 169 Telefonstimme 267 Tempo 82 Terzband-Equalizer siehe Entzerrer Text 51-52 THD siehe Total Harmonic Distortion Thema 77 Threshold 274
346
Sachverzeichnis
Tiefenstaffelung 242 Tiefpassfilter 265,266 Timbre 84 Timing 85, 300, 302 Timing Clock 203 TJ.52 196 Tonabnehmer 70 Tonaderspeisung 99 Tonart 78,79 Tonband 160 Tongeschlecht 78, 79 Tonhohe 35 Tonika 81 Tonkopf 162 Tonleiter 77 Tonumfang 60 TOSLINK 193 Total Automation 150 Total Harmonic Distortion Total Recall 148 Transmit Channel 199 Trans versalwelle 10 Trittschallfilter 267 Trommelfell 30 Tschebyschefffilter 27 tube 107 Tune Request 203
272
U-Musik 57,58 Uberanpassung 23 Ubergangsfrequenz 110 Ubersteuerungsreserve 272 Ubertragungsbereich 107, 109 Ubertragungsfunktion 27 UHF 173 UKW 173 Ultra High Frequency 173 Ultrakurzwelle 173 Umfrage 299 Unterabtastung 126 VGA VCF
75 75
VCO 75 Verbraucher 20 Verdeckung 37 Verdeckungseffekt 271, 273, 287 Versmafi 51 Verstarkerschaltungen 24 Verstarkung 268 Very High Frequency 173 Verzerrungsgrenze 272 VHF 173 Visualisierung 284 Voice Over Compression 277, 281 Vokaltrakt 48 Volt 14 Voltage Controlled Amplifier 75 Voltage Controlled Filter 75 Voltage Controlled Oscillator 75 Vorausschauende Kompression 277 Vorspannband 164 Vorverdeckung 38 Vorwiderstand 16 VU-Meter 145 Wahrnehmung 29 Wandlerprinzip 95 Waveform siehe Wellenform Wavetable-Synthese 73 Weber-Fechner Gesetz 11,32 Wechselplatte 190 Wellenform 293 Wellenlange 9 Widerstand 13-15 Wirkungsgrad 110 XY-Technik
244-247
Zasur 51 Zungenpfeife 63 Zweierkomplement 124 Zweiseitenbandmodulation Zweispurmaschine 163 Zylinderwelle 316
170