Encrypted_SOUND ENGINEERING - Dynamik und Pegel - Von der ...

33 downloads 11823 Views 5MB Size Report
SOUND ENGINEERING. Dynamik und Pegel. Von der Aufnahme bis zum Master. Diplomarbeit im Studiengang Audiovisuelle Medien. Fachhochschule Stuttgart.
SOUND ENGINEERING Dynamik und Pegel Von der Aufnahme bis zum Master

Diplomarbeit im Studiengang Audiovisuelle Medien

Fachhochschule Stuttgart

Tobias von Brockdorff Matrikel-Nummer 13415

September 2006

1. Prüfer: Prof. Oliver Curdt 2. Prüfer: Prof. Dr. Thomas Keppler

Erklärung Hiermit erkläre ich, dass ich die vorliegende Diplomarbeit selbständig angefertigt habe. Es wurden nur die in der Arbeit ausdrücklich benannten Quellen und Hilfsmittel benutzt. Wörtlich oder sinngemäß übernommenes Gedankengut habe ich als solches kenntlich gemacht.

______________________

____________________

Ort, Datum

Unterschrift

1.

Einleitung ..........................................................................................1

2.

Grundlagen ........................................................................................2

2.1

Definition von Schall ........................................................................2

2.2

Frequenzen.....................................................................................3

2.2.1

Der Ton und die Tonhöhe ..............................................................3

2.2.2

Lineare Verzerrung .......................................................................4

2.2.3

Parametrische Equalizer ................................................................5

3.2.4

Grafische EQs ..............................................................................6

2.2.5

Frequenz-Analyse.........................................................................7

2.2.6

Frequenzbereiche .........................................................................8 Dynamik des menschlichen Gehörs ....................................................9

2.3 2.3.1

Ruhehörschwelle ..........................................................................9

2.3.2

Hörfläche ....................................................................................9

2.4

Pegel ........................................................................................... 10

2.4.1

Einführung von Pegeln ................................................................ 10

2.4.2

Bewertungsfilter......................................................................... 11

2.4.3

Definition des Pegels .................................................................. 13

2.4.5

Herleitung des Schalldruckpegels Lp ............................................. 14

2.4.6

Entfernungen bei der Angabe von Pegeln ...................................... 15

2.4.7

Absoluter Pegel .......................................................................... 16

2.4.8

Rechnen mit Pegeln .................................................................... 17

2.4.9

Logarithmierung der Sinne .......................................................... 18

2.4.10 Dämpfung und Verstärkungsfaktor ............................................... 19 2.5

Systemdynamik ............................................................................ 20

2.5.1

Signal-Rauschabstand................................................................. 20

2.5.2

Rauschen .................................................................................. 21

2.5.3

Nichtlineare Verzerrungen ........................................................... 22

2.5.4

Dynamik von Mikrofonen............................................................. 25

2.5.5

Effektive Systemdynamik ............................................................ 26

3.

Aufnahmemedien.............................................................................. 28

3.1

Die Geschichte des Tonträgers ........................................................ 28

3.2

Dynamik analoger Aufnahmemedien ................................................ 30

4.

Digitaltechnik ................................................................................... 32

4.1

Grundlage für die digitale Signalverarbeitung .................................... 32

4.2

Analog-Digital-Wandlung ................................................................ 33

4.3

Wandlerverfahren .......................................................................... 34

4.4

Dynamik eines digitalen Audiosignals ............................................... 35

5.

Dynamik im Überblick ....................................................................... 36

5.1

Dynamikumfang akustischer Signale ................................................ 36

5.2

Technische Systemdynamik im Vergleich .......................................... 36

5.3

Notwendigkeit einer Einengung der Dynamik .................................... 36

5.4

Wiedergabedynamik ...................................................................... 37

6.

Dynamische Effekte .......................................................................... 38

6.1

Regelverstärker als dynamischer Effekt ............................................ 38

6.2

Der Kompressor ............................................................................ 38

6.3

Der Limiter ................................................................................... 40

6.4

Expander und Gate ........................................................................ 41

6.5

Frequenzselektive Kompression ....................................................... 42

6.6

Multibandkompression.................................................................... 42

7.

Aussteuerung ................................................................................... 44

7.1

Das Mischpult................................................................................ 44

7.2

Aussteuerungsrichtlinien................................................................. 45

7.3

Der Crest Faktor............................................................................ 47

8.

Mastering......................................................................................... 48

8.1

Ursprung und Trend ....................................................................... 48

8.2

Produktionsmittel beim Mastering .................................................... 50

8.2.1 Anwendung der Produktionsmittel ................................................... 51 8.2.2 Psychoakustikprozessoren.............................................................. 52 8.2.3 MS-Matrix .................................................................................... 54 8.3 9.

Premastering und Authoring............................................................ 54 Möglichkeiten zur Erweiterung einer Systemdynamik............................. 56

9.1

Kompandersysteme ....................................................................... 56

9.2

Dynamikverbesserung in der digitalen Ebene .................................... 57

9.2.1 Noise shaping ............................................................................... 57 9.2.2 Dithering ..................................................................................... 58 10.

Datenreduktion................................................................................. 61

10.1

Datenübertragungsrate .................................................................. 61

10.2

MPEG-Audio-Standard .................................................................... 61

11.

Von der Aufnahme bis zum Master ...................................................... 64

11.1

Hintergründe und Zielsetzung ......................................................... 64

11.2

Örtlichkeit .................................................................................... 64

11.3

Aufnahmetechnik........................................................................... 65

11.4

Musikschnitt.................................................................................. 67

11.5

Rooting und Mischung .................................................................... 68

11.6

DSP-Effekte .................................................................................. 70

11.7

Mastering ..................................................................................... 72

12.

Fazit................................................................................................ 74

13.

Literaturverzeichnis........................................................................... 75

14.

Abbildungsverzeichnis ....................................................................... 77

1.

Einleitung

Dynamik

in der Tontechnik beschreibt den Bereich zwischen höchstem und

niedrigstem

Pegel

eines

Signals.

In

der

Natur

kommen

Schallpegel

von

unterschiedlicher Intensität vor, wovon das menschliche Ohr nur einen gewissen Bereich wahrnehmen kann. Dieser Bereich geht von der Hörschwelle bis zur Schmerzgrenze und legt damit den Dynamikumfang des Gehörs fest. In der elektro-akustischen Signalverarbeitung ist der Dynamikumfang ebenfalls begrenzt, bedingt durch die technisch mögliche Dynamik der Geräte, die sich aus der Pegeldifferenz zwischen Übersteuerungsgrenze und Eigenrauschen ergibt. In diesem Zusammenhang wird auch von der Systemdynamik gesprochen. Sie ist eines der wichtigsten Qualitätsmerkmale in der Audiotechnik. Die Geschichte des Tonträgers zeigt uns die rasante Entwicklung der Aufnahmemedien in den letzten einhundert Jahren. Nicht zuletzt durch den technischen Fortschritt bei der digitalen Audiotechnik wird dabei die Qualität der Aufnahmeverfahren erheblich gesteigert. So haben die verschiedenen Aufnahmemedien, ob analog oder digital, eine unterschiedliche Systemdynamik, die in den meisten Fällen größer ist als die abhörseitige Wiedergabedynamik. Sie wird begrenzt durch

den

maximalen

Abhörpegel und die Störgeräuschen am Ort der Wiedergabe. Bei der Aufzeichnung oder

Übertragung

Originaldynamik

auf

einer

das

entsprechende

Aufnahme

angepasst

Medium werden.

muss Dafür

deshalb stehen

oft

die

in

der

professionellen Tonstudiotechnik die so genannten dynamischen Effekte zur Verfügung, mit denen eine Bearbeitung der Dynamik ermöglicht wird. Auch beim Mastering bekommt der Einsatz von Effekten besondere Bedeutung, stellt dieser Prozess doch den letzten Feinschliff bei der Bearbeitung einer Aufnahme dar. Die vorliegende Diplomarbeit erklärt und analysiert den technischen Hintergrund der Dynamik und die Grundlagen der in der Tontechnik relevanten Pegel. Des Weiteren sollen anhand von Dynamik und Pegeln die verschiedenen Bereiche der professionellen Tonstudiotechnik erläutert werden. Dabei wird die Systemdynamik der unterschiedlichen Systeme untersucht und verglichen. Außerdem werden Verfahren zur Vergrößerung der Systemdynamik vorgestellt, die das Ziel haben, dem Dynamikumfang des menschlichen Gehörs gerecht zu werden. Um dieses zu erreichen, sind allerdings ideale Bedingungen als auch der erforderliche technische Aufwand notwendig. Die vorliegende Arbeit gliedert sich in einen theoretischen und einen praktischen Teil. Zur Untermauerung der theoretischen Darlegungen, die den Hauptteil dieser Arbeit bilden, ist ein praxisorientiertes Kapitel angehängt. Die Umsetzung wird am Beispiel einer CD-Produktion von der Aufnahme bis zum Master verdeutlicht. Das Ergebnis ist in Form einer Audio-CD beigelegt.

1

2.

Grundlagen

2.1

Definition von Schall

Als

Teilgebiet

Wechselwirkung

der

Gasdynamik

von

beschreibt

Kompressionsenergie

die und

Akustik

in

der

Physik

Bewegungsenergie,

die

die als

Schallfeldgrößen wie folgt definiert sind: Schalldruck p in N/m² = Pa (Pascal) und Schallschnelle v in m/s Das Produkt der beiden Größen ist die Schallintensität. Sie ist die Energie des Schalls, gemessen in Watt auf der Fläche von einem Quadratmeter. Im elastischen Medium, also in Flüssigkeiten oder Gasen, sowie im wichtigsten Medium, der Luft, breitet sich der Schall als Longitudinalwelle kugelförmig aus. Die Ausbreitungsgeschwindigkeit der Schallwelle ist abhängig von der Dichte des Übertragungsmediums.

In

der

Luft

wird

die

Schallgeschwindigkeit

c

im

Wesentlichen von der Temperatur beeinflusst. Durch die folgende Formel kann die Schallgeschwindigkeit näherungsweise bestimmt werden: cLuft = 331,5 + 0,6 * t;

[in m/s]

t = Temperatur in °C

mit

Die Schallgeschwindigkeit in der Luft nimmt bei einer Temperaturerhöhung um ca. 0,6 m/s pro Grad Celsius zu.1

Abb. 1: Tabelle der Schallgeschwindigkeit in Luft bei Temperaturänderung. Temperatur Geschwindigkeit 0 °C 331,5 m/s 20 °C 343,5 m/s 36 °C 353,1 m/s Da die Tonhöhe abhängig von der Schallgeschwindigkeit ist (f = c/ λ, siehe 2.2.1), wirkt sich eine Temperaturänderung auf die Stimmung der Instrumente aus. Für die Wahrnehmung von Schall ist ein konstanter atmosphärischer Druck, wie er auf der Erde gegeben ist, oberste Voraussetzung. Außerdem muss der Ruhedruck der Atmosphäre viel größer sein als der höchste Schalldruck, den das menschliche Gehör

verarbeiten

kann,

da

sonst

Luftdruckschwankungen

gravierende

Auswirkungen auf unser Hörvermögen haben würden.

1

Vgl. Dickreiter, M. : Handbuch der Tonstudiotechnik, Bd. 1, K.G. Sauer Verlag 1997, S. 3.

2

2.2

Frequenzen

2.2.1 Der Ton und die Tonhöhe Ein einzelner reiner Ton ist eine regelmäßig wiederkehrende Veränderung des Schalldrucks, mit einer bestimmten Anzahl von Schwingungen pro Sekunde (1/s = 1 Hz [Herz]), also mit nur einer Frequenz. Die Anzahl der Schwingungen ist proportional zur wahrgenommenen Tonhöhe. Ein reiner Ton ist bekanntlich der Sinuston. Töne, die zu einhundert Prozent rein sind, kommen in der Natur nicht vor. Vielmehr handelt es sich hierbei häufig um Tongemische, die wiederum als Klänge bezeichnet werden. Von einem Geräusch ist die Rede, wenn der Schall keine

regelmäßig

wiederkehrenden,

sondern

nur

willkürlich

überlagerte

Schwingungen aufweist. Auch jeder Klang besitzt hochfrequente Geräuschanteile am Anfang seiner Einschwingphase, die so genannten „Transienten“. Sie sind charakteristisch für die Unterscheidung aller hörbaren Ereignisse.1 Abhängig von der Schallgeschwindigkeit c des Mediums, das den Schall überträgt, bildet jede Frequenz

eine bestimmte Wellenlänge aus. Jeder raumbegrenzende

Körper wird so zu Resonanzen angeregt, immer wenn die Wellenlänge in den Raum passt. Zusammen mit der Schallgeschwindigkeit c und der Frequenz f lässt sich die Wellenlänge λ für einen tonalen Schall bestimmen: λ = c/ f In der Akustik werden so Raummoden (Resonanzen) berechnet, die das Hörempfinden oder zum Beispiel die Sprachverständlichkeit beeinflussen können. Die Entstehung von Resonanzen ist sehr komplex und formt so den Klangeindruck für jeden Körper, egal ob es sich um einen Raum oder ein Instrument handelt. Bei den verschiedenen Musikinstrumenten entstehen außerdem durch Verzerrungen zusätzliche Frequenzanteile (Obertöne, siehe 2.2.5), die den Klangcharakter für jedes Instrument entscheidend prägen. Dennoch werden in der Musik die Grundtöne der Instrumente auf den reinen Ton gestimmt, um beim Zusammenspiel nicht zu disharmonieren. Der Kammerton a’ hat so zum Beispiel 440 Hz. Die

Verdoppelung

Harmonielehre

in

einer der

Frequenz

Musik

wird

basiert

auf

als

Oktav

bezeichnet.

geradzahligen

Auch

die

Verhältnissen

der

Frequenzen. Abb. 2: Tabelle der Frequenzverhältnisse einiger musikalischer Intervalle,

mit

dem Grundton f = 352 Hz (reine Stimmung):

große Terz: 5:4

* f = 352 Hz; * f = g ≈ 391 Hz; * f = a = 440 Hz !

große Septime:15:8

* f = c’ = 528 Hz; * f = d’ ≈ 587 Hz; * f = e’ = 660 Hz;

verm. Quinte: 7:5

* f = b ≈ 493 Hz;

Oktave: 2:1

* f = f ’ = 704 Hz;

Prime: 1:1 große Sekund: 10:9

1

Quinte: 3:2 große Sexte: 5:3

Vgl. auch Dickreiter, M. : Handbuch der Tonstudiotechnik, Bd. 1, K.G. Sauer Verlag 1997, S. 1f.

3

2.2.2 Lineare Verzerrung Bei der elektro-akustischen Signalverarbeitung ist ein ausgewogenes Verhältnis der Frequenzbereiche maßgeblich am Hörgenuss beteiligt. Durch entsprechende Elektronik können die Frequenzen ausgeglichen werden (engl. to equalize). Hierbei wird auch von einer „linearen Verzerrung“ gesprochen, wobei der Entzerrer, auch als „Equalizer“, oder Filter bezeichnet wird. Equalizer, Kurzform „EQ“, heben die Pegel der einzelnen Frequenzen in einem gewissen Rahmen an, oder senken sie ab. Mit Filtern, wie zum Beispiel Hochpass und Tiefpass, können wiederum gesamte Frequenzbereiche aus einem Signal entfernt werden. Früher wurden Equalizer hauptsächlich zur Korrektur von unvollkommenen Mikrofonfrequenzgängen

eingesetzt1,

wohingegen

sie

heute

oft

künstlerisch-ästhetischen Gestaltung der Klangfarbe verwendet werden.

nur

zur

2

Die einfachste Form eines Filters stellt der Tiefenentzerrer dar. Er wird auch als Hochpass bezeichnet, da er Frequenzen oberhalb der Grenzfrequenz unverändert passieren lässt, die darunter liegenden aber mehr oder weniger steilflankig sperrt. In diesem Zusammenhang wird auch von der „Flankensteilheit“ eines Filters gesprochen.

Durch

die

Konzeption

der

elektrischen

Schaltung

kann

die

Grenzfrequenz f0 bestimmt werden. Ein Hochpass erster Ordnung senkt die tiefen Frequenzen um 6 dB pro Oktave ab, ein Filter zweiter Ordnung um 12 dB pro Oktave

usw.

Filter

höherer

Ordnung

werden

durch

Hintereinanderschalten

mehrerer Filtern erster Ordnung realisiert. So weisen diese Filter eine größere Flankensteilheit auf. Die folgenden Darstellungen zeigen das Schaltbild eines Hochpass- und TiefpassFilters, durch eine Widerstand-Kondensator-Kombination (R-C-Glied: engl. Resistor Condenser) und den dazugehörigen Frequenzgang. Abb. 3: R-C Glied als Hochpass links und Tiefpass rechts. Jeweils 1. Ordnung.3

1 2 3

Vgl. Sandmann, Thomas: Effekte & Dynamics, PPV MEDIEN 2001, S. 20. Vgl. auch Dickreiter, M. : Handbuch der Tonstudiotechnik, Bd. 1, K.G. Sauer Verlag 1997, S. 351. Quelle: Ebd., S. 354-357.

4

2.2.3 Parametrische Equalizer Equalizer weisen unterschiedliche Charakteristiken auf, um den Frequenzgang zu bearbeiten.

Im

Gegensatz

zu

den

Pässen

besteht

die

Möglichkeit

zur

Klangregelung mit dem EQ nur in einem gewissen Bereich (zum Beispiel ±12 dB). Die verschiedenen Charakteristika lassen sich durch spezielle Kombinationen von Hoch- und Tiefpass oder durch Schwingkreise mit Spulen umsetzen. Die einfachste Form eines Equalizers ist der „Shelving-Filter“, der wegen seiner Formung des Frequenzgangs auch als „Kuhschwanz-Filter“ bezeichnet wird. Anders als bei Pässen fällt der Frequenzgang nicht kontinuierlich ab, sondern lässt sich um einen fest einstellbaren Wert anheben oder absenken. Die Einsatzfrequenz f0 (definiert bei 3 dB unter bzw. über dem linearen Bereich) sowie die Verstärkung (engl. Gain), sind dabei frei einstellbar. Im Mischpult ist meist der EQ für das unterste, wie auch für das oberste Frequenzband als solch ein Shelving-Filter ausgelegt. So lassen sich ganze Frequenzbereiche um denselben Wert anheben oder absenken. Abb. 4: Frequenzgang von Shelvingfiltern.1

Eine weitere Charakteristik von Equalizern stellt das „Glockenfilter“ (engl. bell) dar, das eine resonanzartige Überhöhung (engl. peak) des Frequenzgangs aufweist (Präsenzfilter). In gleichem Maße lässt sich auch eine Absenkung einstellen (Absenzfilter). Ein Glockenfilter hat eine gewisse Bandbreite b, die zusammen mit der Mittenfrequenz fm die Güte Q (engl. Quality) eines solchen Filters beschreibt. Die Parameter Mittenfrequenz, Güte und „Gain“ lassen sich über Drehregler einstellen. So werden diese Equalizer auch als „parametrische EQs“ bezeichnet.

1

Ursprung: Henle, Hubert: das Tonstudio Handbuch, GC Carstensen Verlag, München 2001, S. 221.

5

Abb. 5: Parametrischer EQ als Glockenfilter.1

Mit Q = fm / b Parametrische EQs sind in Kanalzügen im Mischpult anzutreffen und dienen hier der gezielten Bearbeitung des Frequenzgangs der einzelnen Signale.

3.2.4 Grafische EQs Grafische EQs haben feste Frequenzen die das Frequenzspektrum je nach Aufbau in beliebig viele Frequenzbänder unterteilen. In der Praxis werden grafische Equalizer in 5 bis 31 Bänder unterteilt, die durch eine entsprechende Anzahl von Reglern

beeinflusst

werden

können.

Die

Regler

sind

als

Schieberegler

nebeneinander ausgelegt, mit vertikaler Bewegungsrichtung für die Anhebung oder Absenkung der einzelnen Frequenzbereiche fM. So lässt sich der eingestellte Frequenzgang auch grafisch erkennen. In Mittelstellung aller Regler ergibt sich ein linearer Frequenzgang. Abb. 6: Bedienoberfläche eines grafischen EQs.

Mit fM =√ (fu * fo);

fu = Untere Grenzfrequenz, fo = Obere Grenzfrequenz

Grafische EQs werden häufig zur Entzerrung von Lautsprecheranlagen im PABereich (engl. Public Address) in der Eventtechnik, Disco und Live-Beschallung eingesetzt.

1

Ursprung: Henle, Hubert: das Tonstudio Handbuch, GC Carstensen Verlag, München 2001, S. 221.

6

2.2.5 Frequenz-Analyse Der französische Mathematiker und Physiker Jean Baptiste Joseph Fourier befasste sich unter anderem mit der Zusammensetzung von periodisch wiederkehrenden Signalen. Seine Erkenntnis war, dass sich jedes periodische Signal, egal welcher Komplexität, aus sinusförmigen Teilschwingungen unterschiedlicher Phasenlage zusammensetzen

lässt.

Durch

die

Fourierreihen

lieferte

er

dafür

den

mathematischen Beweis. Die Fourier-Analyse ist die grafische Darstellung aller Teilschwingungen und ihrer Amplitudenwerte.

Die

Teilschwingungen

sind

immer

ganzzahlige

Vielfache

(Harmonische) der Grundschwingung. Die Fourier-Analyse gibt so Aufschluss über die Klangfarbe eines Signals.1 Die

folgende

Rechtecksignals,

Abbildung links

in

zeigt der

die

spektrale

Zusammensetzung

Amplituden-Zeit-Darstellung,

rechts

eines in

der

Amplituden-Frequenz-Analyse (Fourier-Analyse). Abb. 7: Analyse eines Rechteck-Signals.2

Spektrumanalyzer arbeiten nach der „Fast Fourier Transformation“ (FFT). Ähnlich wie bei der Fourier-Analyse werden hier die Pegel der einzelnen Frequenzen nebeneinander

für

den

hörbaren

Bereich

dargestellt

und

in

sehr

kurzen

Zeitabständen neu bestimmt. Mit solch einem „Real-Time-Analyzer“ (RTA) lässt sich sowohl der Frequenzgang der verschiedenen Signale beobachten, als auch die spektrale Zusammensetzung analysieren. Der „Analyzer“ ist daher ein wichtiges Werkzeug in der professionellen Studiotechnik. Abb.8: Real-Time-Analyzer.

Die Abbildung zeigt einen kurzen Ausschnitt eines komplexen Musiksignals.

1 2

Vgl. Dickreiter, M. : Handbuch der Tonstudiotechnik, Bd. 1, K.G. Sauer Verlag 1997, S. 57. Ursprung: Ebd., S. 58.

7

2.2.6 Frequenzbereiche Frequenzen lassen sich in einzelne, für unser Gehör sinnvolle Bereiche unterteilen. So wird der Schall, der unter dem menschlichen Hörvermögen liegt, als Infraschall bezeichnet. Ultraschall ist derjenige Schall, dessen Frequenz zu hoch für unsere Wahrnehmung ist. Für den hörbaren Bereich haben sich im Wesentlichen die Bezeichnungen von Tiefen, Mitten und Höhen durchgesetzt. Da im Bereich der Mitten eine starke Konzentration an Klängen festzustellen ist, wird dieser Bereich nochmals in untere und obere Mitten unterteilt. Im Folgenden sollen die Frequenzbereiche weiter erläutert werden: Die Tiefen reichen von 20 bis 200 Hz. In diesem Bereich sind die Grundtöne der Bass-Instrumente angesiedelt. Sie bilden das Fundament einer musikalischen Mischung. Musikalisch-technische Assoziationen für die Tiefen bringen Begriffe wie „druckvoll“ oder „der Bass schiebt“ im positiven Sinne mit sich. Eine Überbetonung der Tiefen wird hingegen als „Dröhnen“ oder „Wummern“ empfunden. Ist der Bass in den Tiefen unterrepräsentiert wirkt er „dünn“ oder „schlank“. Die unteren Mitten erstrecken sich von 200 bis 1000 Hz. Hier sind die Grundtöne der meisten Instrumente, wie zum Beispiel auch die menschliche Stimme vertreten. Deswegen ist unsere Wahrnehmung gegenüber diesem Bereich sehr differenziert und weist bei einer Überbetonung in diesem Bereich schnell Ermüdungserscheinungen auf. Ein ausgewogenes Verhältnis der Frequenzen von 200 bis 500 Hz vermittelt einen „warmen“ Eindruck. Zu wenig in diesem Bereich wirkt „kalt“, zuviel dagegen „matschig“ und „undifferenziert“. Frequenzen zwischen 500 und 1000 Hz bringen wiederum eine Definition im positiven Sinn. Ist dieser Bereich überrepräsentiert, wirkt der Klang schnell „nasal“ oder „pappig“. Die oberen Mitten reichen von 1 kHz bis 5 kHz und bringen Klarheit, bzw. eine gewisse Durchsichtigkeit in eine Mischung. Außerdem trägt dieser Frequenzbereich zur Sprachverständlichkeit bei. Unser Ohr weist in diesem Bereich übrigens die größte Empfindlichkeit auf (siehe 2.3.1). Zuviel des Guten wird hier als „schneidender, harter Klang“ empfunden. Die Höhen beschreiben die Frequenzen zwischen 5 und 20 kHz. Sie beherbergen alle Geräuschanteile mit Obertoncharakter und sind so bedeutsam für die Unterscheidung

der

einzelnen

Instrumente,

Stimmen

oder

Geräusche.

Ein

ausgewogenes Frequenzverhältnis für diesen Bereich bringt „Brillanz“ und macht den Klang „seidig“, „edel“ oder „teuer“. Eine übermäßige Anhebung dieser Frequenzen bewirkt hierbei ein „Zischeln“. 1

1

Vgl. http:// www. hdm-stuttgart.de/~curdt/_Entzerrung.pdf, 08/2006. Vgl. auch: Sandmann, Thomas: Effekte & Dynamics, PPV MEDIEN 2001, S. 20.

8

2.3

Dynamik des menschlichen Gehörs

2.3.1 Ruhehörschwelle Unser Gehör ist in der Lage, akustische Ereignisse nur innerhalb eines definierten Frequenzbereichs wahrzunehmen. Dieser Bereich liegt zwischen 20 Hz und 20 kHz. Zudem ist ein Schalldruck von mindestens p = 20 µ Pascal notwendig. Wird im empirischen Versuch der Schalldruck, der erforderlich ist um einen Ton gerade noch wahrzunehmen, als Funktion der Frequenz über den hörbaren Bereich aufgezeichnet, so resultiert daraus die Ruhehörschwelle. An der Ruhehörschwelle lässt sich erkennen, dass das menschliche Gehör bestimmte Frequenzbereiche zwischen 2 kHz und 5 kHz besser wahrnimmt als andere. Abb.9: Ruhehörschwelle des menschlichen Gehörs.1

2.3.2 Hörfläche Wird der Schalldruck erhöht, so stellt sich bei einem gewissen Schalldruck um etwa 20 Pascal die Schmerzschwelle ein. Kurzzeitige Spitzen können sogar bis zu 150 Pa betragen. Dies wird als absolute Schmerzgrenze bezeichnet. Die Dauer der Einwirkung des Schalls auf das menschliche Gehör ist immer von Bedeutung. „Ab einer Schallbelastung mit einem Mittelungspegel von 85 dB(A), bezogen auf 40 Stunden pro Woche, ist mit einer Gehörschädigung zu rechnen.“2 Wird das Gehör noch größeren und längeren Schalldrücken ausgesetzt, ist in jedem Fall mit bleibenden Gehörschäden zu rechnen. Der Bereich zwischen Ruhehörschwelle und Schmerzgrenze wird als Hörfläche bezeichnet und beschreibt die Dynamik unseres Gehörs. Das menschliche Gehör weist zudem eine Verschlechterung der Empfindlichkeit mit zunehmendem Alter und bei Lärmschädigung auf, auf die im Folgenden nicht weiter eingegangen werden soll.

1 2

Ursprung: http:// www. dasp.uni-wuppertal.de/ars_auditus/, 08/2006. Pressemitteilung des Umwelt Bundes Amt für Mensch und Umwelt UBA, 3/2001.

9

2.4

Pegel

2.4.1 Einführung von Pegeln Da Schall meistens über die Luft zu unserem Gehör transportiert wird, liegt eine Messgröße, die den Luftdruck beschreibt, nicht fern. Gesetzlich wird hier die Einheit Pascal vorgeschrieben. Wie bereits erwähnt nimmt unser Gehör einen weiten Schalldruckbereich auf. Dieser reicht von 20µ Pascal bis max. 150 Pascal, was einem Verhältnis von 1:7,5 Millionen entspricht. Um diesen enormen Wertebereich besser darzustellen, wurde der Schalldruckpegel eingeführt. Er beschreibt das logarithmische Verhältnis von einem gemessenen Wert zu einer festen Bezugsgröße. So wurde der Mindestschalldruck p0 = 20µ Pa als 0 dB(SPL) festgelegt. Der wahrnehmbare Pegelbereich des menschlichen Gehörs reicht somit von 20µ Pa = 0 dB SPL bis 150 Pa = 137,5 dB SPL (kurzzeitig). Abb. 10: Tabelle der Schalldruckpegel mit entsprechendem Schalldruck.1 Beispiele

Schalldruckpegel Schalldruck in dB SPL

p

2

in N/m = Pa

Düsenjäger in 30 m Entfernung

140

200

Schmerzschwelle

130

63,2

Unwohlseinsschwelle Kettensäge in 1 m Entfernung

120 110

20 6,3

Disco 1 m vom Lautsprecher Dieselmotor 10 m entfernt

100 90

2 0,63

Rand einer Verkehrsstraße 5 m Staubsauger in 1 m Abstand

80 70

Normale Sprache in 1m Abstand

60

0,02

Normale Wohnung, ruhige Ecke Ruhige Bücherei in der Ferne

50 40

0,0063 0,002

Ruhiges Schlafzimmer bei Nacht Ruhegeräusch im TV-Studio

30 20

0,00063 0,0002

Blätterrascheln in der Ferne

10

0,000063

Hörschwelle

1

0

0,2 0,063

0,00002

Ursprung: http:// www. sengpielaudio.com/TabelleDerSchallpegel.htm, 08/2006.

10

2.4.2 Bewertungsfilter Da unser Gehör die leisesten wahrnehmbaren Schalldrücke frequenzabhängig bewertet, wie an der Ruhehörschwelle ersichtlich, stellt sich auch selbiges Phänomen bei lauteren Schalldruckpegeln ein. Dieser Effekt wurde in den „Kurven gleicher Lautstärkepegel“ festgehalten.1 Abb. 11: Kurven gleicher Lautstärkepegel.2

Eine Kurve beschreibt hier die immer gleich empfundene Lautstärke beim erforderlichen Schalldruckpegel für den hörbaren Frequenzbereich. Wir bemerken ebenfalls eine erhöhte Wahrnehmung um 4 kHz, ähnlich wie bei der Ruhehörschwelle. Zu lauteren Schalldrücken hin lässt sich aber eine zunehmende Ausgewogenheit der Wahrnehmung feststellen. Aufgrund dieser Eigenschaft unseres Gehörs wurde für akustische Messungen der bewertete

Schallpegel

eingeführt.

Er

berücksichtigt

daher

speziell

die

Frequenzen zwischen 500 und 5000 Hz, bzw. die darüber und darunter liegenden Bereiche weniger. Je nach Lautstärke werden nach DIN EN 60651 andere Filterkurven bei der Messung eingesetzt.3

1 2 3

Vgl. Dickreiter, M. : Handbuch der Tonstudiotechnik, Bd. 1, K.G. Sauer Verlag 1997, S. 110. Ursprung: http:// www. soundperformancelab.com/pdf/OM_D/9739_OM_D.pdf, 08/2006. Vgl. Dickreiter, M. : Handbuch der Tonstudiotechnik, Bd. 1, K.G. Sauer Verlag 1997, S. 9.

11

Abb. 12: Bewertungsfilter A,B,C,D und Empfindlichkeit des Gehörs.1

Das gebräuchlichste Maß ist die Filterkurve A nach der Norm der International Electrotechnical Commission IEC (179/A) oder dem Deutschen Institut für Normierung: DIN-Norm für Geräusch. Die Messungen werden in dB A angegeben. Anwendung

finden

die

bewerteten

Pegel

in

den

Messverfahren

bei

der

Raumakustik, der Schallschutztechnik und im speziellen der Geräusch-, Rausch-, Stör- und der Lärmpegelmessung. Abb. 13: Weitere Filterkurven zur Bewertung an technischen Geräten.2

1 2

Ursprung: http:// de. wikipedia.org/wiki/Bild:Akustik_Bewertungsfilter.jpg, 08/2006. Ursprung: http:// www. theimann.com/Analog/A77/A77vsPCM/Analogschatten_3.html, 08/2006.

12

2.4.3 Definition des Pegels Der Pegel L gibt den dekadischen Logarithmus des Verhältnisses zwischen einer gemessenen Energiegröße P1 und der Bezugsgröße P0 an: L = lg ( P1/P0 ); (in Bel) Ein Bel [B] entspricht einem Leistungsverhältnis von 10 : 1 Da ein Bel eine relativ große Maßeinheit ist wird auch das Dezibel [dB] verwendet: L = 10 * lg ( P1/P0 ); (in dB) Bei der Umrechnung von der Energiegröße in eine Feldgröße (z. B. Spannung) leitet sich (nach U=R*I bzw. P=U*I) wie folgt ab: Spannungspegel LU = 10 * lg P1/P0 = 10 * lg (U1²/RA / U0²/RE ) = 10 * lg (U1²/ U0² ) + 10 * lg ( RA / RE ) = 20 * lg (U1 / U0 ) + 10 * lg (RA / RE ) Sind die Widerstände RE und RA gleich groß, so wird der Term: 10 * lg (RA / RE ) = 0.

Somit ergibt sich die Schreibweise: LU = 20 * lg (U1 / U0 ); (in dBu)

___________________________1

Der Bezugswert U0 ist ein historischer Wert aus der Nachrichtentechnik. Um Reflexionen und Leistungsverluste zu vermeiden, wurde bei der Telefontechnik mit Leistungsanpassung gearbeitet, wobei der Innenwiderstand des Verstärkers, wie auch der Lautsprecher im Hörer 600 Ohm betrugen. Dieser wurde dann mit der Leistung von 1 mW betrieben.2

P = U * I = 1mW

U=R*I

I =P/U

U=R*P/U U²= R * P U0= /R * P = /600Ω * 1mW

1 2

≈ 0,775 V

Vgl. Dickreiter, M. : Handbuch der Tonstudiotechnik, Bd. 1, K.G. Sauer Verlag 1997, S. 250. Vgl http:// www. sengpielaudio.com/GeschichteDerSpannungsanpassung.pdf, 08/2006.

13

2.4.5 Herleitung des Schalldruckpegels Lp Bei der Definition anderer Energiegrößen werden die jeweiligen Feldgrößen ersetzt. Die Schallintensität I ist das Produkt aus Schalldruck p und Schallschnelle v (siehe Kapitel 2.1). Schallintensität I = p * v ; (in N*s/m² = W/m²) Die Schallintensität kann ebenfalls als Pegel angegeben werden: Schallintensitätspegel LI = 10 * lg (I1/I0); (in dB SIL) I0 = 10-12 W/m²

Bei der Umrechnung von der Energiegröße des Schallintensitätspegels LI in die Feldgröße des Schalldruckpegels Lp bedienen wir uns dem Gesetz R = U / I und substituieren die Größen wie folgt. Das

Verhältnis

von

p

Schalldruck

zur

Schallschnelle

v

wird

als

Schall-

Kennimpedanz, oder auch als Wellenwiderstand Z0 bezeichnet: Wellenwiderstand Z0 = p / v Wir stellen nach v = p / Z0 um und ergänzen die Gleichung der Schallintensität: I = p * p / Z0 = p²/ Z0 Lp = 10 * lg (I1/I0) = 10 * lg (p1²/ Z0 / p0²/ Z0 )

Eingesetzt:

= 10 * lg (p1²/ p0² )+ 10 * lg ( Z0 / Z0 ) = 20 * lg (p1 / p0 ) + 10 * lg (Z0 / Z0 ) Es gilt außerdem:

Z0 = ρLuft * cLuft

Sind Temperatur wie auch Luftdruck im weitesten Sinne konstant, so ist die Dichte der Luft ρLuft und auch die Schallgeschwindigkeit in der Luft cLuft gleich bleibend. Egal welcher Schalldruck p1 oder p0 auftritt, das Verhältnis zur zugehörigen Schallschnelle

wird

im

selben

Medium

immer

denselben

Wellenwiderstand

hervorrufen und wir können sagen: Z0 = konstant! Somit wird der Term 10 * lg (Z0 / Z0 ) = 0.

Es ergibt sich die Schreibweise für den Schalldruckpegel Lp: Lp = 20 * lg (p1 / p0 ); (in dBSPL)

p0 = 20 µPa

____________________________ Der Schalldruck p ist der effektive Druck, den der Schall auf einen Quadratmeter ausübt. Seine Einheit ist daher Pascal (Pa).

1 Pa = 1 N/m²

14

2.4.6 Entfernungen bei der Angabe von Pegeln Die Energie einer Schallwelle wird bei der Ausbreitung des Luftschalls auf die angrenzenden Luftmoleküle verteilt. Zudem erfährt der Schall durch die Trägheit der Molekühle eine Dämpfung. Daher nimmt der Schalldruck P einer Schallquelle, wie auch sein Pegel Lp mit zunehmender Entfernung r ab (P ~ 1/r). Aus diesem Grund ist bei der Angabe des Schalldrucks, bzw. des Schalldruckpegels, der Abstand der Schallquelle zum Messpunkt mit anzugeben. Für die Praxis: Pro Entfernungsverdoppelung nimmt der Schalldruckpegel Lp um 6 dB ab. Lp = 20 * lg ½ ≈ 6 dBSPL; (Feldgröße)

Die Schallintensität I, wie auch ihr Pegel LI ist die Energie, die auf die Fläche von 1 m² einwirkt. Da bei Vergrößerung des Abstands r zur Schallquelle die Intensität im „quadratischen Abstandsgesetz“ (I ~1/r²) abnimmt, ist bei der Messung ebenfalls die Entfernung von der Schallquelle mit anzugeben. Für die Praxis: Pro Entfernungsverdoppelung nimmt der Schallintensitätspegel LI um 6 dB ab. LI = 10 * lg ¼ ≈ 6 dBSIL; (Energiegröße)

Bei der reinen Leistung ist dies anders: Da sich eine Leistung (im Gegensatz zur Intensität) immer nur auf die zugehörige Energiequelle bezieht, kann die Schalleistung W in Watt auch ohne den Abstand zur Schallquelle angegeben werden. Beispiel: Eine 100 W Glühbirne ist in 100 Metern Entfernung immer noch eine 100 Watt Glühbirne, nur nicht mehr ganz so hell.1

Die Schalleistung W1 einer Schallquelle und die feste Bezugsgröße W0 werden ins Verhältnis gesetzt und bilden durch Logarithmieren den Schalleistungspegel Lw:2

Schalleistungspegel Lw = 10 * lg (W1/W0); (in dBSWL)

1 2

W0 = 10 -12 W

Vgl http:// www. sengpielaudio.com/UnterscheideSchalldruckUndSchall-Leistung.pdf, 08/2006. Vgl. Fasold, M./Veres, E.: Schallschutz+ Raumakustik in der Praxis, Verlag für Bauwesen 1998, S. 23.

15

2.4.7 Absoluter Pegel Beim Umgang mit Pegeln wird der „Absolute Pegel“ und der „Relative Pegel“ unterschieden. Gibt es keine feste Bezugsgröße wie oben beschrieben, so bezieht sich der nun relative Pegel allein auf das Verhältnis der Ausgangsgröße zur Eingangsgröße. In der Tonstudiotechnik wird so der relative Spannungspegel errechnet. Seine Einheit ist ebenfalls das dB. Bei absoluten Pegeln findet sich nach der Einheit noch eine Bezeichnung, die auf die Bezugsgröße hindeutet. Alle Pegel, die zum Beispiel bei einer Messung von akustischen Ereignissen oder in den technischen Daten der Geräte angegeben werden, sollten mit der jeweiligen Bezugsgröße gekennzeichnet werden, da

sonst ein Vergleich mit anderen

Messungen nicht möglich wird. „Äpfel lassen sich bekanntlich schlecht mit Birnen vergleichen.“

Die wichtigsten absoluten Pegel zusammengefasst.

Absoluter Spannungspegel LU:

U0 = 0,775 V ohne Widerstand und Leistungsbezug

Schreibweise: dBu

Absoluter Spannungspegel historisch: Um = 0,775 V ; 1 mW an R0 = 600Ω

Schreibweise: dBm

Absoluter Spannungspegel LU (USA): U0 = 1 V

Schreibweise: dBV

Absoluter Schalldruckpegel Lp:

p0 = 20 µPa

Schreibweise: dBSPL

Absoluter Schallintensitätspegel LI:

I0 = 1 pW/m²

Schreibweise: dBSIL

Absoluter Leistungspegel LP:

P0 = 1 mW

Schreibweise: dBm

Absoluter Schalleistungspegel LW:

W0 = 1 pW

Schreibweise: dBSWL

Weitere festgelegte Standard-Pegel

ARD Rundfunknormpegel:

1,55 V

bei Vollaussteuerung 100% (+6 dBu)

Internationaler Studiopegel (USA):

1,228V

(+4 dBu)

Homerecordingpegel:

0,316V

(-10 dBV) = (-7,78 dBu)

16

2.4.8 Rechnen mit Pegeln Der dekadische Logarithmus macht sich bei der Berechnung der Pegel in vielerlei Hinsicht nützlich. Wie aus der Mathematik bekannt, lassen sich so Multiplikationen auf Additionen und Division auf Subtraktion zurückführen.

Auch die Potenzen werden hiermit erheblich vereinfacht.

In Zeiten ohne Taschenrechner wurde für die Berechnung des eigentlichen Logarithmus ein Rechenschieber benutzt. Abb. 14: Maßvergleich: Oben der 20-fache dekadische Logarithmus, unten Dezimalzahlen.1

Beim Rechnen mit Pegeln sind die linearen Feldgrößen von den quadratischen Energiegrößen zu unterscheiden. Energiegrößen resultieren aus der Multiplikation der linearen Feldgrößen (siehe 2.4.5). Feldgrößen sind zum Beispiel: Spannungen, Ströme, elektrische Widerstände und der Schalldruck. Energiegrößen sind zum Beispiel: Elektrische Leistungen, die Schall-Leistung und die Schall-Intensität. Pegelbildung allgemein: L = 20 * log (x1/x0);

(in dB)

Energiegröße: L = 10 * log (y1/y0);

(in dB)

Feldgröße:

Umrechnung vom Pegel zum Faktor: Faktor (Feldgröße):

x1/x0 = 10( L in dB / 20)

Faktor (Energiegröße): y1/y0 = 10( L in dB /10) X0 bzw. y0 ist die jeweilige Bezugsgröße.1

1

Vgl. Ursprung : http:// www. sengpielaudio.com/Rechner-db.htm, 08/2006.

17

2.4.9 Logarithmierung der Sinne Da die menschliche Empfindung E ebenso wie unser Gehör nach dem WeberFechnerschen Gesetz einem logarithmischen Verhältnis zwischen Reizzuwachs R und Reizschwelle R0 folgt, ist der Logarithmus bei der Darstellung von Pegeln ebenfalls vorteilhaft. Weber-Fechnersches Gesetz:

Weber fand in diesem Zusammenhang die Webersche-Konstante k, die für die verschiedenen Sinne unterschiedliche Werte einnimmt. Beispiel zur Wahrnehmung der Lautstärke: Für

die

subjektive

Wahrnehmung

einer

Lautstärkeverdopplung

wurde

im

empirischen Versuch ein Zuwachs von +10 dB des Schalldruckpegels ermittelt. Eine Verdoppelung des Schalldrucks entspricht aber objektiv nur einem Zuwachs von rund 6 dB: Lp = 20 * lg (2 Pa/ 1 Pa ) ≈ + 6 dB SPL Wir benötigen vielmehr einen ungefähr dreimal so hohen Schalldruck wie am Anfang, denn: L = + 10 dB ! = 20 * lg ( X / 1 Pa );

(Grundlautstärke: 1 Pa)

Umstellen nach X: 10 (10 dB / 20[dB]) = X / 1 Pa 10 0,5 * 1 Pa = X X = 3,16 Pa ! Dies hängt mit dem Logarithmieren unserer Sinne zusammen.

Der empirisch ermittelte Wert für eine viermal so laute Empfindung liegt bei einer Schalldruckpegelerhöhung von + 20 dB. Rechnerisch ermitteln wir bei derselben Grundlautstärke wie oben: Lp = + 20 dB ! = 20 * lg ( X / 1 Pa ) Umstellen nach X: 10 (20 dB / 20[dB]) = X / 1 Pa 10 1 * 1 Pa = X X = 10 Pa ! Demnach muss für eine vierfache Lautstärkeempfindung schon ein zehnfacher Schalldruck erzeugt werden.

18

Zeichnen wir die empfundene Lautstärke als Funktion des Reizes, d.h. der tatsächlichen Schalldruckerhöhung, in ein Diagram, so wird die Funktion des Logarithmus sichtbar: Abb. 15: Empfindungs-Reiz-Diagramm.

Die Funktion des Logarithmus weist also eine zunehmende Kompression zu lauten Schalldrücken hin auf und besagt, dass unser Gehör, bzw. unser Empfinden leise akustische Ereignisse dynamisch besser auflöst als laute. Dies ist eine praktische Eigenschaft der Natur, da leise akustische Informationen meist von Störgeräuschen beeinflusst werden. Die Kompression von lauten Signalen hilft dabei, die Grenze von „leise“ zu „laut“ weiter zu erhöhen.

2.4.10 Dämpfung und Verstärkungsfaktor Wird ein Signal in Form einer Spannung über ein reales (nicht ideales) Kabel übertragen, stellt sich am Ende der Übertragungsstrecke eine Dämpfung ein. Betrachtet man die Übertragungsstrecke als Vier-Pol, wobei das Eingangssignal an den ersten zwei Polen anliegt und das Ausgangssignal an den beiden anderen, so ist der Dämpfungsfaktor D das Verhältnis von Eingangsspannung UE zur Ausgangsspannung UA. Ist das Ausgangssignal größer als das Eingangssignal, so wird von einer Verstärkung gesprochen. Der Verstärkungsfaktor ist das Verhältnis von Ausgangsspannung UA zur Eingangsspannung UE und entspricht dem Kehrwert des Dämpfungsfaktors. Abb. 16: Vier-Pol als Verstärker.

Der Verstärkungsfaktor v kann ebenfalls als Pegel ausgedrückt werden. Er wird dann als Verstärkungsmaß L bezeichnet: L = 20 * lg (UA/UE);

(in dB)

Ein negatives Verstärkungsmaß wird als Dämpfung bezeichnet.

19

2.5

Systemdynamik

2.5.1 Signal-Rauschabstand In

der

heutigen

Audiotechnik

sind

elektronische

Geräte

nach

wie

vor

Hauptbestandteil bei der Signalverarbeitung. Analog zum menschlichen Gehör haben diese elektro-akustischen Systeme Grenzen, die ihren Dynamikumfang definieren. So produziert jedes dieser Systeme eine Störgröße, nämlich Rauschen, das sich dem eigentlichen Nutzsignal bei der Übertragung aufaddiert. Zudem sind alle

diese

Geräte

an

gewisse

Maximalpegel

gebunden

und

weisen

bei

Übersteuerung mehr oder weniger starke Verzerrungen auf. Die maximal mögliche Systemdynamik liegt somit zwischen Grundrauschen und Übersteuerungsgrenze. Sie ist eines der wichtigsten Qualitätsmerkmale von Audiokomponenten. In den technischen Daten der Geräte geht sie aus dem Verhältnis vom SignalRauschabstand SNR (Englisch: signal-to-noise ratio) (früher Fremdspannungsabstand) hervor. 1 Der Signal-Rauschabstand wird in der Audiotechnik über das Verhältnis der Effektivwerte der maximalen Signalspannung Ueff,Signal und der so genannten unbewerteten Störspannung Ueff,Noise (siehe 2.5.2) gebildet.2 Die maximale Signalspannung wird für analoge Aufzeichnung bei einem Klirrfaktor (siehe 2.5.3) von 1 % bzw. einer Klirrdämpfung von 40 dB gemessen. Analoge Studio-Tonbandgeräte weisen diesen Wert in der Regel bei Vollaussteuerungspegel /Nennpegel (+6 dBu) auf. Die digitale Aufzeichnung zeigt wiederum kaum Klirrverzerrungen auf, zumindest bis zum Erreichen der Übersteuerungsgrenze. Danach nehmen die Verzerrungen im Gegensatz zum Tonband in einem extrem großen Maß zu. Deswegen wird die maximale Signalspannung bei der digitalen Signalübertragung direkt an der „Clippinggrenze“ ermittelt: digital O dBFS (Full Scale, höchster digital erreichbarer Wert).

3

Der Pegel des Signal-Rauschabstands entsteht durch die 20 fache dekadische Logarithmierung.2 SNRldB = 20 * lg (Ueff,Signal /Ueff,Noise);

1 2 3

(in dB)

Vgl. auch Dickreiter, M. : Handbuch der Tonstudiotechnik, Bd. 1, K.G. Sauer Verlag 1997, S. 268. Vgl. http:// de. wikipedia.org/wiki/Signal-Rauschabstand, 08/2006. Vgl. Dickreiter, M. : Handbuch der Tonstudiotechnik, Bd. 1, K.G. Sauer Verlag 1997, S. 259ff.

20

2.5.2 Rauschen Rauschen entsteht durch die Eigenschaften der Elektronen in elektro-akustischen Systemen. Wärme bedeutet Elektronenbewegung. So bewegen sich die Elektronen auch im stromlosen Zustand aufgrund der Brownschen Bewegung ungeordnet bei jeder Temperatur größer 0 Kelvin (0 Kelvin [Absolute Temperatur] = -273,15° C). Dies

bewirkt

eine

mit

Spannungsschwankung Phänomen

wurde

der

am

von

Temperatur

Ende

John

eines

und jeden

Bertrand

dem

Widerstand

elektrischen

Johnson

um

steigende

Leiters. 1

1928

Dieses

experimentell

nachgewiesen und von da an als Johnson oder auch Thermisches Rauschen bezeichnet. Thermisches Rauschen ist ein „weißes Rauschen“, das ähnlich wie weißes Licht, Spektrale über alle Frequenzen des wahrnehmbaren Bereichs gleichermaßen aufweist. Es entsteht in jedem elektronischen Übertragungsweg, also auch in jedem Kabel.2 In komplexen Schaltkreisen treten zudem noch andere Formen von Rauschen auf. Beim Elektronenübergang an Elektroden bei Übergang

von

Leitern

mit

der Röhrentechnik oder dem

unterschiedlichem

Potential

sowie

Halbleiterdotierung, geht immer mindestens ein ganzes Elektron

bei

der

über die

Schwelle. Da die Elektronen im Einzelnen eine feste Elementarladung aufweisen, ist ein Stromfluss nicht unendlich fein, sondern körnig. Das daraus resultierende Rauschen wird deshalb als Schrotrauschen bezeichnet.3 Alle, auch die hier nicht genannten Rauscharten (zum Beispiel Brummen), bilden zusammen

das

Eigenrauschen

bzw.

das

Grundrauschen

einer

elektrischen

Schaltung. Da es mathematisch schwer für komplexe Schaltungen zu bestimmen ist, wird das gesamte Eigenrauschen am besten durch Messung des Effektivwerts der so genannten

unbewertete

Störspannung

Ueff,Noise

(früher

Fremdspannung)

bestimmt. In den technischen Daten der Geräte geht diese jedoch oft nur aus dem SignalRauschabstand oder gar nicht hervor. Abb. 17: Zeitverlauf und Frequenzspektrum des „weißen Rauschens“.

Die Grafik zeigt die zufallsartige (stochastische) Verteilung der Pegelspitzen des Rauschens über den Zeitverlauf links und das Frequenzspektrum rechts.

1 2 3

Vgl. http:// www. infobitte.de/free/lex/wpdeLex0/online/r/ra/Rauschen_-Physik-.htm, 08/2006. Vgl. auch: http:// www. sengpielaudio.com/Rechner-rauschen.htm, 08/2006. Vgl. http:// www. hameg.com/downloads/fachartikel/HAMEG_Rauschen.pdf, 08/2006.

21

2.5.3 Nichtlineare Verzerrungen Der Klirrfaktor K steht für das Maß an nichtlinearen Verzerrungen bei der Übersteuerung

eines

Systems.

Nichtlineare

Verzerrungen

entstehen

an

elektronischen Bauteilen, die eine nichtlineare Kennlinie von Spannung und Strom aufweisen (Transistor, Röhre, Dioden). Tritt das Signal in den nichtlinearen Bereich der

Kennlinie

ein,

(Harmonische),

die

entstehen den

zusätzliche

ganzzahligen

Frequenzen,

Vielfachen

Oberschwingungen

der

Grundschwingung

entsprechen. Die dadurch entstandenen hochfrequenten Geräuschanteile lassen das ursprüngliche Signal härter, höher und lauter erscheinen und erinnern im weitesten Sinne an ein Klirren, daher der Begriff Klirrfaktor.1 Mathematisch lässt sich der Klirrfaktor K aus dem Verhältnis der Effektivwerte der Spannungen

aller

Oberschwingungen

U2-N

zu

den

Effektivwerten

aller

Oberschwingungen plus der Grundschwingung U1 bestimmen. Der Klirrfaktor K ist so immer


60 dB (bis 80 dB mit Kompandersystem)

UKW (FM) Radio, Empfänger:

ca. 70 dB (Stereo)

Vinyl-Schallplatte:

< 60 dB (70 dB mit Direct Metal Mastering)

MC (Music Cassette):

ca. 50 bis 60 dB (ohne Dolby)

5.3

Notwendigkeit einer Einengung der Dynamik

Bei der elektroakustischen Signalverarbeitung wird die Originaldynamik einer Schallquelle auf die Systemdynamik der nachfolgenden Geräte übertragen. Dabei soll die Originaldynamik im weitesten Sinne erhalten bleiben, ohne dass Rauschen oder Verzerrungen zu einer Beeinträchtigung derselben führen. Eine an die Systemgrenzen

angepasste

Aussteuerung

ist

somit

oberstes

Ziel,

um

die

vorhandene effektive Systemdynamik auszunutzen. Ist

die

effektive

Systemdynamik

dennoch

kleiner

als

die

aufzunehmende

Originaldynamik einer Schallquelle, muss eine technisch notwendige Einengung der Dynamik vorgenommen werden, um das komplette Signal zu übertragen. Durch diese Einengung wird zwar die Dynamik kleiner, aber eine Störung des Signals durch Rauschen oder Verzerrungen effektiv vermieden.

1

Vgl. Dickreiter, M.: Handbuch der Tonstudiotechnik, Bd.1, K.G. Sauer Verlag 1997, S. 269.

36

5.4

Wiedergabedynamik

Durch den technischen Fortschritt ist die effektive Systemdynamik der Aufnahmeund Übertragungsmedien meist größer als die abhörseitige Wiedergabedynamik. Sie

resultiert

aus

dem

Verhältnis

des

maximalen

Abhörpegels

und

den

umweltbedingten Störgeräuschen am Ort der Wiedergabe. Die Wiedergabedynamik gestaltet sich dabei je nach Umgebung und die dadurch verbundenen Störgeräusche unterschiedlich. Die Wiedergabe beim Autofahren wird zum Beispiel durch Laufgeräuschen des Motors, sowie Wind und Verkehrslärm beeinflusst. In einer Wohnung hingegen ist die Wiedergabedynamik größer, da hier oft nur mit geringen Störgeräuschen technischer Geräte zu rechnen ist. Wie sich aber ein lauter Nachbar auf die Wiedergabedynamik im eigenen Zimmer auswirken kann soll an folgendem Beispiel verdeutlicht werden: Bei einer durchschnittlichen Abhörsituation muss von einem Störpegel von ca. 35 bis 40 dBSPL ausgegangen werden. Die Vorschrift (nach DIN 4109, BL. 2) für eine Wanddämpfung in einem Mehrfamilienhaus beträgt wiederum 40 bis 50 dB. Der maximale Schalldruckpegel für die Wiedergabe liegt somit bei 75 bis 85 dBSPL, da diese Lautstärke einen maximal zulässigen Störpegel von 35 dBSPL beim Nachbar verursacht. Daraus resultiert eine Wiedergabedynamik von 40 bis 50 dB.1 Eine umfangreiche Originaldynamik, wie sie zum Beispiel bei einem Orchester gegeben ist, muss dementsprechend auf eine Programmdynamik, die der Wiedergabedynamik

beim

Hörer

entspricht

eingeengt

werden.

Diese

Dynamikeinengung wird durch so genannte dynamische Effekte vorgenommen. Abb. 27: Dynamik einer Übertragungskette.2

1 2

Vgl. Dickreiter, M.: Handbuch der Tonstudiotechnik, Bd.1, K.G. Sauer Verlag 1997, S. 267ff. Ebd., S.268.

37

6.

Dynamische Effekte

6.1

Regelverstärker als dynamischer Effekt

Dynamische Effekte werden durch so genannte Regelverstärker oder im Rechner durch

entsprechende

bedingt

durch

ihre

Verstärkungsmaß

Rechenschaltungen elektrische

variiert

realisiert.

Schaltung

werden.

Durch

mit

Regelverstärker

einer

geschickte

können

Steuerspannung Verschaltung

im

werden

automatische Regelvorgänge möglich, die präziser und schneller als der Mensche in das Signal eingreifen können. Dynamische Effekte können unter anderem auch zur Klanggestaltung beitragen. Im Folgenden sollen verschiedene dynamische Effekte vorgestellt werden.

6.2

Der Kompressor

Kompressoren werden für die oben beschriebene Einengung der Dynamik verwendet.

In

diesem

Zusammenhang

wird

auch

von

einer

Kompression

gesprochen. Die Arbeitsweise eines Kompressors lässt sich am einfachsten anhand seiner Kennlinie erklären: Abb. 28: Kennlinie eines Kompressors.1

Die Kompression erfolgt in einem einstellbaren Verhältnis (Ratio). Der Kompressor beginnt erst dann zu komprimieren, wenn eine Ratio kleiner 1:1 eingestellt ist und die Amplitude des Eingangssignals größer wird als ein gewisser Schwellwert (engl. Threshold). Dieser Schwellwert kann dem Eingangssignal angepasst werden.

1

Ursprung: Henle, Hubert: das Tonstudio Handbuch, GC Carstensen Verlag 2001, S. 273.

38

Die Kennlinie von dynamischen Effekten hat Ähnlichkeit zu denen nichtlinearer Bauteile. Nichtlineare Kennlinien erzeugen Verzerrungen (siehe 2.5.3). Da diese Klirrverzerrungen unerwünscht sind, setzt der Regelvorgang der dynamischen Effekte nicht sofort nach Unter- bzw. Überschreiten des Thresholds ein bzw. aus, sondern kann über Parameter eingestellt werden: Die so genannte Rücklaufzeit (engl. Release Time) bestimmt, wie lange nach Einsetzen der Kompression das Signal anschließend wieder 63 % der originalen Aussteuerung erreicht hat. Dadurch werden auch leisere Signalanteile, nach kurzen Pegelspitzen, die über den Schwellwert gelangen, automatisch leiser „gefahren“. So bleibt auch ein tonales Signal bei entsprechender Rücklaufzeit unverzerrt. Je nach dynamischer Signaleigenschaft werden zu lange Rücklaufzeiten (300 1000 ms) als „Pumpen“

wahrgenommen. Kompressoren mit Rücklaufzeiten von

mehr als einer Sekunde werden als „Leveler“ bezeichnet. Hierbei wird lediglich der Durchschnittspegel von dynamisch komplexen Signalen durch die anhaltende Kompression über längere Zeiträume abgesenkt. Eine maximale Erhöhung des Durchschnittspegels wird mit der kürzesten Rücklaufzeit erreicht. Dadurch wird das Signal „verdichtet“. Der Klangeindruck intensiviert sich und gewinnt an Durchsetzungskraft. Zu kurze Regelzeiten machen sich wiederum durch „Flattern“ des Kompressors bemerkbar. Damit die dynamische Bearbeitung nicht sofort einsetzt, kann die Ansprechzeit (engl. Attack Time) fein justiert werden. Sie ist die Zeit nachdem eine Pegelspitze eine Kompression von 37 % auslöst. Dadurch können die Transienten (siehe 2.2.1) am Anfang von perkussiven Geräuschen mehr oder weniger beeinflusst werden. Die durch die Kompression entstandene Pegelreduktion (engl. Gain Reduction) der lautesten Signalanteile kann über eine lineare Verstärkung (engl. Gain) des Ausgangssignals ausgeglichen werden. Im Bezug auf das Eingangssignal werden dadurch leise Signale angehoben, wobei die Anhebung zu lauten Signalen hin im Verhältnis der Ratio abnimmt. Der Kompressor trägt in einem gewissen Rahmen zur „Durchhörbarkeit“ bei. Die Lautstärken-Unterschiede gleichen sich so auf angenehme Art aus. Leise Signale werden besser verständlich und laute schmerzen nicht im Ohr. Allerdings wird eine Kompression mit einer Ratio über 1:3, gepaart mit einer Pegelreduktion von mehr als 6 dB schnell wahrnehmbar. Dies äußert sich in einem „matschigen Sound“ durch die „Überkompression“.

39

6.3

Der Limiter

Limiting ist der englische Begriff für Begrenzen. Der Limiter weist dieselbe Arbeitsweise auf wie der Kompressor. Eine Einengung der Dynamik findet hierbei jedoch nur durch die Begrenzung der lautesten Pegelspitzen statt, weshalb der Limiter oft als Schutz vor einer Übersteuerung der nachfolgenden Geräte genutzt wird. Der Threshold ist deshalb in der Nähe der Aussteuerungsgrenze zu platzieren, bzw. dort wo ein Maximalpegel des Eingangssignals vermutet wird. Da die Pegelspitzen meist sehr kurz sind, werden die Regelzeiten gegenüber der Kompression viel niedriger gewählt. Das Kompressionsverhältnis ist beim Limiter 1:

∞. Schon bei einer Ratio größer 1:8 wird von einer Begrenzung gesprochen.

Die Kennlinie des Limiters ähnelt wegen der hohen Ratio der eines Transistors im Sättigungsbereich. Dadurch wird deutlich, dass die Rücklaufzeit nicht unendlich klein werden darf, weil sonst Verzerrungen hörbar werden. Moderne Limiter weisen eine Automatik auf (engl. Automatic Release Control), die die Rücklaufzeit permanent an das Programmsignal anpasst. Mit dieser Automatik werden die kürzesten Regelzeiten erreicht. Daraus resultiert wiederum eine Erhöhung der Durchschnittslautstärke. Im digitalen Bereich stehen weitere Verfahren zur Verfügung, um Verzerrungen zu vermindern: „Look Ahead”-Verfahren: Durch eine digitale Verzögerung kann das Signal schon im Vorfeld berechnet werden. Der Limiter arbeitet so schneller und effektiver. „Soft Clipping”-Funktion: Durch eine Rundung der Kennlinie beim so genannten „Soft-Limiter“ wird auf digitaler Ebene eine analoge Bandsättigung simuliert. Das Resultat ist eine stufenlos übergehende und dadurch weiche Begrenzung, die meist als angenehmer empfunden. Der so genannte „Brickwall-Limiter“ ist die neueste Innovation auf digitaler Ebene. Er verhindert, dass Signale über längere Zeiträume direkt an der Systemgrenze bei 0 dBFS abgeschnitten werden. Die automatischen Regelzeiten werden

dafür

entsprechend

angepasst.

Für

eine

sichere

Ermittlung

von

potenziellen Übersteuerungen werden drei Samples, die in Folge einen Wert von 0 dBFS erreichen als „Over“ interpretiert. Moderne „Brickwall-Limiter“ machen sich die Technik des Oversamplings zunutze, indem sie vor dem Limiting die Samplingfrequenz erhöhen. Dadurch werden die Regelzeiten nochmals verkürzt und Verzerrungen beim anschließenden Downsampling weiter reduziert. Dies wirkt einer frühzeitigen Gehörermüdung durch Verzerrungen entgegen. Das Signal kann so maximal verdichtet werden.1

1

Vgl. Tischmeyer, Friedemann: Sound&Recording, Ausgabe 8/2006, Music-Media-Verlag, Köln.

40

6.4

Expander und Gate

Der Expander vergrößert im Gegensatz zum Kompressor die Dynamik eines Signals. Dies geschieht durch kontinuierliche Absenkung des Eingangssignals, das kleiner als der Threshold ist. Durch die Absenkung wird erreicht, dass leise Signalanteile

oder

sogar

Störgeräusche

quasi

ausgeblendet

werden.

Die

„Rücklaufzeit“ wird jetzt zur „Einsatzzeit“ und bestimmt, wann ein Signal nach Unterschreiten des Thresholds im Pegel reduziert wird. Dadurch bricht ein leises Signal nicht sofort ab, sondern wird über den gewählten Zeitraum zunehmend leiser. Die

Ansprechzeit

bestimmt,

wann

der

Pegel

des

Eingangssignals

nach

Überschreiten des Thresholds wieder die volle Aussteuerung erreicht. So können anfängliche Störgeräusche der Signale wirkungsvoll beseitigt werden. Dies sind zum Beispiel Schmatzgeräusche, die durch das Öffnen des Mundes entstehen. Die Ratio bestimmt das Verhältnis der Pegelreduktion. Abb. 29: Kennlinie Expander links und Gate rechts.1

Je steiler die Kennlinie, desto mehr werden leise Signale ausgeblendet. Bei einer Ratio von 1:



wird das Signal entweder durchgelassen oder nicht. Diese

Funktion wird als Gate (englisch für Tor) bezeichnet. „Gates“

werden

zum

Beispiel

bei

Schlagzeugaufnahmen

in

der

Popmusik

eingesetzt, um das Übersprechen der jeweils anderen Instrumente bei der Mikrofonierung auf ein Minimum zu reduzieren. Außerdem wird der eigentliche „Sound“ der Trommel bei geeigneter Einstellung des „Gates“ so verkürzt, dass das Schlagzeug knackiger, bzw. perkussiver klingt. Das Maß der maximalen Absenkung ist bei Expander und Gate einstellbar, wodurch das Signal nicht gänzlich verstummt. Eine Komplettabsenkung kann unter Umständen unnatürlich wirken.

1

Ursprung: Henle, Hubert: das Tonstudio Handbuch, GC Carstensen Verlag 2001, S. 283f.

41

6.5

Frequenzselektive Kompression

Der bekannteste frequenzselektive Kompressor ist der „De-Esser“. Er soll allein die hochfrequenten Anteile der menschlichen Stimme absenken, bei denen „S-“ und Zischlaute vorkommen. Während beim gewöhnlichen Kompressor jedes Signal unabhängig von der Frequenz bei einem Pegel größer als der Threshold eine Kompression auslöst, wird der frequenzselektive Kompressor nur von einem bestimmten Frequenzband beeinflusst. Dies wird durch einen Bandpassfilter im so genannten „Side-Chain“ realisiert. Ein „Side-Chain Kompressor“ hat zwei Eingänge und nur einen Ausgang. Ein Eingang ist wie üblich für das zu bearbeitende Signal, ein anderer für ein Steuersignal, das zwar das eigentliche Signal beeinflusst, aber selbst nicht dem Ausgangssignal zugeführt wird. Beim De-Esser besteht das Steuersignal aus dem Frequenzanteil, der bei Sprache im besten Fall nur noch „S-“ und Zischlaute aufweist. Eine Kompression des Gesamtsignals wird immer nur dann ausgelöst, wenn ein solches Signal auch tatsächlich vorhanden ist. Eine zu hohe „S-Reduktion“ wirkt sich bei der menschlichen Sprache allerdings negativ als ein „Lispeln“ aus. Die Kompression kann aber auch durch jedes andere Signal im „Side-Chain“ gesteuert werden (Ducking Effekt). Der größte Nachteil einer solchen frequenzselektiven Kompression ist, dass andere signalnützliche Frequenzanteile, durch ein beliebiges frequenzselektives Signal im „Side-Chain“, ebenfalls beeinflusst werden.

6.6

Multibandkompression

Bei der Multibandkompression handelt es sich um eine spezielle Art der frequenzselektiven Kompression, wobei das Gesamtsignal durch Filterung in beliebig viele Frequenzbänder aufgeteilt wird. In der Praxis stehen meist 2 bis sechs Bänder zur Verfügung. Dabei kann jedes Band einzeln mit einem eigenen Kompressor

bearbeitet

werden.

Anschließend

werden

die

einzelnen

Frequenzbänder wieder zu einem Gesamtsignal zusammengemischt. Die

Einzelbandkompression

compression”)

weist

(engl.

einen

„single

band“,

entscheidenden

oder Nachteil

auch

„broad

band

gegenüber

der

Multibandkompression auf: Die für jeden Klang spezifischen Obertöne (siehe 2.2.1 ) werden bei der Einzelbandkompression im selben Maß wie die Grundtöne komprimiert. Diese Grundtöne liegen bekanntlich tiefer und weisen mehr Energie auf als die Obertöne. So lösen diese Grundtöne in erster Linie eine Kompression aus, worunter dann die Obertöne leiden. Dadurch entsteht bei einer übermäßigen Einzelbandkompression ein hörbar dumpfer Klang. Bei der Multibandkompression kann dieser Effekt durch optimale Bearbeitung der einzelnen Bänder vermieden und der Durchschnittspegel weiter erhöht werden. 42

Anwendung findet die Multibandkompression auf einzelnen Signalen, wie Stimmen und Instrumenten. Ebenfalls lassen sich so zum Beispiel wirkungsvoll „S-“ und Zischlaute der menschlichen Stimme reduzieren, ohne dass tiefere Frequenzen des Gesamtsignals beeinflusst werden. Außerdem wird die Multibandkompression bei der Bearbeitung von Summensignalen eingesetzt. Hierbei kann durch geschickten Eingriff in die einzelnen Bänder der Klang einer Mischung korrigiert und gleichzeitig effektiv komprimiert werden. Eine weitere Form der Multibandkompression stellt das artverwandte „MultibandLimiting“ dar, das im Besonderen beim Mastering seinen Einsatz findet (siehe Kapitel 8). Abb. 30: Software Multiband Limiter: Waves L3 Multimaximizer.1

1

Ursprung: WAVES : L3 software guide, Seite 1.

43

7.

Aussteuerung

7.1

Das Mischpult

Die Pegel der einzelnen Signale werden über so genannte Pegelsteller (engl. Fader) ausgesteuert, die als Schieberegler oder Drehpotentiometer in einem Mischpult integriert sind. Das Mischpult im Tonstudio wird auch als Regiepult bezeichnet, wobei der Toningenieur die Regie über die einzelnen zu verarbeitenden Signale führt. Hierbei werden die verschiedenen Signale in ihrer Lautstärke angepasst und gemischt. Die Pegel können dabei über Aussteuerungsanzeigen kontrolliert werden. Sie stehen oft in jedem Kanalzug sowie in der Summe für die gesamte Mischung zur Verfügung. Letztendlich wird die Mischung aber über die Lautsprecher und durch das geschulte Gehör des Toningenieurs beurteilt. Abb. 31: Einfacher Aufbau eines Mischpultkanals.

Das Mischpult besteht aus mehreren identisch aufgebauten Kanalzügen, die zu einem Summensignal zusammengeführt werden. So besitzt ein Kanalzug einen Vorverstärker, der meist stufenlos von Mikrofon- über Linepegel bis zu einer zusätzlichen Verstärkung einstellbar ist. Des Weiteren stehen Filter verschiedener Art zur Verfügung. Oft ist hier ein Hochpass, ein Drei- bis Vier-Band-EQ mit parametrischen Mitten vorzufinden (Siehe 2.2.3). Es folgt der bereits erwähnte Schieberegler zum Einstellen des Signalpegels. Zur Platzierung der Signale in einer Stereo- oder Surroundmischung dient ein Panoramaregler. Der Summenkanal verfügt ebenfalls über Schieberegler und ist als Bus ausgelegt. Er besitzt daher meistens zwei separate Signalwege für eine Stereomischung. Bei heutigen Surroundlösungen sind aber auch mehrspurige Busse üblich. Für eine flexible Verarbeitung der Signale stehen mehrere Abzweigungen an gewissen Punkten im Kanalzug zur Verfügung. So gibt es „Kanal-Inserts“ oder spezielle „Aux-Wege“, um zum Beispiel dynamische Effekte einzuschleifen. Die Abzweigungswege werden über ein Kabel an den vorgesehenen Anschlüssen am Mischpult mit der benötigten Peripherie verbunden. Hierbei wird auch von „Rooting“ gesprochen.

44

7.2

Aussteuerungsrichtlinien

Während die Aufnahme auf ein Aufnahmemedium in der Regel immer voll auszusteuern ist, gelten für die Aussteuerung einer Sendung bei Funk und Fernsehen andere Gesichtspunkte. Bei verschiedenartigen Programmbeiträgen, wie zum Beispiel Sprache und Musik, wirkt das Sprachsignal bei gleicher Aussteuerung immer leiser als Musik.1 Dies hängt mit der Eigenschaft der Aussteuerungsmesser zusammen, die nur den Spitzenpegel der Signale anzeigen. Um eine gewisse „Durchhörbarkeit“ eines komplexen Sendeablaufs zu gewährleisten, ist nicht der Spitzenpegel, sondern vielmehr die empfundene Lautstärke maßgebend. Die

tatsächliche

Lautstärkeempfindung

wird

näherungsweise

durch

den

Durchschnittspegel beschrieben. Der Durchschnittspegel entspricht hierbei dem quadratischen Mittelwert (engl. Root Mean Square, RMS) und kann mit einem Effektivwertmesser ermittelt werden. Abb. 32: Pegelverlauf und Durchschnittspegel für Sprache und Musik.2

Bei Funk- und Fernsehanstalten sind so für ein ausgewogenes Verhältnis der Lautstärke

im

Programmablauf

die

so

genannten

Aussteuerungsrichtlinien

eingeführt worden. Der Toningenieur hat sich bei der Gestaltung eines komplexen Sendeablaufs an die Pegelangaben der Aussteuerungsrichtlinien zu halten. Abb. 33: Aussteuerung der einzelnen Programmbeiträge eines komplexen Sendeablaufs.3

1 2 3

Vgl. Dickreiter M.: Handbuch der Tonstudiotechnik, Bd. 1, K.G. Sauer Verlag 1997, S. 261. Ursprung: Ebd., S. 262. Ursprung: Ebd., S. 265.

45

Abb. 34: Aussteuerungsrichtlinien im Hörfunk der Rundfunkanstalten der ARD.1

„Die Richtlinien gelten für unkomprimierte Signale und müssen bei Kompression sinngemäß abgewandelt werden.“2 Da die Sender heute immer mehr dazu tendieren, nicht nur die Sprache, sondern auch

die

gesamte

Sendung

komprimiert

auszustrahlen,

werden

die

Aussteuerungsrichtlinien nichtig und eine Beurteilung nach dem Gehör gewinnt zunehmend an Bedeutung. Zitat aus einem Bericht der Rundfunktechnik des NDR: „…Allerdings wird der Toningenieur im Einzelfall die Aussteuerung nach dem Charakter der Programme und aufgrund seiner Erfahrung und seines geschulten Gehörs so vornehmen, dass künstlerische Überlegungen, betriebliche Erfordernisse und der Anspruch eines aufmerksamen Hörers berücksichtigt werden.“ Des Weiteren: „…Inzwischen werden Klangregeleinheiten eingesetzt, die Sprache und Musik angleichen.“3 In den Rundfunkanstalten sind heute Klangregeleinheiten, die so genannten „Loudness-Maximizer“, in Gebrauch. Sie erhöhen die Durchschnittslautstärke und gleichen

dadurch

die

Dynamik

der

unterschiedlichen

Programmbeiträge

automatisch aus. Dies wird dem hohen Störpegel beim Autofahren gerecht, nicht aber dem Erhalt der Originaldynamik eines musikalisch anspruchsvollen Beitrags. Durch die Dynamikeinengung mittels eines „Loudness-Maximizers“ stellen sich ebenfalls bei entsprechender Verdichtung die Nebeneffekte einer übermäßigen Kompression ein (siehe 6.2). Doch der „Lautheitswettbewerb“ im Konkurrenzkampf der Rundfunkanstalten geht weiter. Die damit verbundenen Nachteile werden wohlwollend in Kauf genommen, um beim Hörer durch die größere Lautstärke gegenüber einem leiseren Sender besser aufzufallen.

1 2 3

Ursprung: Dickreiter M.: Handbuch der Tonstudiotechnik, Bd. 1, K.G. Sauer Verlag 1997, S. 264. Ebd., S. 264. Im Internet http:// www. 1.ndr.de/ndr_pages_std/0,2570,OID292438,00.html, 08/2006.

46

7.3

Der Crest Faktor

Der Crest Faktor C bildet heute ein gebräuchliches Maß für den Sättigungsgrad einer Signaldynamik. Er stellt das Verhältnis des Spitzenwerts (Peak) Uss zum Effektivwert (RMS) Ueff einer Spannung bzw. des Audiomaterials dar. C = Uss / Ueff „…je kleiner der Crest Faktor, oder das Verhältnis zwischen Peak und RMS auf der Pegel Scala, desto lauter hört es sich an.“1 In diesem Zusammenhang wird auch von „Lautheit“ gesprochen. Der Crest Faktor ist heute in Messgeräten im Masteringbereich der professionellen Studiotechnik

anzutreffen.

So

gibt

er

Aufschluss

auf

den

momentanen

Durchschnittspegel von Audiomaterial, d. h. wie stark die Lautstärkeunterschiede in einem Signal ausgeglichen sind. Der Pegel wird wie üblich durch die 20fache Logarithmierung gebildet: C = 20 * lg (Uss /Ueff );

(in dB)

Durch Logarithmierung wird Division zu Subtraktion (siehe 2.4.8). So lässt sich der Pegel des Crest Faktors auch durch die Differenz des Spitzenpegels (Peak) zum Durchschnittspegel (RMS) bestimmen. Beispiel: „Wenn z.B. die RMS Lautstärke -11 dB und der Spitzenpegel -0,5 dB beträgt, so resultiert daraus ein Crest Faktor von 10,5 dB.“2 C = (Peak) - (RMS) = -0,5 dB - ( -11 dB) = 10,5 dB

Daraus lässt sich folgern, dass der Effektivwert (RMS) bei Vollaussteuerung des Spitzenpegels (Peak) auf 0 dBFS genau dem Crest Faktor entspricht. Jedes gängige Pegelmessgeräte, das in der Lage ist, den Peak- sowie den RMSWert anzuzeigen, kann so Aufschluss auf den Crest Faktor geben.

1 2

http:// www. mes-musik.de/level.htm, 08/2006. Schmidt, Robin: Was ist Mastering, 24-96 Mastering, Seite 5.

47

8.

Mastering

8.1

Ursprung und Trend

Als Mastering wird der Prozess der Übertragung einer Aufnahme auf das Endmedium (Master) bezeichnet. Beim Mastering wird außerdem die Aufnahme für das jeweilige Endmedium optimiert, um eine bestmögliche Wiedergabequalität zu gewährleisten. Mastering hat seinen Ursprung im elektronischen Zeitalter der Herstellung von Schallplatten.

Erst

durch

die

Entwicklung

von

Verstärkern

und

spezieller

Filterschaltungen konnte eine verbesserte Wiedergabe der Schallplatte realisiert werden. Wie bereits erwähnt, ist der Frequenzgang beim Schallplattenschnitt physikalisch bedingt nicht linear. Dabei würden bei einer linearen Übertragung die hohen Frequenzen mit geringerem Pegel aufgezeichnet und dadurch stark durch das Rauschen beeinträchtigt. Um diesem Phänomen entgegenzuwirken, wird der Frequenzgang nach dem Prinzip der „Emphasis/Deemphasis“ bei der Aufzeichnung verzerrt und bei der Wiedergabe entsprechend ausgeglichen und somit entzerrt. Dieser Frequenzgang ist in der so genannten Schneidkennlinie definiert, die beim Schallplattenschnitt zum Einsatz kommt. Abb. 35: Schneidkennlinie für Aufnahme und „Wiedergabe-Entzerrungskennlinie“ nach DIN IEC 98 bzw. DIN 45546 und 45547.1

Für einen möglichst hohen Signal-Rauschabstand ist eine maximale Aussteuerung der Schallplatte erstrebenswert. Der Nachteil der Emphasis ist aber hierbei, dass bei

hoher

Aussteuerung

der

hohen

Frequenzen

Verzerrungen

beim

Schallplattenschnitt entstehen können. Dies muss beim Schallplattenmastering berücksichtigt werden. Hochfrequente Verzerrungen durch Emphasis können aber mittels eines „De-Essers“ vermieden werden (siehe 6.5).

1

Vgl. Ursprung: Dickreiter, M.: Handbuch der Tonstudiotechnik, Bd. 2, K.G. Sauer Verlag 1997, S. 63f.

48

Auch die Aufzeichnung beim Tonband ist nicht linear. Im Wesentlichen sei hier die Aussteuerungskennlinie erwähnt, die einer kubischen Kennlinie gleicht (siehe Abb. 22). So weist das Tonband für hohe Pegel ein Sättigungsverhalten auf und die dadurch

entstehenden

nichtlinearen

Verzerrungen.

Dies

wird

auch

als

Bandsättigungseffekt bezeichnet. Der Effekt kommt bei zu hoher Aussteuerung des Tonbands einer Kompression gleich, inklusive der bereits erwähnten Nebeneffekte. Trotzdem ist auch das Tonband ein rauschbelastetes Übertragungsmedium und sollte daher maximal ausgesteuert werden. Ist der Bandsättigungseffekt dabei unerwünscht, so wird eine gezielte Bearbeitung der Dynamik beim Mastering bedeutsam.1 Im Rahmen der Entwicklung digitaler Tonträger, hat die Industrie mit der CD ein Medium geschaffen, das im Gegensatz zu Schallplatte und Tonband einen linearen Frequenzgang gewährleistet und mit verbesserten Dynamikwerten überzeugt. Eine spezielle Entzerrung beim Mastering wird somit für digitale Tonträger überflüssig. Vielmehr bekommt eine künstlerisch-kreative Gestaltung des Klangcharakters einer einzelnen Aufnahme beim heutigen Mastering eine besondere Bedeutung. Dabei werden die verschiedenen Stücke eines Albums oder einer „Compilation“ aneinander angeglichen. Das Mastering wird heute eher als der letzte Feinschliff der Bearbeitung einer Aufnahme betrachtet.2 Nach wie vor muss aber beim Mastering die Originaldynamik einer Aufnahme an die Wiedergabedynamik beim Hörer angepasst werden (siehe 5.4). Soll eine noch größere Dynamikeinengung zugunsten einer subjektiven Lautstärkeerhöhung vorgenommen werden, so sind die Erfahrungen und das geschulte Gehör eines Mastering-Ingenieurs gefragt. Mastering-Ingenieure genießen einen hohen Stellenwert im Bereich der Popmusik. Sie kennen den jeweiligen Sound der verschiedenen Genres und verfügen über die Mittel, eine Musikproduktion so klingen zu lassen, dass sie im Wettbewerb positiv auffällt. Neben der Bearbeitung des Klangcharakters wird vor allem die Dynamik einer Aufnahme an den derzeitigen Lautstärkegrad des jeweiligen Musik-Genres angepasst. Dies birgt einen Teufelskreis, der sich in der letzten Zeit durch immer lautere Mastering-Produktionen abzeichnet. Doch laut bedeutet nicht immer gleich schön, zumal in einigen Produktionen mittlerweile der Klang auf Kosten des erhöhten

Lautstärkeeindrucks

geht.

Aber

der

Trend

scheint

derzeit

noch

anzuhalten.

1 2

Vgl. http:// www. thomann.de/de/onlineexpert_24_2.html, 08/2006. Vgl. auch: Sandmann, Thomas: Effekte & Dynamics, PPVMEDIEN, Bergkirchen, 2001, S. 22.

49

8.2 Beim

Produktionsmittel beim Mastering Mastering

werden

wenige,

aber

dafür

besonders

hochwertige

Produktionsmittel eingesetzt, um eine hohe Verarbeitungsqualität der Signale zu gewährleisten. Heute wird zwischen dem analogen und dem digitalen Mastering unterschieden. Bei einer rein digitalen Audioproduktion bietet sich auch ein digitales Mastering an. Die Nachteile durch eine zusätzliche A/D-Wandlung (siehe Kapitel 4) oder das Rauschen der analogen Geräte (siehe 2.5.2) kann dadurch vermieden werden. Das digitale Mastering ist heute allein schon durch 24 bit Produktionen mit einer „Samplingrate“ von bis zu 192 kHz auf einem sehr hohen Niveau angelangt. Auch steht heute jeder erdenkliche Effekt und Bearbeitungsalgorithmus in digitaler Form als „Software-Plugin“ für die „Digitale Audio Workstation“ (DAW) zur Verfügung. Die „Software-Plugins“ sind dabei die günstige Alternative zu einer externen Hardwareversion, bei der zusätzlich die Kosten für die Geräteherstellung anfallen. Beim analogen Mastering geht es nicht ohne externes Equipment, das meist sehr teuer ist, aber dafür auch eine äußerst hochwertige Verarbeitungsqualität bietet. Für

ein

analoges

Mastering

spricht

der

spezielle

analoge

Sound

einiger

elektronischer Bauteile, die in der digitalen Ebene schwer nachzuahmen sind. So gibt es neben den Transistoren auch die guten alten Röhren, die früher in Verstärkerschaltungen zum Einsatz kamen. Sie bieten bei hoher Aussteuerung andere Klirrverzerrungen als Transistoren (siehe 2.5.3). Hierbei wird von einem „warmen Röhrensound“ gesprochen, der der quadratischen Kennlinie der Röhre zuzuschreiben

ist.

Auch

Equalizer

wurden

früher

mit

Röhrenschaltungen

aufgebaut. Einige Hersteller benutzten wiederum Spulen statt Kondensatoren zur Umsetzung ihrer Filterschaltungen. Die jeweilige Technik bringt dabei feine Klangunterschiede die sich für die ein oder andere Produktion auch heute noch anbietet. In den 1970’ern wurden optische Kompressoren entwickelt, die durch das

angewandte

optische

Prinzip

einen

großen

Rauschspannungsabstand

erreichten. Der optische Kompressor hat im Vergleich zu den üblichen VCAKompressoren eine spezielle Kompressor-Kennlinie, die ihm einen typischen Sound verleiht. Abb. 36: Kennlinie eines Optokompressors.1

1

Ursprung: Sandmann, Thomas: Effekte & Dynamics, PPVMEDIEN, Bergkirchen 2001, S.34.

50

So wird die alte Technik heute hoch gelobt und erlebt in der letzten Zeit wieder eine kleine Renaissance, nicht zuletzt durch die Anwendung beim analogen Mastering. Beim Masteringprozess ist der Einsatz der Produktionsmittel nicht immer gleich. So wird die Reihenfolge der einzelnen Geräte je nach Bedarf durch ein individuelles bestimmt.1

Rooting

Für

jede

Masteringsession

sollte

aber

mindestens

ein

Equalizer, ein Kompressor, eventuell ein Multiband-Kompressor und in jedem Fall ein „Limiter“ zur Verfügung stehen. Renommierte

Masteringstudios bieten aber

meistens eine kleine Auswahl dieser Geräte analoger sowie digitaler Art, um bei der Gestaltung des Sounds flexibler zu sein. Des Weiteren werden ein Zuspieler und Masterrecorder bzw. eine Digitale Audio Workstation und hochwertige Lautsprecher benötigt. Zur Kontrolle der Pegel können auch ein Pegelmesser und ein „Real-Time-Analyzer“ hilfreich sein (siehe 2.2.5).

8.2.1 Anwendung der Produktionsmittel Beim Mastering wird der Equalizer zur Gestaltung des Klangs eingesetzt. Allerdings beschränkt sich diese Klanggestaltung nicht nur auf das Betonen oder Absenken der einzelnen Frequenzbereiche. So werden zum Beispiel Resonanzfrequenzen, die in einer Mischung negativ auffallen, beseitigt. Eine Nuance brillanter Höhen wird durch

den

dezenten

Einsatz

eines

hochwertigen

Röhren-EQs

im

obersten

Frequenzband erreicht. Allgemein spielt sich die Frequenzgangbearbeitung aber beim Mastering im Bereich weniger Dezibel ab, es sei denn, es handelt sich um Störgeräusche, die wirkungsvoll mit einem steilflankigen „Notchfilter“ unterdrückt werden können. Der Equalizer deckt beim Mastering ein großes Feld an Aufgaben ab und hat daher keinen festen Platz in der Signalverarbeitungskette.

Kompressoren bringen beim Mastering den gewünschten Druck. Attack- und Release-Zeiten werden hier künstlerisch-kreativ eingesetzt und unterstützen den „Groove“ einer rhythmischen Musikproduktion oder sorgen bei entsprechender Regelung

für

den

richtigen

„Punch“

der

„Drums“.

Die

beliebtesten

Masteringkompressoren basieren entweder auf der Röhrentechnik oder arbeiten nach dem Transistor- oder optischen Prinzip mit anschließender Röhrensättigung. So wird bei Produktion in diesem Stadium des Masterings noch ein wenig analoge Wärme durch gezieltes Hinzufügen von dezenten Verzerrungen dazu gewonnen. Das Kompressionsverhältnis hält sich beim Mastering ebenfalls in Grenzen. Der Kompressor wird hier nicht allein zur Gewinnung an Lautheit eingesetzt, sondern vielmehr als ein Stilmittel.

1

Vgl. Schmidt, Robin: Was ist Mastering, 24-96 Mastering, Seite 4.

51

Multibandkompressoren

werden

beim

Einzelbandkompressoren

eingesetzt.

Mastering

Durch

die

meist

separate

noch

vor

den

Kompression

der

einzelnen Frequenzbänder wird die zu masternde Produktion verdichtet und gewinnt an Fülle, ohne dass sie durch die zusätzliche Kompression schon im Vorfeld dumpf wird. Trotz seiner umfangreichen Möglichkeiten der Bearbeitung eines Signals, genießt der Multibandkompressor den geringsten Stellenwert beim Mastering und wird nur dezent oder selten eingesetzt und niemals ausgereizt.

Der eigentliche „Lautmacher“ beim Mastering ist der Limiter. Er steht an letzter Stelle der Produktionskette. Hierbei werden lediglich die Signalspitzen daran gehindert, hörbare Verzerrungen durch Übersteuerungen zu erzeugen. Dadurch lässt sich der Pegel einer Produktion weiter erhöhen, bis an einem gewissen Punkt hörbare Artefakte entstehen. Limiter der digitalen Art sind am effektivsten, da hier diverse

Innovationen

zur Verfügung

stehen, die den Verzerrungen

weiter

entgegenwirken (siehe 6.3). Maximale Lautheit wird so mit einem „MultibandBrickwall-Limiter“ mit „Look-Ahead“ und automatischen Regelzeiten erreicht. Durch den Limiter wird außerdem der Maximalpegel für das Master angepasst. Der Maximalpegel beschreibt dabei die Aussteuerungsgrenze des Endmediums. Der Masterrecorder ist daher in der Regel am Ausgang des Limiters angeschlossen.

Parallel zum Masterrecorder wird das Audiosignal auf die Abhörmonitore geführt. Die Lautsprecher für die Beurteilung einer Masteringproduktion sollten das gesamte Frequenzspektrum des hörbaren Bereichs abdecken. In der Praxis beschreibt dies einen linearen Frequenzgang von ca. 35 bis 20 kHz. Tiefere Frequenzen werden nur noch durch Subwoofersysteme erreicht. Des Weiteren ist auch

ein

alternatives

Abhörsystem

vorteilhaft,

um

einen

handelsüblichen

Lautsprecher eines durchschnittlichen Konsumenten zu simulieren. Eine perfekte Masteringproduktion muss so auf beiden Abhörsystemen „funktionieren“.

8.2.2 Psychoakustikprozessoren Seltener im Einsatz sind die so genannten Psychoakustikprozessoren. Sie machen sich eine spezielle Eigenschaft unseres Gehörs zunutze. Anhand der Ruhehörschwelle können wir eine geringere Wahrnehmung von tiefen und hohen Frequenzen feststellen (siehe 2.3.1). Aus den „Kurven gleicher Lautstärkepegel“ geht jedoch hervor, dass Signale bei einem Schalldruckpegel von 90 dB über den gesamten Frequenzbereich annähernd gleich laut wahrgenommen werden (siehe Abb.11). Durch eine leichte Überbetonung des Bassbereichs und der Höhen

wird

ein

lauterer

Eindruck

des

Gehörten

auch

bei

geringeren

Lautstärkepegeln erzielt. Dieser Effekt ist auch als die so genannte „LoudnessFunktion“ bei HiFi Verstärkern bekannt.

52

Enhancer und Exciter wurden speziell zur Betonung der hohen Frequenzen entwickelt. Der Enhancer verstärkt dabei die Frequenzen, die bereits im Signal vorhanden sind. Er arbeitet nach dem Prinzip eines dynamischen EQs und ist dadurch nichts anderes als ein Multibandkompressor, der nur für ein festes Frequenzband zuständig ist. In abgewandelter Form werden Enhancer auch für den Bassbereich einsetzbar. Der Exciter ist nur für die hohen Frequenzen zuständig. Er fügt dem Signal durch einen speziellen Prozess von Verzerrungen neue Frequenzen hinzu. Dabei generiert er aus den tiefer liegenden Frequenzen neue Obertöne, die er dem Signal aufaddiert.1 Der „Subharmonic Synthesizer“ ist ein spezieller Effekt für die Generierung von Subbassinformationen. Dies wird durch eine Klangsynthese erreicht, die ähnlich wie der Exciter aus den bereits vorhandenen Frequenzen neue Töne erzeugt. So werden unterhalb der Einsatzfrequenz des Subharmonic Synthesizers Töne erzeugt, die genau eine Oktave tiefer liegen, als die tiefsten, im Signal vorkommenden Frequenzen.2 Der Subharmonic Synthesizer wird nur bei extremem Mangel der Frequenzen im Bassbereich angewandt. Dieser Effekt gehört vielmehr in die Mischung und fordert meistens auch eine Entscheidung aus künstlerischen Gesichtspunkten. Die

Stereobasisverbreiterung

gehört

ebenfalls

zur

Gattung

der

Psychoakustikprozessoren. Sie bietet die Möglichkeit, die Stereoanteile einer Mischung zu verstärken. Dies wird auch als eine Vergrößerung der Stereobasis bezeichnet. Im Gegenzug verringern sich dabei die Monoanteile, d. h. die Phantommitte bei der Stereowiedergabe wird abgeschwächt. Eine Stereoaufnahme bekommt so beim Mastering einen „weiten“ und „offenen“ Klang. Bei der Schallplattenherstellung wird die Stereobasisverbreiterung eher zur Verringerung der Stereoanteile genutzt. Aus Monokompatibilitätsgründen wird nämlich das Stereosignal aus dem Differenzsignal der Seitenschrift (horizontale Auslenkung) und der Tiefenschrift (vertikale Auslenkung) gewonnen. Aufgrund dieser Eigenschaften erzeugen hier zu hohe Stereoanteile im Bassbereich bis ca. 250 Hz Verzerrungen und lassen die Nadel aus der Rille springen.3 Die Stereobasisverbreiterung kann mittels eines Richtungsmischers umgesetzt werden. Außerdem wird der Richtungsmischer auch zur Einstellung der Signale der XY- oder MS-Technik verwendet.4

1 2 3 4

Vgl. http:// www. soundperformancelab.com/pdf/PI_D/9739_PI_D.pdf, 08/2006. Vgl. http:// www. dbxpro.com/120A.htm, 08/2006. Vgl. http:// www. thomann.de/de/onlineexpert_24_10.html, 08/2006. Vgl. Dickreiter, M.: Handbuch der Tonstudiotechnik, Bd. 1, K.G. Sauer Verlag 1997, S. 376.

53

Bei einem Richtungsmischer der MS-Technik wird auch von einer „MS-Matrix“ gesprochen.

8.2.3 MS-Matrix Die MS-Matrix basiert auf der einfachen Überlegung: (L+R = M) (L-R = S) mit: M = Mittensignals, S = Seitensignals, L = linkes Signal, R = rechtes Signal. Durch eine MS-Matrix lassen sich beim Mastering Mitten- und Seitensignale separieren. Dies bietet die einzigartige Möglichkeit, Instrumente oder Stimmen, die sich zu großen Teilen nur in einem der beiden Signale befinden, getrennt von den anderen zu bearbeiten. Beim Mastering beeinflusst sonst in der Regel jeglicher Eingriff immer gleich das Gesamtbild („Everything effects everything”)1. Diese Regel wird in gewisser Weise mit Hilfe einer MS-Matrix außer Kraft gesetzt. Die Wirkungsweise einer Bearbeitung mit der MS-Matrix demonstrieren uns auch Karaoke-CD-/DVD-Player,

die

nach

demselben

Prinzip

die

Gesangsstimme

annähernd verschwinden lassen.

Bezüglich des Einsatzes von Produktionsmitteln beim Mastering lässt sich aber generell sagen: Weniger ist oft mehr.

8.3

Premastering und Authoring

Premastering

bezeichnet

die

Erstellung

einer

endgültigen

Kopiervorlage

(Premaster) für die Vervielfältigung einer CD oder DVD in einem Presswerk. Das Premastering

ist

hierbei

die

letzte

Instanz

zur

Fehlerkorrektur

bei

der

Datenübertragung auf das Endmedium, bevor es in einer hohen Auflage vervielfältigt wird. Das Premastering ist der letzte Schritt im Rahmen des Mastering, wird aber als ein eigenständiger Prozess gewertet und sollte daher mit dem reinen Mastering nicht verwechselt werden. Im Gegensatz zum Mastering werden hier keine Klang- oder Dynamikbearbeitungen mehr vorgenommen, es geht vielmehr um eine korrekte Übertragung der Daten. Das Premastering ist dem Authoring bei der Erstellung von DVDs gleichzusetzen, wobei die Daten durch Encodierung in eine vorgeschriebene, standardisierte Form gebracht und anschließend in einem Gesamtkontext auf die DVD verpackt werden. Bei der Audio-CD ist der „Red-Book-Standard“ 1982 von Sony und Phillips als erster Standard festgelegt worden und gilt für die reine Musik-CD bis heute.

1

Vgl. Schmidt, Robin: Was ist Mastering, 24-96 Mastering, Seite 3.

54

Im „Red-Book-Standard“ der Musik-CD ist so zum Beispiel die Auflösung mit 16 bit, die Abtastrate von 44,1 kHz und die maximale Anzahl von 99 Titeln definiert. Auch die maximale Spielzeit wurde schon 1982 aufgrund der damaligen Technik auf

74

Minuten

festgelegt.

Presswerke

akzeptieren

heute

aufgrund

der

fortgeschrittenen CD-ROM-Technik Spiellängen bis ca. 79 Minuten. Zusammen mit korrekturrelevanten Daten werden alle Informationen im so genannten Kanalcode verschachtelt und auf die CD gebrannt. Kopierschutzmechanismen sind übrigens nicht

im

„Red-Book-Standard“

vorgesehen

und

dürfen

daher

von

der

Musikindustrie eigentlich nicht angewandt werden. Erweiterte Musik-CDs bieten die Möglichkeit Audio und computerlesbare Daten zu kombinieren, basieren dann aber auf dem so genannten „Blue-Book-Standard“. Es gibt weitere Standards für diverse Formate der CD, die in den so genanten „Rainbow-Books“ (englisch für Regenbogenbücher) definiert sind. Im Wesentlichen sei hier noch der „Scarlet-Book-Standard“ für die „Super-Audio-Compact-Disc“ (SACD) erwähnt, die einen modernen Tonträger mit erweitertem Dynamikumfang durch eine erhöhte Abtastfrequenz nach dem „Delta-Sigma-Verfahren“ (siehe 4.3) repräsentiert.1 Beim Premastering werden die einzelnen Tracks in die richtige Länge gebracht. Sofern notwendig werden dabei die „Fade-Ins“ und „Fade-Outs“ neu definiert. Außerdem werden die Pausenzeiten zwischen den einzelnen Stücken festgelegt und die Zusammenstellung in ihrer Gesamtheit auf das Premaster übertragen. Dabei sind die Formatstandards, wie Auflösung und Abtastfrequenz und eine eventuelle Qualitätsminderung durch „Requantisierung“ in der digitalen Ebene zu beachten

(siehe

9.2.2).

Das

Authoring

auf

CD

wird

durch

diverse

CD-

Brennsoftware im Rechner bewerkstelligt. Für die spezielle Vervielfältigung einer Audio-CD in einem Presswerk muss im „Red-Book-Standard“ und mit „Disc-AtOnce“ gebrannt werden. Dabei werden alle Daten auf einmal auf die CD geschrieben und die CD anschließend abgeschlossen, sprich „finalisiert“. Ein weiteres Hinzufügen von Daten ist somit nicht mehr möglich. Nach dem Finalisieren der Brennsession ist als Abschluss des gesamten Masteringprozesses ein letztes Testen des Premasters angesagt, um Fehler durch den Brennprozess auszuschließen, bevor diese im Kopierwerk ebenfalls vervielfältigt werden.

1

Vgl. http:// de. wikipedia.org /Premastering /Rainbow_Books#Red_Book /Super_Audio_Compact_Disc, 08/2006.

55

9.

Möglichkeiten zur Erweiterung einer Systemdynamik

9.1

Kompandersysteme

Schon sehr früh wurde eine Vergrößerung der Systemdynamik angestrebt, vor allem um dem Rauschen der damaligen analogen Systeme entgegenzuwirken. So wurde

für

bessere

Bandmaschinen

ein

Geräuschverminderungsverfahren

entwickelt, das heute als Kompandersystem bekannt ist. Der Kompander ist eine Kombination aus einem Kompressor für die Aufnahme und einem Expander für die Wiedergabe (siehe Kpittel 6). In diesem Zusammenhang wird eine ursprünglich große Signaldynamik durch den Kompressor eingeengt, sprich

verkleinert.

Dadurch

kann

sie

der

kleineren

Systemdynamik

des

Übertragungsmediums angepasst werden. Bei der Wiedergabe wirkt ein Expander in umgekehrter Weise für die Expandierung der Signaldynamik zur ursprünglichen Größe. Solche Kompandersysteme werden zur Rauschunterdrückung (engl. Noise Reduction), bzw. zur Vergrößerung des Dynamikumfangs genutzt. Anwendung findet dieses Verfahren bei Tonbandgeräten, analogem Lichtton, sowie bei der Signalübertragung per Funk. Kompandersysteme wurden von verschiedenen Firmen weiterentwickelt. Bekannte Systeme sind zum Beispiel: Dolby A, B, C und S, dbx oder HighCom (Telefunken). Der Nachteil einer solchen Technik ist die Kompatibilität zu anderen Systemen. Ein Signal, das vorher mit einem Kompandersystem encodiert wurde, kann nur auf Systemen mit entsprechendem Decoder korrekt wiedergegeben werden. Außerdem bleibt die Bearbeitung eines Signals durch ein Kompandersystem nicht gänzlich unbemerkt. Leider werden die Transienten einiger Instrumente beeinflusst und

bilden

Artefakte

aus,

besonders

bei

sehr

leisen

Signalen

nahe

der

Rauschgrenze. Zitat von Jürg Jecklin (Tonmeister Radio Studio Basel): „Geräuschverminderungsverfahren

zeigen

immer

einen

mitziehenden

Rauschteppich, und der sowieso nie linealglatte Frequenzgang eines Analoggerätes wird

durch

die

Abweichungen).“

Regelvorgänge

weiter

verschlechtert

(Verstärkung

der

1

So bleibt die Effektivität dieser analogen Technik gegen die Beeinflussung des Originalsignals abzuwägen.

1

Vgl. HiFi Stereophonie, Motor Presse Stuttgart, Heft 4/1983, Seite 438ff.

56

9.2

Dynamikverbesserung in der digitalen Ebene

Auch

in

der

Digitaltechnik

Systemdynamik

noch

Quantisierungsrauschen,

wird

weiter das

versucht, zu

als

die

zur

verbessern. Nebeneffekt

Verfügung Hierbei eines

stehende

wird jeden

das A/D-

Wandlungsprozesses auftritt (siehe 4.2), durch spezielle Verfahren verringert.

9.2.1 Noise shaping Eines dieser Verfahren ist das bereits erwähnte Oversampling (siehe 4.3). Die Oversamplingtechnik lässt sich durch einfache Überlegung um einen bedeutenden Schritt erweitern. Wird die Rauschleistung ungleichmäßig im Frequenzspektrum verteilt und in einen für den Informationsgehalt des Signals unwichtigen Frequenzbereich verschoben, so wird ein größerer Signal-Rauschabstand im Nutzsignal erreicht. In der Praxis wird das Rauschen stärker in Richtung der Abtastfrequenz fA konzentriert und anschließend durch digitale Filterung oberhalb der höchsten im Signal vorkommenden Nutzfrequenz fO entfernt. Dieses Verfahren wird als „Noise shaping“ bezeichnet. Abb. 37: Frequenzspektrum des Quantisierungsrauschens beim Noise shaping.1 fA

fO

Bei

entsprechender

Überabtastung

durch

Oversampling

kann

das

Quantisierungsrauschen noch wirkungsvoller aus dem Nutzsignal entfernt werden. Es gibt verschiedene Algorithmen beim Noise shaping. Einige Verfahren orientieren sich an den „Kurven gleicher Lautstärkepegel“ und formen das Rauschen für Bereiche, in denen unser Gehör weniger empfindlich ist. So wird das nach dem Noise shaping verbleibende Quantisierungsrauschen als noch weniger störend wahrgenommen. 2 (Siehe auch Abb. 40, Seite 60). Moderne digitale Audiosysteme profitieren heute von der Kombination durch Oversampling und Noise shaping. Auch beim „Delta-Sigma-Wandler“ (siehe 4.3) wird ein hochwertiger Noise shaping-Algorithmus regelmäßig eingesetzt.

1 2

Ursprung: http:// disi. eit.uni-kl.de/skripte/audio1/audi8.pdf, 08/2006. Vgl. http:// de. wikipedia.org/wiki/Noise_Shaping, 08/2006.

57

9.2.2 Dithering Durch den technischen Fortschritt in der digitalen Audiotechnik werden Aufnahmen mit immer höheren Auflösungen möglich. 24-bit-Audioproduktionen sind heute Standard. Meistens wird aber im Laufe der Produktion eine „Requantisierung“ in ein Audioformat mit einer geringeren Auflösung notwendig, denn oft steht am Ende einer langen Produktionskette ein Tonträger mit nur 16 bit, wie zum Beispiel die „gute alte“ Audio-CD. Beim Requantisieren in ein Format mit geringerer Auflösung ist generell Vorsicht geboten.

Durch

den

Verlust

an

Auflösung

entsteht

ein

zusätzlicher

Quantisierungsfehler, der sich ähnlich dem Quantisierungsrauschen äußert. Bei der Requantisierung von 24 bit in 16 bit werden die untersten 8 bit einfach abgeschnitten. War vorher mit 24 bit ein theoretischer Dynamikumfang von ca. 144 dB möglich, so können bei 16 bit Signale, die 96 dB unter Vollaussteuerung liegen, nicht mehr aufgelöst werden (siehe 4.4). Darunter leiden besonders Rauminformationen wie der Nachhall einer musikalischen Aufnahme oder Signale, die bei der ursprünglichen 24 bit Aufnahme absichtlich leiser ausgesteuert wurden als minus 96 dB, zum Beispiel „Fade-Outs“. Betrachten wir den Informationsgehalt des niedrigsten bit (engl. Less Signifikant Bit = LSB) des 16 bit-Signals, so stellt dies das Produkt der letzten 8 bit des 24bit-Signals dar, die durch die Requantisierung entfernt wurden. Allerdings kann ein Signal, das digital nur zu einem bit ausgesteuert wird, nur den Zustand „0“ oder „1“

annehmen.

Dadurch

gleicht

auch

ein

Sinussignal

sowie

auch

andere

periodische Signale, immer einem Rechtecksignal. Das Signal wird also verzerrt. Jeder musikalische Klang wirkt dadurch unnatürlich hart. Abb. 38: 16 bit Sinussignal wird im „Fade-Out“ zum Rechtecksignal.

Zusätzlich wird dieses verzerrte Signal vom erhöhten Quantisierungsrauschen durch die geringere Auflösung stark beeinflusst. Dies wird auch als „Korrelation des quantisierten Signals mit dem Quantisierungsrauschen“ bezeichnet. Um eine Dekorrelation zu erhalten, wird noch vor der Requantisierung ein zusätzliches Rauschen addiert. Dieser Prozess wird auch als „Dithering“ bezeichnet. Durch das Dithering

werden

Verzerrungen

der

Signale

mit

geringer

Aussteuerung

wirkungsvoll unterdrückt, allerdings auf Kosten einer geringfügigen Anhebung des Rauschteppichs.1

1

Vgl. http:// disi. eit.uni-kl.de/skripte/audio1/audi8.pdf, 08/2006.

58

Abb. 39: 16 bit-Signal mit geringer Aussteuerung, links ohne, rechts mit Dither.1

Beim Dithering werden außerdem die bits, die durch die Requantisierung in ein Format mit geringerer Auflösung verloren gehen, zusammen mit dem DitherSignal in das niedrigste bit (LSB) des neuen Signals aufmoduliert. Dadurch können Rauminformationen und Decayphasen in einem Musiksignal bei 16-bit Dithering noch bis zu minus 115 dB hörbar sein, obwohl ein 16 bit-Signal nur eine Systemdynamik von 96 dB umfasst. Das Dithering bietet somit die Möglichkeit, ein wenig von der ursprünglichen Qualität in das Format mit geringerer Auflösung herüber zu retten.2 In

der

Audiotechnik

werden

verschiedene

Formen

des

Dither-Rauschens

angewandt. Im Wesentlichen entspricht es aber weitestgehend einem „weißen Rauschen“.

Die

verschiedenen

„Dither-Typen“

werden

auf

Basis

der

Wahrscheinlichkeit ihrer Amplitudenverteilung unterschieden. Bei der Bearbeitung von

Musiksignalen

hat

sich

ein

dreiecksförmig-verteilter Dither (Triangular

Probability Dense Function, TPDF-Dither) durchgesetzt, da er das Signal effektiv dekorrelliert und dabei nur eine geringe Menge an Rauschen hinzufügt (4,77 dB).3 Die Hörbarkeit der Dither-Signale kann durch Noise shaping weiter reduziert werden. Das Noise shaping orientiert sich hierbei zumeist an psychoakustischen Vorgaben durch die Hörschwelle, da bei Dithering kein Oversampling möglich ist! Im Folgenden werden diverse Dither-Algorithmen mit unterschiedlichen Noiseshaping-Methoden von verschiedenen Herstellern visualisiert.

1 2 3

Quelle: http:// disi. eit.uni-kl.de/skripte/audio1/audi8.pdf, 08/2006. Vgl http:// www. ths-nation.de/recall/24bit.htm, 08/2006. Vgl. http:// de. wikipedia.org/wiki/Dithering_%28Audiotechnik%29, 08/2006.

59

Abb. 40: Dither-Algorithmen mit unterschiedlichen Noise-shaping-Methoden.1

No noise shaping (TPDF dithering)

Cool Edit (C1 curve)

Sony Super Bit Mapping

Apogee UV22

WAVES L2 ("Normal" preset)

L1-Ultramaximizer("Ultra"preset)

WaveLab (Type3 curve)

ExtraBit ("Ultra+LPDN" preset)

Bei den meisten Algorithmen zeichnet sich eine Tendenz zur Betonung der hohen Frequenzen ab. Die meisten Entwickler setzen auf die Überbetonung der Bereiche von 16 bis 20 kHz, da diese Frequenzen zumeist von älteren Menschen schlecht bis überhaupt nicht mehr wahrgenommen werden. Für den Rest hören sich Signale nach einem derartigen Noise shaping obertonreicher an. Auf der anderen Seite ist es sinnvoll, die Bereiche, die unser Gehör besonders gut wahrnimmt, durch das Noise shaping zu reduzieren.

Das Resultat überzeugt durch eine erstaunliche

Rauschfreiheit der Dither-Signale.2 Die effektive Systemdynamik von 54 dB bei der Audio-CD (siehe 4.4) verbessert sich je nach Dither und Noise shaping auf 60 bis 84 dB.3

1 2 3

Ursprung : http:// audio. rightmark.org/lukin/dither/dither.htm, 08/2006. Vgl http:// www. ths-nation.de/recall/24bit.htm, 08/2006. Vgl. Schmidt, Robin: Was ist Mastering, 24-96 Mastering, Seite 5.

60

10. Datenreduktion 10.1 Datenübertragungsrate Je hochwertiger die Qualität eines digitalen Audiosignals, desto größer wird die Menge der zu verarbeitenden Daten (vergleiche hierzu Kapitel 4). Auf der einen Seite werden durch den technischen Fortschritt immer größere Auflösungen (derzeit bis zu 64 bit) gepaart mit einer sehr hohen Abtastrate (derzeit bis zu 192 kHz) möglich. Auf der anderen Seite ist der Speicherplatz für eine Archivierung sowie die Kanalkapazität bei der Übertragung eines Audiosignals immer begrenzt. Der Bedarf an Speicherplatz sowie die Auslastung der Bandbreite bei der Übertragung äußert sich in der Datenübertragungsrate (Bitrate) eines digitalen Audiosignals. Beispiel zur Datenrate bei einem Stereosignal in CD-Qualität. Bitrate = Auflösung (in bit) * Abtastfrequenz (in Hz) * Kanäle;

(in bit/s)

BitrateAudio-CD = 16 bit * 44,1 kHz * 2 (Stereo) = 1411 kbit/s Bei der Datenreduktion von digitalen Audiodaten steht die Erhaltung der Tonqualität im Vordergrund. Trotzdem ist eine effektive Datenreduktion derzeit nur

mit

verlustbehafteten

Kompressionsverfahren

möglich,

worunter

die

Audioqualität mehr oder weniger hörbar eingeschränkt wird. Ziel ist hierbei oft, die CD-Qualität trotz einer reduzierten Datenübertragungsrate zu erhalten. Eines dieser verlustbehafteten Verfahren liegt dem heute weit verbreiteten MP3Format aus dem MPEG-Audio-Standard zugrunde. Im Folgenden soll das Verfahren des MPEG-1/2 Audio Layer 3 (MP3-Verfahren) verdeutlicht werden.

10.2 MPEG-Audio-Standard Die Datenreduktion beim MP3-Verfahren basiert auf der Reduktion von nicht wahrnehmbaren (irrelevanten) Signalanteilen nach psychoakustischen Vorgaben. Anschließend erfolgt eine Encodierung zur optimalen Komprimierung redundanter Audiodaten. Dabei werden spezielle Algorithmen, wie zum Beispiel die Huffmannund Lauflängenkodierung angewandt, die auch bei der digitalen Bildbearbeitung zum Einsatz kommen. Das so genannte „perceptual audio coding“ ist ein spezielles Verfahren des MPEGAudio-Standards. Das digitale Eingangssignal wird hierbei in 32 schmalbandige Frequenzbänder

unterteilt.

Die

einzelnen

Teilbänder

werden

dann

unter

Berücksichtigung spezieller psychoakustischer Effekte quantisiert und codiert. Dabei werden in erster Linie die Signale eingespart, die von lauteren verdeckt werden. In diesem Zusammenhang wird auch vom Verdeckungseffekt gesprochen.

61

Abb. 41: Verdeckungseffekt.1

Die Abbildung visualisiert den Bereich der Verdeckung durch eine Frequenz von 1 kHz mit hohem Pegel. Die Grafik macht deutlich, dass auch benachbarte Frequenzen in geringerem Ausmaß ebenfalls verdeckt werden. Die Hörschwelle wird also in einem gewissen Bereich um einen lauten Ton herum angehoben. Die Anhebung ist dabei abhängig von der Lautstärke des Tons. Dieses Phänomen wird auch als „Maskierung“ bezeichnet. Die Maskierung ist frequenzabhängig und ändert sich mit der Hörschwelle. Beim „perceptual audio coding“ werden leisere Signale, die auf diese Weise verdeckt, sprich „maskiert“ werden, erst gar nicht übertragen. Die Quantisierung passt sich so dem Signal unter Berücksichtigung des Verdeckungseffekts sowie der Maskierung durch benachbarte Frequenzen in den einzelnen Frequenzbändern an. Abb. 42: Datenreduktion durch Anpassen der Quantisierung.2

Datenreduktion auf Basis einer Anpassung der Quantisierung, beruht auf der Überlegung, dass das zunehmende Quantisierungsrauschen durch die geringere Auflösung ebenfalls mit dem lauten Signal verdeckt wird.

1

Ursprung: http:// www. audio.uni-lueneburg.de/seminarwebseiten/digaudio/www/internet.htm, 08/2006.

2

Ursprung: http:// www. itwissen.info/definition/lexikon//_mp3mp3_mp3mpeg%20audio%20layer%203 mp3_ mp3mp3-dateiformat.html , 08/2006.

62

Hörversuche haben erwiesen, dass der Verdeckungseffekt schon innerhalb einiger Millisekunden vor einem Schallereignis einsetzt und sich danach sogar noch etwas länger auf leisere Signale auswirken kann. Dies wird als „zeitliche Maskierung“ bezeichnet. Auch dieser Effekt wird beim „perceptual audio coding“ berücksichtigt. Die Fähigkeit unseres Gehörs, Tonhöhen zu unterscheiden, ist frequenzabhängig. Mit ansteigender Frequenz vermag das menschliche Gehör immer weniger zu differenzieren.

Unter

Berücksichtigung

dieser

Eigenschaft

können

bei

der

Audiokodierung mehrere Frequenzen zusammengefasst und dadurch nochmals Daten eingespart werden. Abb. 43: Gerade noch wahrnehmbare Tonhöhenänderungen.1

Alle relevanten psychoakustischen Eigenschaften fließen beim „perceptual audio coding“ des MPEG-Audio-Standards in das so genannte „Psychoakustische Modell“ mit ein. Anschließend werden die so kodierten Daten der einzelnen 32 Teilbänder zum MP3-Datenstrom zusammengefasst.2 Der

MPEG-Audio-Standard

verwendet

für

das

MP3-Format

verschiedene

Abtastfrequenzen. Bei MPEG-1 sind es zum Beispiel 32, 44,1 und 48 kHz. MPEG-2 bietet hingegen eine noch größere Auswahl. Heute gängige MP3-Enkoder bieten standardmäßig Bitraten zwischen 8 kbit/s und 320 kbit/s. Die

beste

Qualität

wird

für

ein

MP3-kodiertes

Stereosignal

mit

einer

Datenübertragungsrate von 320 kbit/s erzielt. Im Vergleich zur Audio-CD mit 1411 kbit/s entspricht dies in etwa einer Datenreduktion um den Faktor 1:4. Annähernde CD-Qualität ergibt sich bereits schon bei geringeren Datenraten größer 160 kbit/s. „Diese Eindrücke sind recht subjektiv und von Mensch zu Mensch sowie von Gehör zu Gehör unterschiedlich, die meisten Personen können jedoch ab einer Bitrate von etwa 160 kBit/s und bei Nutzung eines ausgereiften Enkodierers auch bei konzentriertem

Zuhören

das

Ausgangsmaterial unterscheiden.“

1 2 3

kodierte

Material

nicht

mehr

von

dem

3

Ursprung: http:// www. dasp.uni-wuppertal.de/ars_auditus/psychoak/psychoak8.htm, 08/2006. Vgl. http:// www. iis.fraunhofer.de/amm/techinf/layer3/index.html, 08/2006. http:// de. wikipedia.org/wiki/MP3.

63

11. Von der Aufnahme bis zum Master 11.1 Hintergründe und Zielsetzung „The Grooving Gospel Singers“ ist ein Chor-Projekt des CVJM Esslingen-Sulzgries, das seit fünf Jahren

besteht. Im Repertoire des Chors finden sich fast

ausschließlich Gospelsongs: sowohl traditionelle Spirituals als auch moderne, zeitgemäße Lieder mit christlichen Inhalten. Die Sänger sind 14 Mädchen im Alter von

15

bis

20

Jahren,

die

bis

auf

wenige

Ausnahmen

sonst

keinen

Gesangsunterricht o.ä. nehmen, sondern einfach nur Spaß am Singen haben. Ehrenamtlich geleitet wird der Chor von Florian Daferner, einem engagierten Hobbymusiker und Pianist. Er verfügt über keine spezielle Ausbildung im Bereich Chorleitung/Gesang und versteht sich deshalb mehr als Motivator und Arrangeur. Langjährige Erfahrung im Bereich der elektronischen Musikproduktion schlägt sich in einem zeitgemäßen, poppigen Sound vieler Arrangements nieder, die er alle eigens für den Chor produziert. 1 Damit das Projekt sich finanziell selber tragen kann, werden jedes Jahr sechs bis acht Konzerte in verschiedenen Kirchen der Region veranstaltet. Bei diesen Auftritten wurde immer wieder die Frage nach einer CD-Aufnahme laut. Der Autor dieser Arbeit ist seit mehreren Jahren aufgrund der freundschaftlichen Verbindung zum Chorleiter für den Live-Sound der Grooving Gospel Singers verantwortlich. Insofern lag es natürlich nahe, ihn mit der Herausforderung zu konfrontieren, mit der

Gruppe

ein

Studio-Album

aufzunehmen.

Die

fertige

CD

sollte

dann

professionell im Kopierwerk gefertigt und bei den Auftritten verkauft werden. Geplant waren insgesamt 16 Tracks, die im Laufe von zwei Wochenend-Sessions aufgenommen werden sollten. Für den Schnitt und die Mischung waren insgesamt 7-10 Tage veranschlagt, allerdings unter der Voraussetzung, dass die Playbacks bereits fertig als Einzelspuren vorlagen. Das finale Mastering sollte an einem weiteren Wochenende geschehen. Eine Produktion in diesem Umfang war nur möglich, da bereits in einem frühen Stadium

feststand,

dass

die

Entstehung

im

Rahmen

einer

Diplomarbeit

dokumentiert werden würde.

11.2 Örtlichkeit Für die Aufnahme wurden freundlicherweise die Räumlichkeiten der Firma daffilm (Esslingen) zur Verfügung gestellt. Dafür wurde das Videostudio sowie die Videoregie zweckentfremdet und zu einem Tonstudio umfunktioniert. Für die Aufnahme musste aber zunächst das Videostudio akustisch optimiert werden. Durch das Anbringen von Absorbermaterial konnten dabei die Nachhallzeiten

1

Vgl http:// www. grooving-gospel-singers.de/, 08/2006.

64

reduziert werden. Die Mischung und das Mastering fanden anschließend in der eigenen Firma des Autors im TONSCHIEBER Studio statt.

11.3 Aufnahmetechnik Hauptbestandteil der Aufnahmetechnik für die CD-Produktion waren mehrere Mikrofone, die dafür benötigten Mikrofonvorverstärker und ein A/D-D/A-Wandler für den Signaltransfer mit einer „Digitalen-Audio-Workstation“ auf PC-Basis. Die Workstation

bildete

dabei

den

zentralen

Punkt,

in

dem

alle

Signale

zusammenliefen. Auch der gesamte „Record-Mix“ wurde über ein Mischpult in der digitalen Ebene realisiert. Die Aufnahme der Chorstimmen sowie der Musikinstrumente und der Solisten erfolgte im so genannten „Dubbing-Verfahren“, wobei die einzelnen Stimmen teilweise nacheinander zum bereits bestehenden Playback aufgenommen wurden. Das Playback in diesem Projekt bestand großteils aus elektronisch vorproduzierten Spuren, die sich im Wesentlichen in Schlagzeug-, Bass-, Piano-, Keyboard- und Orgelspuren gliederten. Diese Spuren wurden dann vorab für die Kopfhörersignale gemischt und für die Sänger bzw. die Musiker im Aufnahmeraum bereitgestellt. Der „Kopfhörermix“ bestand somit aus dem Playback sowie der zusätzlichen Stimmen der jeweiligen Sänger, Solisten oder Musikinstrumente, die gerade eingespielt

wurden.

Des

Weiteren

bestand

die

Möglichkeit,

die

vorher

aufgenommenen Signale für die nächste Session ebenfalls in das Playback zu integrieren. Für den Chorgesang standen insgesamt vier „Kopfhörermixe“ zur Verfügung, wobei Alt- und Sopranstimme jeweils in zwei Gruppen unterteilt wurden. Zur besseren Kontrolle der eigenen Stimme erhielten die einzelnen Gruppen die eigenen Signale stärker gewichtet auf den Kopfhörer. Dies konnte individuell für die jeweilige Gruppe nachjustiert werden. Ein Behringer Powerplay Kopfhörerverstärker verteilte dabei die vier Kopfhörermixe auf die insgesamt 14 Kopfhörer. Zur Verständigung aus der Aufnahmeregie mit den Musikern im Aufnahmeraum wurde für alle Kopfhörersignale zusätzlich noch ein einheitliches „Talk-Back-Signal“ eingerichtet. Zur Begleitung der Gesangsstimmen stand das Piano des Chorleiters in der Regie für alle Kopfhörersignale im Aufnahmeraum zur Verfügung. Für den Chorgesang wurde ein Einzelmikrofonverfahren gewählt, um dem von den Künstlern geforderten Studio-Charakter für die CD-Produktion gerecht zu werden. Die einzelnen Signale wurden dabei so nah wie möglich mikrofoniert (ca. 20 bis 30 cm), um auch das Übersprechen der Signale auf ein Minimum zu reduzieren. Für den Chor standen insgesamt sieben Kondensator-Kleinmembranmikrofone des Typs AKG C-1000 sowie ein Rode NT 1000 Großmembran-Kondensatormikrofon zur Verfügung, das wegen der höheren Qualität auch für die Aufnahmen mit den Solisten und Instrumenten verwendet wurde.

65

Die Mikrofonsignale wurden über einen RME OctaMic Mikrofonvorverstärker auf Line-Pegel gebracht und anschließend durch einen cre@mware A16 AD/DAWandler in 24 bit und 44,1 kHz digitalisiert. Die digitalen Signale erreichten anschließend über ein optisches ADAT-Kabel die Audio-Workstation. Der AD/DAWandler stellte dabei auch das Verbindungsglied zur analogen Außenwelt dar, zumindest für die Kopfhörersignale im Aufnahmeraum. Bei der Aussteuerung des A/D-Wandlers durch den Mikrofonvorverstärker musste darauf geachtet werden, dass die einzelnen Mikrofonsignale nicht übersteuerten. Der OctaMic bot hier eine kleine Hilfe in Form einer blinkenden „Clipping-LED“ pro Kanal. Außerdem konnten die Signale am A/D-Wandler durch eine fünfstellige LED-Kette kontrolliert werden. Durch den Umstand, dass die Sänger in der laufenden Aufnahme-Session eine ganz unterschiedliche Dynamik entwickelten, bestand eine gewisse Unvorhersehbarkeit der Signale. Oft musste daher die Verstärkung

am

Mikrofonvorverstärker über

die entsprechenden

Drehregler

zurückgenommen werden. Die bereits erwähnte Digital-Audio-Workstation bestand aus einem Windows XPHome basierten Betriebssystem, das auf einem Intel Pentium 4 Rechner mit 3,2 GHz und 2 GB RAM ausgeführt wurde. Zusätzliche Rechenpower und diverse Audioschnittstellen erhielt die Workstation durch ein cre@mware SCOPE-DSP1System. Aufgezeichnet und wiedergegeben wurden die für die Musikproduktion relevanten Signale mit der Audio-Sequenzer-Software „Nuendo“ von Steinberg. Der Sequenzer kommunizierte über einen ASIO-Treiber2 mit dem DSP-System. Die digitalen Daten wurden dabei direkt auf eine Festplatte geschrieben bzw. von derselbigen wiedergegeben. Durch die speziellen Treiber des SCOPE-Systems wurden die benötigten Signalwege des gesamten Projekts im so genannten „Rooting Window“ verwirklicht. Abb. 44: Rooting Window.

1 2

DSP = Digitaler Signal Prozessor. ASIO = Audio Stream Input/Output Treiber.

66

11.4 Musikschnitt. Vor der Weiterverarbeitung der einzelnen Spuren musste eine Auswahl der doppelten Aufnahmen getroffen werden. Dabei wurde immer nur die beste Aufnahme beibehalten. Der Rest konnte anschließend endgültig gelöscht werden, so dass wieder Platz auf der Festplatte und eine gewisse Überschaubarkeit im Schnittfenster der Sequenzer-Software einkehrten. Die resultierenden Spuren bestanden nun aber aus unterschiedlichen AufnahmeTakes, die teilweise inmitten einer musikalischen Phrase wechseln sollten. Dafür wurden die verschiedenen Takes bei Bedarf mit einem so genannten „Cross-Fade“ überblendet. Außerdem kam am Anfang und am Ende der einzelnen Takes jeweils eine Blende zum Einsatz, um grobe Amplitudensprünge durch den harten Schnitt zu vermeiden. Weitere Schnitte wurden zur Vermeidung von Atemgeräuschen bzw. Schmatzen, Husten oder Rascheln durchgeführt, um vor allem ruhige Passagen zu bereinigen. Auf diese Weise ließen sich auch andere Störgeräusche entfernen. Der Hauptbestandteil der Arbeit beim Musikschnitt war vor allem der gefühlvolle Einsatz der „Fades“. Abb. 45: „Fades“ beim Musikschnitt.

Der Musikschnitt ermöglichte auch das Editieren des Songkonstrukts. Beim so genannten

„Editing“ konnten

zum

Beispiel

der beste Refrain und

andere

Wiederholungen im Liedaufbau kopiert und an anderer Stelle ersetzt werden. Dadurch wurde eine gewisse qualitative Konstanz innerhalb eines Songs erreicht. 67

11.5 Rooting und Mischung Die komplette Mischung des Projekts wurde ebenfalls auf digitaler Ebene vollzogen. Dabei liefen alle Spuren aus der Aufnahme-Session sowie den bereits bestehenden, elektronisch vorproduzierten Musikspuren auf dem Mischpult des Audio-Sequenzers

zusammen.

Die

für

das

Mischungsverhältnis

relevanten

Lautstärkeeinstellungen der einzelnen Kanäle erfolgten mit den Pegelstellern, den so genannten „Fadern“. In diesem Arbeitsschritt sollte auf ein ausgewogenes Lautstärkeverhältnis der Chorstimmen zueinander sowie auf den Gesamtkontext der musikalischen Mischung geachtet werden. Die Lautstärkeeinstellungen wurden dabei nach dem Gehör vorgenommen. Technisch musste darauf geachtet werden, dass sich die Pegel der einzelnen Signale innerhalb der dynamischen Grenzen bewegten.

Vor

allem

sollte

dabei

kein

Signal

übersteuert

werden.

Die

Pegelanzeigen der Kanalzüge im Mischpult des Sequenzers dienten dabei zu Kontrollzwecken. Abb. 46: Pegelanzeigen des Software-Sequenzer-Mischpults und De-Esser.

Für die Chorstimmen stellte sich heraus, dass die S- und Zischlaute in der Gesamtheit zu aufdringlich wurden. Dabei konnte ein De-Esser

im Kanal-Insert

auf den Spuren der einzelnen Chorstimmen Abhilfe schaffen. Beim De-Esser handelte es sich um einen Renaissance DeEsser des Plug In Herstellers Waves. Der De-Esser arbeitete nach dem Multiband-Prinzip (siehe 6.6). Zur Vermeidung von Übersteuerungen wurde in fast jedem Kanal noch ein „Soft-Limiter“ eingesetzt (siehe 6.3). Um die CPU des Rechners zu entlasten, sollten aber keine weiteren Effekte in der Sequenzer-Software eingesetzt werden. So besaß jeder Kanal einen separaten Busausgang, der über den ASIO-Treiber auf das Mischpult des DSPSystems übertragen wurde. Hierbei kamen diverse DSP-Effekte zum Einsatz. Im Folgenden soll die Spurbelegung des DSP-Mixers verdeutlicht werden:

68

Abb. 47: Tabelle der Spurbelegung des DSP-Mixers. Kanal 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 Master

Spurbezeichnung

Anmerkung

Kanalart

Beat 1 Beat 2 Beat FX Bass Piano Organ Guitar Keys Solo 1 Solo 2 Solo 3 Tenor Saxophon Alt Saxophon Chor 1 Chor 2 Chor 3 Chor 4 Chor 5 Chor 6 Chor 7 Chor 8 Hall Summe

Schlagzeugspur 1 Schlagzeugspur 2 Perkussion

Stereo Stereo Stereo Mono Stereo Stereo Stereo Stereo Stereo Stereo Mono Mono Mono Mono Mono Mono Mono Mono Mono Mono Mono Stereo Stereo Mix Bus

Keyboards/Synthesizer Solo Hauptgesang Duo Männerstimme

Leer Leer Kunsthall

Abb. 48: STM 2448 DSP-Mixer.

69

11.6 DSP-Effekte Folgende grundlegende DSP-Effekte kamen zum Einsatz: In fast jedem Kanal wurde der Kanal-EQ des STM 2448 benutzt. Für einen möglichst „transparenten Sound“ mussten die charakteristischen Frequenzen der einzelnen

Signale

gefunden

werden,

um

sie

in

der

Mischung

bzw.

im

Frequenzspektrum gut hörbar zu platzieren. Abb. 49: Aufräumen der Frequenzen bei Bass (links) und Chorstimmen (rechts)

Durch

den

„Low-Cut-Filter“

wurden

dem

Bass

die

untersten

Frequenzen

genommen. Dadurch wurde der Bass „entwummert“ und etwas härter definiert. Zusätzliche Definition brachte dabei eine Anhebung der Obertöne. Den

Gesangsspuren

konnte

durch

einen

Präsenzfilter

bei

der

oberen

Grenzfrequenz eine „seidige Brillanz“ verliehen werden (siehe auch 2.2.6). Dies ergänzte sich mit dem De-Esser, der zuvor die hohen Frequenzen der „S-“ und Zischlaute reduzierte. Abb. 50: Kanal-EQ der Schlagzeugspur 1: Beat 1. Abb. 51: Multibandkompressor.

Die Schlagzeugspur 1 (Beat 1) besaß als Besonderheit einen Multibandkompressor mit drei Bändern, den so genannten „Optimaster“. Da das Schlagzeug nur als kompletter Mix vorlag, konnte mit dem Multibandkompressor flexibler in den Klang eingegriffen werden (siehe auch 6.6). Bei allen anderen Spuren kam ein „Vinco“ Einzelbandkompressor zum Einsatz. Der „Vinco“ ist ein „Vintage Compressor“ mit „Soft Clipping“ der „analoge Wärme“ emuliert.1

1

Vgl: http:// www. cwaudio.de/index.php?seite=vinco&lang=de, 08/2006.

70

Abb. 52: Vinco Stereo Kompressor.

Das Kompressionsverhältnis wurde für alle Signale sehr gering gewählt. Außerdem kamen kurze Regelzeiten zum Einsatz, um eine möglichst unhörbare Kompression zu erzielen. Durch diese dynamischen Effekte konnten sich die einzelnen Stimmen und Instrumente im Mix besser durchsetzen. Wegen der dynamischen Bearbeitung musste aber die Lautstärke der einzelnen Signale durch den „Gain-Regler“ (hier Output-Regler) oder die Kanal-Fader des DSP-Mixers angepasst werden. Im Zuge der Mischung wurden die Stimmen und Instrumente mit Kunsthall „verziert“. Dies kam auch dem poppigen Charakter der Produktion und an anderer Stelle den getragenen Balladen entgegen. Der Hallanteil konnte dabei für jede Spur individuell über die Regler der Aux-Wege (siehe auch 7.1) eingestellt werden. Abb. 53: Die Auxwege münden im Hall.

Der Hall lag wiederum auf einem Kanal im Mischpult und konnte über den KanalFader in seiner Intensität eingestellt werden. Für die Choraufstellung im Stereo-Panorama der Mischung wurden die PanoramaPotentiometer des DSP-Mixers verwendet. Auf dieselbe Weise ließen sich auch die Saxophone aus der Mono-Mitte befördern.

71

11.7 Mastering Nach einer für alle Seiten zufriedenstellenden Mischung konnte sich dem Mastering gewidmet werden. Hierbei sollten letzte klangliche Korrekturen vorgenommen und die durchschnittliche Lautstärke erhöht werden. Das Mastering wurde dabei zu großen Teilen in der Stereosumme des STM 2448 DSP-Mixers durchgeführt. Zum Einsatz kam ein „Optimaster“ Multibandkompressor, der allerdings nur wenig in das Signal eingriff. Hierbei wurden lediglich „dynamische Ausreißer“ mit den drei separaten Bändern vorkomprimiert. Für eine letzte Frequenzgangskorrektur kam ein „PEQ 4 S“ parametrischer StereoEqualizer mit verschiedenen Filtertypen zum Einsatz. Der Equalizer bot vier Frequenzbänder, von denen allerdings nur zwei benutzt wurden. Der erste Filter bestand

aus

einem

Hochpassfilter,

der

zur

Entfernung

tieffrequenter

Subbasssignale diente. Durch das zweite Filterband konnten die Höhen mittels eines Glockenfilters dezent angehoben und so der Produktion ein „edler Charakter“ verliehen werden. Abb. 54: Der beim Mastering verwendete EQ „PEQ 4 S“.

Um Lautstärke aufzuholen sowie der Produktion den nötigen „punch” bei rhythmischen Titeln zu verschaffen, kam ein weiterer „Vinco“ in der Masteringkette zum Einsatz. Die „Gain-Reduktion“ des Kompressors lag zwischen 2 und 4 dB. Der „Soft-Clip“ wurde dabei bewusst zur Begrenzung der Pegelspitzen eingesetzt. Das Signal hatte nun einen durchschnittlichen Pegel von -12 bis -10 dB (RMS) bei einem Spitzenpegel von 0 dB (Peak). Für heutige Musikproduktionen stellt dieser Wert, der auch als Crest Faktor bezeichnet wird (siehe 7.3), eine mittlere „Lautheit“ dar. „Ein Crest Faktor von weniger als 8 dB ist heutzutage bei Pop oder Rock CDs keine Seltenheit mehr.“1

1

Schmidt, Robin: Was ist Mastering, 24-96 Mastering, Seite 5.

72

Deshalb wurde zum Mastering der vorliegenden Produktion abschließend noch ein so genannter „Loudnesmaximizer“ herangezogen. Durch einen Waves „Ultramaximizer“ konnte die durchschnittliche Lautstärke der gesamten Produktion um weitere 5 dB erhöht werden. Der „Ultramaximizer“ arbeitete dabei nach dem Prinzip eines „Brickwall-Limiters“ (siehe auch 6.3). Durch

einen

gewöhnlichen

Limiter

wäre

zum

Beispiel

ein

ähnlicher

„Lautheitsgewinn“ nur mit hörbaren Verzerrungsprodukten erzielbar gewesen. Abb. 55: Waves Ultramaximizer.

Da der „Ultramaximizer“ nicht auf dem DSP-System zur Verfügung stand, wurde für diesen Arbeitsschritt ein „Mixdown“ in die Sequenzer-Software vorgenommen. Die komplette Produktion wurde nach den Kriterien des Premasterings (siehe 8.3) auf den anschließenden Export vorbereitet. Nach Festlegung der einzelnen Liedlängen und Einrichtung der „Fades“ wurde die 24-bit-Produktion mit einem 16bit „Dither-Signal“ versehen. Dadurch konnte die Systemdynamik der CD weiter ausgeschöpft werden (siehe 9.2.2). Die einzelnen „Tracks” der Produktion wurden abschließend in der vorbestimmten Reihenfolge auf die Master-CD übertragen. Dafür wurde mit der Brenner-Software „Nero“ eine „Red-Book“-kompatible Audio-CD

im „Disc-At-Once“- Verfahren

erstellt. In diesem letzten Arbeitsschritt wurden noch die Lied-Titel mit der CDText-Funktion eingefügt, anschließend die Master-CD ein letztes Mal durchgehört und ins Presswerk geschickt. Um sich einen Eindruck von der Produktion zu verschaffen hören Sie die beigelegte CD.

73

12. Fazit In der vorliegenden Diplomarbeit wurde anhand der theoretischen Darlegungen die Bedeutung

von

Dynamik

und

Pegeln

im

Bereich

der

professionellen

Tonstudiotechnik erläutert. Der praktische Teil nimmt dabei Bezug auf die Umsetzung der theoretischen Überlegungen von der Aufnahme bis zum Master. In

der

Arbeit

wurde

deutlich,

dass

die

einzelnen

Systeme

je

einer

unterschiedlichen Systemdynamik unterliegen. Durch die effektive Systemdynamik wird ersichtlich, dass das menschliche Gehör unter idealen Bedingungen einen größeren Dynamikumfang verarbeitet, als die verschiedenen Aufnahmemedien leisten können. Auf der anderen Seite ist festzustellen, dass beim Mastering der Trend zu immer lauteren

Produktionen besteht. Bei Popmusik beispielsweise ist kaum noch

Dynamik

vorhanden.

Ähnliche

Vorgänge

sind

bei

Rundfunkanstalten

zu

beobachten. Durch die Komprimierung der kompletten Sendungen minimiert sich die Dynamik. Für

den

durchschnittlichen

Hörer

ist

dies

nicht

erkennbar,

da

etwaige

Störgeräusche es verhindern, dass die gesamte Dynamik wahrgenommen wird. Das lässt sich am Beispiel der Wiedergabedynamik ablesen. Toningenieure sowie Genießer „Ernster Musik“ streben nach einer größeren Dynamik der Aufnahmeverfahren und der Tonträger. Aus diesem Grund werden zukünftige Entwicklungen, wie beispielsweise hochauflösende A/D-Wandler oder die beschriebenen Verfahren zur Vergrößerung der Systemdynamik, weiter vorangetrieben. Auch im Bereich der Audiodatenreduktion, sind zukünftig weitere Entwicklungen zur Steigerung der Qualität der verlustbehafteten Verfahren zu erwarten.

Dadurch

wird

es

möglich

werden,

auch

bei

reduzierten

Datenübertragungsraten, die Dynamik des menschlichen Gehörs in seiner Ganzheit auszuschöpfen.

74

13. Literaturverzeichnis Dickreiter, M. : Handbuch der Tonstudiotechnik, Bd. 1 und Bd. 2, K.G. Sauer Verlag 1997. Fasold, M./Veres, E.: Schallschutz+ Raumakustik in der Praxis, Verlag für Bauwesen 1998. Henle, Hubert: das Tonstudio Handbuch, GC Carstensen Verlag, München 2001. Sandmann, Thomas: Effekte & Dynamics, PPV MEDIEN 2001. Schmidt, Robin: Was ist Mastering, 24-96 Mastering. Schubert, Hans: „Historie der Schallaufzeichnung“, DRA 1983/2002. WAVES : L3, software guide.

Internetquellen http:// de. wikipedia.org/wiki/Dithering_%28Audiotechnik%29, 08/2006. http:// de. wikipedia.org/wiki/MP3, 08/2006 http:// de. wikipedia.org/wiki/Noise_Shaping, 08/2006. http:// de. wikipedia.org/wiki /Premastering. /Rainbow_Books#Red_Book. /Super_Audio_Compact_Disc, 08/2006.

http:// de. wikipedia.org/wiki/Signal-Rauschabstand, 08/2006. http:// disi. eit.uni-kl.de/skripte/audio1/audi8.pdf, 08/2006. http:// www 1. ndr.de/ndr_pages_std/0,2570,OID292438,00.html, 08/2006. http:// www. audio.uni-lueneburg.de/seminarwebseiten/digaudio/www/internet.htm, 08/2006. http:// www. cwaudio.de/index.php?seite=vinco&lang=de, 08/2006. http:// www. dasp.uni-wuppertal.de/ars_auditus/, 08/2006. http:// www. dbxpro.com/120A.htm, 08/2006. http:// www. elektronik-kompendium.de/sites/grd/0301031.htm, 08/2006. http:// www. grooving-gospel-singers.de/, 08/2006. http:// www. hameg.com/downloads/fachartikel/HAMEG_Rauschen.pdf, 08/2006. http:// www. hdm-stuttgart.de/~curdt/_Entzerrung.pdf, 08/2006. http:// www. iis.fraunhofer.de/amm/techinf/layer3/index.html, 08/2006. http:// www. infobitte.de/free/lex/wpdeLex0/online/r/ra/Rauschen_-Physik-.htm, 08/2006. http:// www. itwissen.info/definition/lexikon//_mp3mp3_mp3mpeg%20audio%20layer%203mp3_ ----xxxxmp3mp3-dateiformat.html , 08/2006. http:// www. mes-musik.de/level.htm, 08/2006. http:// www. sengpielaudio.com/GeschichteDerSpannungsanpassung.pdf, 08/2006.

75

http:// www. sengpielaudio.com/UnterscheideSchalldruckUndSchall-Leistung.pdf, 08/2006. http:// www. sengpielaudio.com/Rechner-db.htm, 08/2006. http:// www. sengpielaudio.com/Rechner-rauschen.htm, 08/2006. http:// www. sengpielaudio.com/Rechner-klirr.htm, 08/2006. http:// www. sengpielaudio.com/Harmonische-Partialtoene-Obertoene.pdf, 08/2006. http:// www. sony.net/Fun/SH/1-19/h2.html, 08/2006. http:// www. soundperformancelab.com/pdf/PI_D/9739_PI_D.pdf, 08/2006. http:// www. theimann.com/Analog/A77/A77vsPCM/Analogschatten_3.html, 08/2006. http:// www. thomann.de/de/onlineexpert_24_2.html, 08/2006. http:// www. thomann.de/de/onlineexpert_24_10.html, 08/2006. http:// www. ths-nation.de/recall/24bit.htm, 08/2006. http:// www. useddlt.com/magnetband_story1.0.html, 08/2006.

Zeitschriften HiFi Stereophonie, Motor Presse Stuttgart, Heft 4/1983. http:// www. theimann.com/Analog/A77/A77vsPCM/Analogschatten_2.html, 08/2006. Pressemitteilung des Umwelt Bundes Amt für Mensch und Umwelt UBA, 3/2001. http:// www. umweltbundesamt.de/umid/archiv/umid0201.pdf, 08/2006. Tischmeyer, Friedemann: Sound&Recording, Music-Media-Verlag Köln, Ausgabe 8/2006. “ton + video Report“ -Ausgaben 2/2002 - 1/2004 „Teil 2 der Geschichte der Tonaufzeichnung“ http:// www. members.aol.com/rdtinfo/tonaufzeichnung.pdf, 08/2006.

76

14. Abbildungsverzeichnis Abb. 0: VU-Meter (Titelblatt): http:// de. wikipedia.org/wiki/Bild:Meterbridge_VU_meter.png, 08/2006. Abb.3: R-C Glied als Hochpass links und Tiefpass rechts. Jeweils 1. Ordnung (Modifiziert): Dickreiter, M. : Handbuch der Tonstudiotechnik, Bd. 1, K.G. Sauer Verlag 1997, S. 354-357. Abb. 4: Frequenzgang von Shelvingfiltern: Henle, Hubert: das Tonstudio Handbuch, GC Carstensen Verlag, München 2001, S. 221. Abb. 5: Parametrischer EQ als Glockenfilter (Modifiziert): Henle, Hubert: das Tonstudio Handbuch, GC Carstensen Verlag, München 2001, S. 221. Abb. 7: Analyse eines Rechteck-Signals (Modifiziert): Dickreiter, M. : Handbuch der Tonstudiotechnik, Bd. 1, K.G. Sauer Verlag 1997, S. 58. Abb.9: Ruhehörschwelle des menschlichen Gehörs: http:// www. dasp.uni-wuppertal.de/ars_auditus/, 08/2006. Abb. 10: Tabelle der Schalldruckpegel mit entsprechendem Schalldruck (Modifiziert): http:// www. sengpielaudio.com/TabelleDerSchallpegel.htm, 08/2006. Abb. 11: Kurven gleicher Lautstärkepegel: http:// www. soundperformancelab.com/pdf/OM_D/9739_OM_D.pdf, 08/2006. Abb. 12: Bewertungsfilter A,B,C,D und Empfindlichkeit des Gehörs: http:// de. wikipedia.org/wiki/Bild:Akustik_Bewertungsfilter.jpg, 08/2006. Abb. 13: Weitere Filterkurven zur Bewertung an technischen Geräten: http:// www. theimann.com/Analog/A77/A77vsPCM/Analogschatten_3.html, 08/2006. Abb. 14: Maßvergleich: Oben der 20-fache dekadische Logarithmus, unten Dezimalzahlen: http:// www. sengpielaudio.com/Rechner-db.htm, 08/2006. Abb. 19: Lineare Übertragungskennlinie: Henle, Hubert: das Tonstudio Handbuch,GC Carstensen Verlag, München 2001, S. 415. Abb. 20: Quadratische und kubische Kennlinie: Henle, Hubert: das Tonstudio Handbuch,GC Carstensen Verlag, München 2001, S. 415. Abb. 21: Überlagerte quadratische Kennlinien: http:// www. sengpielaudio.com/Harmonische-Partialtoene-Obertoene.pdf, 08/2006. Abb. 22: Kubische Kennlinien in der Praxis: http:// www. sengpielaudio.com/Harmonische-Partialtoene-Obertoene.pdf, 08/2006. Abb. 23: Datenblatt eines Kondensatormikrofons: C 414 B-XLS, AKG Acoustics, Austria 2006. Abb. 25: A/D-Wandlung (Modifiziert): http:// www. like.e-technik.uni-erlangen.de/download/Zukunftswerkstatt_Digitales_Radio/ xxxxZukunftswerkstatt_Digitales_Radio_2003_WS_03_04/JoergH.ppt, 08/2006.

77

Abb. 26: Frequenzspektrum des Quantisierungsrauschens beim Oversampling (Modifiziert): http:// disi. eit.uni-kl.de/skripte/audio1/audi8.pdf, 08/2006. Abb. 27: Dynamik einer Übertragungskette (Modifiziert): Dickreiter, M.: Handbuch der Tonstudiotechnik, Bd.1, K.G. Sauer Verlag 1997, S.268. Abb. 28: Kennlinie eines Kompressors: Henle, Hubert: das Tonstudio Handbuch, GC Carstensen Verlag 2001, S. 273. Abb. 29: Kennlinie Expander links und Gate rechts: Henle, Hubert: das Tonstudio Handbuch, GC Carstensen Verlag 2001, S. 283f. Abb. 30: Software Multiband Limiter: Waves L3 Multimaximizer: WAVES : L3 software guide, Seite 1. Abb. 32: Pegelverlauf und Durchschnittspegel für Sprache und Musik: Dickreiter M.: Handbuch der Tonstudiotechnik, Bd. 1, K.G. Sauer Verlag 1997, S. 262. Abb. 33: Aussteuerung der einzelnen Programmbeiträge eines komplexen Sendeablaufs: Dickreiter M.: Handbuch der Tonstudiotechnik, Bd. 1, K.G. Sauer Verlag 1997, S. 265. Abb. 34: Aussteuerungsrichtlinien im Hörfunk der Rundfunkanstalten der ARD: Dickreiter M.: Handbuch der Tonstudiotechnik, Bd. 1, K.G. Sauer Verlag 1997, S. 264. Abb. 35: Schneidkennlinie für Aufnahme und „Wiedergabe-Entzerrungskennlinie“ nach DIN IEC 98 bzw. DIN 45546 und 45547: Dickreiter, M.: Handbuch der Tonstudiotechnik, Bd. 2, K.G. Sauer Verlag 1997, S. 64. Abb. 36: Kennlinie eines Optokompressors (Modifiziert): Sandmann, Thomas: Effekte & Dynamics, PPVMEDIEN, Bergkirchen 2001, S.34. Abb. 37: Frequenzspektrum des Quantisierungsrauschens beim Noise shaping (Modifiziert): http:// disi. eit.uni-kl.de/skripte/audio1/audi8.pdf, 08/2006. Abb. 39: 16 bit-Signal mit geringer Aussteuerung, links ohne, rechts mit Dither (Modifiziert): http:// disi. eit.uni-kl.de/skripte/audio1/audi8.pdf, 08/2006. Abb. 40: Dither-Algorithmen mit unterschiedlichen Noise-shaping-Methoden: http:// audio. rightmark.org/lukin/dither/dither.htm, 08/2006. Abb. 41: Verdeckungseffekt: http:// www. audio.uni-lueneburg.de/seminarwebseiten/digaudio/www/internet.htm,08/2006. Abb. 42: Datenreduktion durch Anpassen der Quantisierung: http:// www. itwissen.info/definition/lexikon//_mp3mp3_mp3mpeg%20audio%20layer%203mp3_ xxxxmp3mp3-dateiformat.html , 08/2006. Abb. 43: Gerade noch wahrnehmbare Tonhöhenänderungen: http:// www. dasp. uni-wuppertal.de/ars_auditus/psychoak/psychoak8.htm, 08/2006.

Alle anderen Abbildungen und Tabellen wurden vom Autor erstellt oder befinden sich in dessen Besitz.

78