Audio-Messtechnik

Von blinkenden Terz-Analyser-LEDs zu komplexen FFT-Audio-Analysen

Audio-Analyser
SATlive Audioanalyser in Zusammenarbeit mit Lautsprechercontroller und Verstärker (Bild: Detlef Hoepfner)

Standard bei großen Beschallungssystemen ist, den Sound über moderne Analyzer-Tools zu messen. Aus den ersten Analyseversuchen der 70er- und 80er-Jahre entwickelten sich Werkzeuge, die detaillierte Aussagen über eine Beschallung ermöglichen.

Wenn man bei einer Veranstaltung ab einer bestimmten Größenordnung in satten, sauberen und verfärbungsfreien Sound so richtig schwelgen kann, liegt dies nicht nur am erstklassigen Material, sondern auch daran, dass jemand vorab vernünftig geplant und dann eine Feinabstimmung durchgeführt hat. In den Anfangsjahren der PA-Technik beherrschten dazu Terz-Analyzer die Racks. Deren auf meist drei Höheneinheiten in einer Matrix angeordneten tanzenden LED-Ketten machten mächtig Eindruck, zumindest als visueller Effekt für Technik-Interessierte in FOH-Nähe. Die Resultate waren jedenfalls oft ernüchternd. Vielleicht aber auch deshalb, weil sich schlechtes Lautsprechermaterial oder falsch aufgebaute Systeme nicht per EQ retten lassen?

Anzeige

Messungen von 96 PA-Lautsprechern
Vertriebe wie Musik Produktiv engagierten sich sehr in der aufblühenden Beschallungsszene: dort veröffentlichte Dipl.-Ing. Hans-Jürgen Ackerstaff 1990 die Messungen von 96 PA-Lautsprechern (Bild: Detlef Hoepfner)

Vom Konzept her recht simpel handelte es sich um eine Bank mit Bandpässen in Terzbreite, denen sich jeweils eine Aussteuerungsanzeige anschließt. In der ursprünglichen vollständig analogen Version bestanden die Filter aus mehrstufigen Opamp-Schaltungen. Zum „Einmessen“ einer PA wurde üblicherweise ein rosa Rauschsignal eingespeist, denn es besitzt im zeitlichen Mittel die gleiche Leistungsdichte in allen Oktaven bzw. Terzen, erzeugt also eine gleich hohe Anzeige auf allen LED-Ketten der RTAs (Real Time Analyzer). Mit dem allgegenwärtigen grafischen Terzband-Equalizer wurden nun die entsprechenden Pegelkorrekturen durchgeführt. Eine grobe Balance zwischen Bässen, Mitten und Höhen lässt sich mit diesem Werkzeugen zwar erzielen, dies sollte aber heutzutage bereits im Systemdesign berücksichtigt sein. Nachteilig war auch die grobe spektrale Auflösung sowie die Tatsache, dass der RTA keinen Unterschied macht zwischen Direktschall und verspätet eintreffenden Reflexionen, die unser Gehörsinn sehr unterschiedlich bewertet. Diese Isolierung des Direktschalls gelingt nur mit Methoden, welche in der Lage sind, die komplexe Übertragungsfunktion (Frequenzgang nach Betrag und Phase) zu übermitteln. Schon früh tüftelten einige amerikanische Soundtechniker mit Zweikanal-FFT-Analyzern von Hewlett-Packard, damals noch voluminöse, schwere und extrem teure Kästen mit dezidierter Elektronik. Wer sich diesen Aufwand leisten konnte oder wollte, erzielte damit durchaus erstaunlich gute Resultate, obwohl auf den dämmrigen Anzeigen nur eine Handvoll tanzender Punkte zu sehen war. Es darf sicher davon ausgegangen werden, dass nur die richtige Kombination aus Technik und Erfahrung erfolgversprechend war: Die angesagten Profis hatten vernünftiges Lautsprechermaterial am Start, platzierten es richtig und der messtechnische Blick ergänzte dann den Höreindruck nur noch mehr oder weniger als zusätzliche Analyse. Meyer Sound setzte dieses Konzept in eigene Hardware um (an dem Entwicklungsaufwand dafür, munkelte man damals, würde womöglich noch die ganze Firma pleitegehen), die dann als SIM bekannt wurde. Der TEF und danach MLSSA (zu sehen übrigens hier an einem Monitorplatz von 1994) setzten eigene Akzente und sind in manchen Nischenanwendungen nach wie vor im Einsatz, heute gibt es eine Vielzahl an Softwarelösungen.

Meyer Sound SIM
Auch wenn damals vielleicht eher symbolisch zu verstehen: der Meyer Sound SIM war mit 46.500 DM eher exklusiv angesiedelt (Bild: Detlef Hoepfner)

Audioanalyse per FFT

Der Frequenzgang einer PA ließ sich mit den HP-Analyzern ermitteln, indem an den ersten Eingang das Signal des Mischpultausgangs (also das Eingangssignal für die PA) und an den zweiten (nach gebührender Vorverstärkung) ein an der Hörerposition befindliches Mikrofon angeschlossen wird. Nach Anpassung der Laufzeit werden die Signale beider Kanäle fourier-transformiert (also ihr Frequenzspektrum berechnet) und durcheinander geteilt, wodurch sich die Übertragungsfunktion ergibt. Durch eine inverse Fourier-Transformation lässt sich daraus die Impulsantwort berechnen, in der sich nun Direktschall, Reflexionen und Nachhall erkennen und gegebenenfalls trennen lassen. Das Verfahren funktioniert natürlich nur für Frequenzen, bei denen auch Signalenergie vorhanden ist, deshalb muss bei der Verwendung von Rauschen mit seiner stark fluktuierenden Natur oder gar des Musiksignals selber über viele Zyklen gemittelt werden, was die Anzeige relativ träge auf Änderungen reagieren ließ. Statt Rauschen lässt sich aber auch ein Sweep, also ein Ton, der kontinuierlich nach oben durchgestimmt wird, einsetzen, dann sind keine Mittlungen erforderlich und die Messung „steht“ nach einem einzigen Schuss. Mit Musik als Anregungssignal dauert es am längsten, bis das Resultat genügend konvergiert, der große Vorteil ist aber, dass auch während der Show weiter der Frequenzgang gemessen und korrigiert werden kann, falls sich das als erforderlich erweisen sollte.

Für die Methodik ist schon lange keine spezielle Hardware mehr erforderlich, sondern sie lässt sich seit vielen Jahren komplett in Echtzeit auf üblichen Laptops durchführen – zur Not mit der eingebauten Soundkarte, besser aber mit einem vertrauenswürdigen externen AD/DA-Frontend, welches auch gleich Phantom-Power für Messmikrofone mit XLR-Anschluss liefert. Bekanntester Vertreter von passender Software speziell für das Einmessen von PAs ist SMAART, welches auch gleich die Fernsteuerung vieler marktüblicher Equalizer an Board hat.

Rückblickend sind noch zwei weitere Messverfahren erwähnenswert, die sich großer Beliebtheit und Verbreitung erfreuten, bevor sich die rein FFT-basierten Methoden auf PC-Basis durchsetzten. Da ist zum einen TDS (Time Delay Spectrometry), welches mit linearen Sweeps und Demodulierung des empfangenen Signals durch das um die Laufzeit des Schalls verzögerten Anregungssignals arbeitet. Das ist im Kern ein rein analoges Verfahren (das sich aber heute auch digital implementieren lässt), welches aber immerhin schon gestattet, Reflexionen ab einem wählbaren Zeitpunkt aus dem Ergebnis zu tilgen. Da es in der Lage ist, die komplexe Übertragungsfunktion (nach Betrag und Phase) zu ermitteln, eignet es sich auch zur Ermittlung der Impulsantwort, wozu dann aber doch digitale Signalverarbeitung auf einem PC nötig ist, auf dessen Basis der erste TEF10 Analyzer in den frühen 80er-Jahren auch aufgebaut wurde.

Einige Jahre später betrat dann das ebenfalls PC-basierte MLSSA die Bühne. Es arbeitet im Gegensatz zu TDS nicht mit einem Sweep als Anregungssignal, sondern mit einem binären (also nur aus zwei Amplitudenzuständen bestehenden) Pseudo-Rauschsignal („Maximalfolge“), welches auf einem simplen Generator erzeugt wird, der sich auf einer ISA (das war das erste Bussystem der PCs) Einsteckkarte befindet. Diese beherbergt auch einen AD-Wandler zur Digitalisierung des Empfangssignals. Der große Vorteil der Maximalfolgen bestand darin, dass mit einem speziellen Ganzzahl-Algorithmus (die sogenannte Hadamard-Transformation) direkt die Impulsantwort des Lautsprechers (und seiner akustischen Umgebung) ermittelt werden konnte, was auch auf den frühen PCs, die sich ja mit der Fließkomma-Berechnung noch sehr schwer taten, relativ zügig vonstattenging. Zur Übermittlung des Spektrums schloss sich dann aber eine damals noch mehrere Sekunden dauernde FFT an.

Beide Verfahren, TDS und MLS, bedeuteten einen immensen Fortschritt, denn sie boten eine vergleichsweise hohe spektrale Auflösung und gestatteten, den eigentlichen Ursachen vieler akustischer Probleme (zum Beispiel Kammfilter-Effekte durch Reflexionen) durch Inspizierung der Impulsantwort auf den Grund zu gehen. Auf ihrer Basis wurden viele nützliche Nachverarbeitungs-Verfahren wie zum Beispiel die ETC (Energy Time Curve) und die Wasserfalldiagramme zur Verdeutlichung von Resonanzen ersonnen. Durch ihre den damaligen technischen Limitationen geschuldeten Beschränkung auf relativ kurze ImpulsantwortIntervalle waren sie aber eher zur Analyse von Lautsprechern im Labor und zur Untersuchung der Akustik kleinerer Räume geeignet als zur Messung und Einstellung einer Groß-PA. Hinzu kommt, dass beide Messsignal-Typen ein weißes Spektrum besitzen, der Störpegel bei akustischen Messungen aber bei tiefen Frequenzen anzusteigen pflegt. Dies bedeutete chronische Probleme mit dem Signal/ Rauschabstand bei tiefen Frequenzen. Messungen mit Maximalfolgen reagieren außerdem außerordentlich empfindlich auf Zeitvarianz, zum Beispiel durch Windstöße bei Open-Air-Messungen.

Aufgrund dieser Nachteile wird heutzutage überwiegend mit logarithmischen Sweeps gemessen, die ein rosa Spektrum (also gleicher Energieinhalt in allen Oktaven bzw. derer Bruchteile) aufweisen. Sie liefern also wesentlich mehr Energie bei tiefen Frequenzen und verbessern somit dort die Stabilität der Messergebnisse entscheidend. Eine Besonderheit der Messungen mit Sweeps ist außerdem die Möglichkeit, harmonische Verzerrungen aus der Messung fernzuhalten – und im speziellen Fall der logarithmischen Sweeps sogar simultan mit der Übertragungsfunktion getrennt für jede Ordnung der Harmonischen analysieren zu können. Man braucht auch gar nicht mehr den zweiten Kanal eines klassischen Zweikanal-Analyzers: da das Anregungssignal deterministisch (also von vornherein bekannt ist), reicht es, wenn die Software sein Spektrum vorab einmal berechnet und bei den späteren Messungen (durch Division) heranzieht.

Dies ist die Basis der meisten heute verfügbaren Programme für die akustische Messtechnik – ob kostenlos aus dem Netz herunterladbar oder mit (oder auch ohne) dedizierter Hardware kommerziell angeboten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte Sie auch interessieren: