Lavry Synchrony-16

Lavry Engineering stellt mit den Digitalwandlern der Gold-Serie die Referenz im Stereo-Mastering dar. Das Blue-Wandlersystem bietet einen flexiblen modularen Aufbau für Mehrkanalanwendungen, die AD- und DA-Wandler der Black-Serie sind ideal zur Aufnahme und Wiedergabe des Masterbus.

Anlässlich der Vorstellung der neuen Lavry Synchrony-16 Masterclock hat Dan Lavry in einem Beitrag aufgezeigt, was Jitter im Audiobereich bedeutet und wie sich kurzzeitiger Jitter von langzeitiger Taktgenauigkeit unterscheidet.



Dan Lavry: Clock-Jitter und Taktpräzision in digitalen Audiosystemen

In der Theorie dauert ein einzelner Taktzyklus bei einer perfekten Taktreferenz exakt genau so lang wie jeder andere Taktzyklus an. In der Praxis weisen solche Taktreferenzen jedoch zwei getrennte Fehlerquellen auf: hinsichtlich ihrer absoluten Präzision (einschließlich einer Langzeitdrift) und hinsichtlich kurzzeitiger Schwankungen (Jitter).


Jitter

Bei digitalen Audiosignalen verlässt man sich auf serielle Datenformate, bei denen jedes Bit über eine festgelegte Zeitdauer verfügt. So beträgt die Dauer eines Bit-Samples bei 192 kHz/Stereo (AES/EBU oder S/PDIF) 81 Nanosekunden. Wenige Nanosekunden Jitter reichen nicht aus, um die meisten digitalen Operationen zu stören, etwa Signalverarbeitungen, Speichervorgänge oder Datentransfers. Wandler werden hingegen durchaus bereits durch geringen Jitter beeinträchtigt. Bei der Audioproduktion ist es deshalb erstrebenswert, den Jitter der Wandler auf einen Wert unterhalb der menschlichen Wahrnehmbarkeit zu reduzieren.

Digitale Audiosignale basieren auf Sampling. Die unten stehende Grafik zeigt eine Wellenform (rot), die korrekten Samplewerte (blau) und ein einzelnes Sample mit einem Zeitfehler (schwarz). Sample 8 hat einen Signalwert von 0,4. Ein Zeitfehler von 0,3 bei Sample 8 resultiert in einem Signalwert von 0,6. In diesem Fehler führt der Zeitfehler zu einer Abweichung von 0,2 des Signalwerts, was 10 Prozent des vollen Wertebereichs entspricht.

Lavry Jitter 1

Je steiler der Anstieg in der Wellenform, desto größer der Fehler. Die Steilheit hängt von zwei Faktoren ab: der Amplitude und der Frequenz. Signale mit lauteren, höheren Frequenzen werden daher höhere Fehler aufweisen.

In der Praxis ist der Sampling-Vorgang nie völlig perfekt. Daher weisen nahezu sämtliche Samples einen geringen Zeitfehler auf, der als Jitter bezeichnet wird. Diese Signalfehler führen zu einer Verzerrung der Wellenform. Im Audiobereich muss es das Ziel sein, diese Verzerrungen unterhalb der Grenze einer möglichen Wahrnehmung zu belassen.

Bei einer Audiobandbreite von 20 kHz ist der maximale theoretische Anstieg (bezogen auf das voll ausgesteuerte Signal) eine bekannte Größe. Die unten stehenden Grafiken basieren auf diesem Wert, um das schlechtestmögliche Ergebnis abzudecken.

Die Grafik zeigt das Verhältnis von Jitter und den zugehörigen prozentualen Fehler bezogen auf eine Vollaussteuerung.
Bei einem Jitterwert von 200 Pikosekunden liegen die Verzerrungen oberhalb einer perfekten Audio CD. Dazu liegen die Verzerrungen hochwertiger Analogtechnik bei einem derart geringen Wert, dass ihr Einfluss bei 20 Pikosekunden vernachlässigbar ist.

Lavry Jitter 2


Die unten stehende Grafik zeigt das Verhältnis von Jitter und Signalfehler in Dezibel (relativ in Bezug auf Vollaussteuerung).

Lavry Jitter 3

Beachten Sie, dass -120 dB einen Wert mit einer Genauigkeit von einem Millionstel darstellt (0,0001%). Bei hohen Pegeln und Frequenzen ist diese Genauigkeit schwer zu erreichen, selbst mit einer einstufigen Analogschaltung.

Letztlich zählt der Jitter an den Wandlern. Selbst bei der Annahme einer theoretischen Taktreferenz ohne Jitter, involviert der Signalweg zu einem Wandler in der Praxis einige elektronische Bauteile, die Jitter verursachen. In den meisten Fällen benötigt eine Taktreferenz einen PLL-Schaltkreis innerhalb des Wandlers, der den Hauptverursacher von Jitter darstellt.

Es gibt vier gängige Methoden zur Quantifizierung von Jitter:

1.
EBR (Fehlerrate pro Bit) ist ein indirekter Messwert für Jitter. Hierbei wird ein Vergleich der Daten vor und nach der Übertragung vorgenommen. Eine Methode, die in der Hochfrequenz-Datenübertragung regelmäßig eingesetzt wird. EBR bietet die geringsten Informationen über den Jitterursprung unter den hier vorgestellten vier Methoden.

2.
Ein breitbandiges Oszilloskop ermöglicht eine Messung, die als "eye pattern" bezeichnet wird. Diese Methode ist bei hohen Frequenzen effektiv, nicht jedoch bei Abtastfrequenzen im Audiobereich.

3.
Regelmäßig nutzen Hersteller von Taktgeräten eine Spektralanalyse, um den Zusammenhang zwischen Jitter und Frequenz zu untersuchen. Die Ergebnisse werden dabei oft als detaillierte Grafik (dBc vs. Frequenz) gezeigt.

4.
Single-Shot-Zyklusmessungen, in der viele Einzelmessung einzelner Taktzyklen vorgenommen werden. Aus diesen Daten werden statistische Informationen gewonnen. Unter anderem ergibt sich aus dem Mittelwert die Abtastfrequenz und aus der Standardabweichung der Jitterwert. Diese Methode liefert die detailliertesten Informationen für die Art der Jitterfehler.

Die unten stehende Grafik zeigt eine Taktreferenz von 100 kHz (rot und zwei ausgewählte Einzelzyklen (blau). Ein Zyklus startet bei 520 usec und endet bei 530 usec. Die Andere dauert von 570 bis 580 usec.

Lavry Jitter 4

Anmerkung: Das menschliche Gehör ist bezüglich eines einzelnen Samplefehlers nicht besonders empfindlich. Es ist vielmehr gegenüber einer Gruppe fehlerhafter Werte, die sich über einige Millisekunden erstrecken, sensibel. Die Eigenschaften des menschlichen Hörens werden in der Psychoakustik erforscht und reichen über den Inhalt dieser Ausführungen hinaus.


Taktgenauigkeit

Die Qualität einer Taktung besteht in der Messung von Unterschieden zwischen einer theoretischen und praktischen Abtastfrequenz. Ingenieure bewerten die Genauigkeit im Frequenzbereich in "Parts per Million" (ppm).

Beispiel 1: Der Timer einer zeitgesteuerten Geschirrspülmaschine ist auf eine Stunde gestellt, aber der Start erfolgt eine Sekunde zu spät. Die Zeitabweichung beträgt 278 ppm und ist mehr als akzeptabel.
Beispiel 2: Die Messung eines zehnminütigen Sportereignisses mit einer Auflösung von 0,01 Sekunden erfordert eine Genauigkeit von 17 ppm.

Ein Mensch kann einen Zeitfehler von einer Sekunde über eine Stunde (278 ppm) nicht wahrnehmen. Mit heutiger Technik lassen sich leicht Genauigkeiten von deutlich unterhalb 100 ppm erreichen. Indem man die Audiotaktung um einen Wert von 100 ppm erhöht, verkürzt sich die Dauer einer einstündigen Darbietung um 0,36 Sekunden. Verlangsamt man einen dreiminütigen Titel um 100 ppm, werden 0,018 Sekunden ergänzt - eine Zeitdauer, die ebenfalls nicht wahrnehmbar ist.

In der Audioproduktion ist es erforderlich, dass sämtliche Spuren zum gleichen Zeitpunkt starten und enden sowie identisch schwanken, um mögliche Probleme zu vermeiden. Das Gehör ist bezüglich eines fehlerhaften Zeitversatzes zwischen Spuren äußerst empfindlich. In einigen Fällen führen bereits wenige Millisekunden Versatz zu einem hörbaren Fehler in Form einer Kammfilterung. Die Bearbeitung von Spuren mit unsynchronisierten, unabhängigen Taktreferenzen führt zu unrealistischen Anforderungen an die Taktqualität.

Die Einschränkung einer Drift zwischen zwei Spuren auf eine Schwankung innerhalb einer Mikrosekunde über eine Länge von drei Minuten erfordert einen Gesamtfehler in einem Bereich um 0,0056 ppm. Der Erhalt der gleichen Drift über einen längeren Zeitraum erfordert eine erhöhte Genauigkeit, die eine unabhängige Taktung unpraktisch gestaltet. Das Hinzufügen weiterer Spuren erhöht das Problem. Im Unterschied dazu sorgt eine gemeinsame Taktreferenz für eine samplegenaue Synchronisation ohne Einschränkungen der Dauer und bei der Spuranzahl.

Ungenauigkeiten der Taktung äußern sich zudem in einem Tonhöhenversatz. Das Gehör weist eine begrenzte Empfindlichkeit bei der Wahrnehmung von Tonhöhen auf. Ein Versatz unterhalb von 1 Cent (weniger als 500 ppm) liegt unterhalb dieser Wahrnehmungsgrenze. Selbst Werte von maximal 100 ppm lassen sich mit heutiger Technik leicht erreichen.

Der Einsatz unabhängig getakteter Spuren kann zu hörbaren Effekten führen, die auf Tonhöhenverschiebungen beruhen. Zwei Töne mit einer geringen Tonhöhenabweichung können zu hörbaren Schwebungen führen. Die Synchronisation aller Spuren zu einer einzigen Taktreferenz garantiert, dass sich eventuelle Tonhöhenverschiebungen immer auf alle Spuren auswirken und damit nicht hörbar auswirken.

Taktgenauigkeit und Jitter sind unterschiedliche Sachverhalte. Eine hohe Genauigkeit garantiert keine niedrigen Jitterwerte und umgekehrt. Beispielsweise bieten Atomuhren eine extreme Präzision, sind aber für den Einsatz mit Audiofrequenzen nicht konzipiert. Sie arbeiten mit 10 MHz und anderen Frequenzen für den allgemeinen Einsatz. Die notwendigen Schaltkreise, die die Taktung in den Audiobereich übertragen, fügen Jitter hinzu. Es handelt sich dabei typischerweise um PLL-Schaltungen.

Von einem technischen Standpunkt betrachtet, ist es nicht besonders aufwendig, die Anforderungen an eine Taktgenauigkeit im Audiobereich zu erfüllen oder sogar zu übertreffen. Hingegen ist die Erfüllung der Anforderungen an entsprechende Jitterwerte eine durchaus herausfordernde Aufgabe.

Das Verständnis der Konzepte von Taktgenauigkeit und Jitter und ihre Einflussnahme auf Audiosignale erlauben es dem Ingenieur, zu besseren Ergebnissen zu gelangen.
0 Comments | Posted in Pro Audio Guide By DA-X
Audioworkstation Exterme64 Test

Audioworkstation Extreme64 Test mit verschiedenen Audio-Interfaces

Im Rahmen der Entwicklung unseres Spitzensystems, der Audioworkstation Extreme64, haben wir Audio-Interfaces verschiedener Hersteller auf ihre Latenzwerte hin überprüft. Dabei haben wir einen Demosong in Cubase 6 64 Bit geladen und gemessen, mit welcher minimalen Latenz gearbeitet werden kann. Der Demosong bestand aus 38 Spuren mit Cubase eigenen virtuellen Klangerzeugern. Auf jeder dieser Spuren wurden vier Effekte geladen. Damit haben wir eine hohe CPU-Auslastung erzeugt, die Treiberprobleme in Form von Dropouts ("Knacksern") schnell offenlegt.


Die obige Tabelle gibt an, bis zu welcher im ASIO-Treiber eingestellten Latenzzeit, der Demosong bei einer CPU-Auslastung von 50…60% ohne Dropouts abgespielt werden kann. Die Ergebnisse wurden mit einem spezifischen Demosong produziert. Je nach verwendeter Software kann es zu abweichenden Werten kommen.

Kaum verwunderlich hat die RME HDSPe PCIe-Karte die Nase vorn. Der direkte Zugriff auf den Systembus erlaubt einen schnelleren Datenaustausch, als über USB oder Firewire. Dass dies jedoch kein grundsätzlicher Vorteil sein muss, zeigen die Werte der Karten von EMU. Wichtiger als die theoretischen Vor- und Nachteile der verschiedenen Schnittstellen sind sauber programmierte Treiber. RME, Focusrite, Avid und Akai zeigen, dass auch USB-Interfaces bei guten Latenzwerten zu betreiben sind.

Lange Zeit galt Firewire als die Profischnittstelle schlecht hin. Die theoretisch mögliche Datenbandbreite von FW400 liegt mit 400 MBit/s zwar etwas unterhalb der von USB 2.0 mit 480 MBit/s, allerdings sollte Firewire wegen des netzwerkartigen Aufbaus effizienter arbeiten. Bei Kopiervorgängen zwischen Festplatten konnte Firewire diesen Vorteil auch ausspielen. Aber auch hier zeigt sich, bei Echtzeitanwendungen wie Audio- und Videoübertragung spielen die Hardwaretreiber eine zentrale Rolle. Es gibt USB-Interfaces, die mit besseren Latenzwerten arbeiten, als so manches Firewire-Interface. Motu zeigt mit dem Audio Express ein Interface, das beide Schnittstellen mit gleichen Latenzwerten unterstützt. Das RME Fireface 400 ist nicht mehr erhältlich und wurde durch das Fireface UCX ersetzt. Dieses bietet nun integrierte DSPs und verfügt wie das Motu-Interface über einen Firewire- und einen USB-Anschluss.

Die Audioworkstation Extreme64 hat ausreichende Reserven, um auch massive Produktionen zu stemmen. Um die Leistung auch wirklich nutzen zu können, sollte auf ein gutes Audio-Interface geachtet werden. Neben Ausstattungsmerkmalen und Klangeigenschaften sind gute Treiber ein wichtiges Auswahlkriterium. Die Ergebnisse unseres Versuchs können Sie dabei als Richtfaden heranziehen.
0 Comments | Posted in Pro Audio Guide By DA-X

Audio-Interface Test

07.10.2011 16:43:31
Audio Interface Test

Unter dieser Rubrik möchten wir einige Testmöglichkeiten aufzeigen, um ein gutes Audio-Interfaces von einem Schlechteren unterscheiden zu können. Ein häufig angesprochenes Thema ist dabei die Latenz. Es ist sehr wichtig diesen Begriff genauer zu definieren. 

Dies sind die wichtigsten Latenzarten:

  • Bearbeitungslatenz der DAW Software oder des Plug-in Host bzw. Standalone Plug-in
  • I/O Latenz auf Audiotreiberebene (z.B. ASIO, WDM, Core Audio)
  • I/O Latenz auf Schnittstellenebene (z.B. PCIe, FireWire, USB)
  • I/O Latenz auf Prozessoreben auf der Audiokarte, wie DSP etc.
  • Latenz bei der AD/DA Wandlung
  • Gesamtlatenz (Roundloop): Sequenzer spielt ab und nimmt gleichzeitig die selbe Spur wieder auf

Das ganze muss teilweise im Rahmen der, der DAW zugewiesen Interface-Latenz (z.B. Asio) berechnet werden. Oft spielt es dabei kaum eine Rolle, dass es Audio-Interfaces gibt, die auch bei 32 Samples arbeiten können, da der Host in diesem Rahmen nicht hinterherkommt, besonders wenn komplexe Plug-ins ins Spiel kommen.

Wir bitten an dieser Stelle zu entschuldigen, dass wir nicht an jeder Stelle ins Detail gehen werden. In diesem Blog stehen die Erfahrungen im Vordergrund, die wir im Laufe der letzten 10 Jahre durch "Trial and Error" gesammelt haben. Wer Treiber programmieren kann, wird sicher ein erweitertes Wissen haben.

In diesem Blog-Artikel geht vor allem es um die so genannte DPC Latenz, die maßgeblich von Prozessen abhängig ist, welche vom System nicht rechtzeitig ausgeführt werden können. Diese Prozesse ereignen sich in der Kernel-Ebene und verhindern einen reibungslosen Audio-Betrieb. In einigen Fällen kann durch die Erhöhung der Audio-Interface Treiberlatenz solche erheblich Fehler ausgleichen, in vielen Fällen hilft dieser Schritt nicht weiter.

Was passiert, wenn das Audiosignal "Knackser" hat? Ein schlecht programmierter Treiber kann in einem bestimmten Zeitrahmen einen Prozess nicht mehr ausführen, blockiert dabei alle weiteren Prozesse und so auch eine Echtzeitanwendung wie Cubase. Das führt ganz simpel zu einem Aussetzer, "Drop-Out" also einem Knackser. Das Gleiche passiert auch wenn der Fehlerkorrekturpuffer eines CD-Spielers überläuft.

Selbstverständlich sind die Treiber professioneller Audiointerfaces so programmiert, dass ein Puffer  nicht überläuft. Aber in einem komplexeren System wie einer DAW erzeugen die nicht echtzeitkritische Treiber wie Ethernet- oder Maustreiber oft erheblich Probleme. So ist das typische Durchschnitts- Notebook aus dem "Technik-Markt" für den Audio-Betrieb meist völlig ungeeignet. Mit etwas Glück kann man bei diesen Geräten durch Treiber Updates nachhelfen. Es gibt aber auch Computer, bei denen nur noch der Sondermüll hilft.

Um dieses Problem zu erkennen gibt es ein sehr einfaches Tool, den DPC Latency Checker

Hier ein Screenshot meines Macbook Air unter Windows 7:

DPC Macbook Air

Erzeugt ein Treiber auf Kernel-Ebene eine zeitliche Verzögerung, wird ein hoher Ausschlag angezeigt. Hier sehen Sie rote, gelbe und grüne Balken. Die Balken sind für den Leerlauf schon so hoch, dass dieses Gerät, zumindest in der Konfiguration für Audioanwendungen, nahezu unbrauchbar ist.

In vielen Fällen hat man Glück und kann durch simples Abschalten nicht benötigter Geräte im Geräte-Manager Abhilfe schaffen.

windows geräte manager

Folgende Geräte lassen sich nicht im Betrieb abschalten:

  • Jedes Gerät, das im Geräte-Manager unter "Systemgeräte" oder "Computer"
  • Die Festplatte, auf der das Betriebssystem installiert ist
  • Die IDE/ATAPI- oder SATA-Controller, über den die Festplatte angeschlossen ist
  • Benötigte Eingabegeräte wie Tastatur und Maus
  • Der USB-Controller, über den die Eingabegeräte angeschlossen sind
  • Die Grafikkarte, an dem der Bildschirm angeschlossen ist


Einige Geräte lassen sich ebenfalls direkt im BIOS abschalten. Kommt man mit dieser Methode nicht weiter, bleibt in den meisten Fällen nur die restlichen Treiber zu tauschen. Hilft das alles nicht, bleibt oft nur die Geräte auszutauschen. Testen wir ein Audio-Interface, so gehen wir sicher, dass die DPC Latenzwerte absolut identisch sind und vor allem gleichmäßig.

Was sind DPC Latenzen denn nun genau?

Die Verarbeitung von Daten in Echtzeit ist eine Herausforderung für Windows-basierte Anwendungen und Treiber. Windows ist von seiner Konstruktion her einfach nicht darauf ausgelegt Echtzeitanwendungen zu unterstützen und kann daher nicht garantieren, dass bestimmte periodische Aktionen zu einem bestimmten Zeitpunkt ausgeführt werden.

Audio- und Video-Datenströme, die von einem, oder zu einem externen Gerät übertragen werden, werden typischerweise von einem Kernel-Mode-Treiber verwaltet. Die externe Hardware löst in regelmäßigen Abständen einen "Interrupt" aus, also eine Unterbrechung des laufenden Prozesses, um den nächsten Datenblock vom Treiber anzufordern bzw. einen eigenen Datenblock ans System zu liefern. Diese Unterbrechung wird jedoch nicht sofort vom System angenommen. In Betriebssystemen, die auf Windows NT aufbauen, wie auch das heutzutage verwendete Windows 7, gibt es dazu eine spezifische Methode, um solche Interrupts zu handhaben. Diese sieht vor, dass der Treiber einen "Deferred Procedure Call" (DPC) beim System anmeldet.

Die DPCs der verschiedenen Gerätetreiber werden vom System in einer Art Warteschlange verwaltet. In regelmäßigen Abständen kontrolliert der Kernel die Warteschlange. Wird gerade kein anderer DPC verarbeitet, wird der nächste DPC-Aufruf angenommen und ausgeführt. Dieses Prinzip der Warteschlange führt dazu, dass ein sehr lange laufender DPC die Ausführung der anderen hinauszögert.

Man kann die Latenz eines spezifischen DPCs also definieren, als die Summe der Laufzeiten aller vor dem auszuführenden DPC liegenden DPCs.

Mit anderen Worten: Schlecht programmierte Treiber, die unnötig viel Zeit beanspruchen, stören sämtliche anderen Treiber. Wird bei einer Aufnahme das Abrufen der Audio-Daten am Interface zu lange verzögert, reicht der Pufferspeicher im Interface nicht mehr aus, um die Daten vorzuhalten und an das System zu übergeben. Eine Signalunterbrechung ist die Folge, ein Knacksen ist zu hören. Umgekehrt gilt dies natürlich auch. Wenn dem Interface nicht ermöglicht wird, schnell genug neue Daten vom Rechner abzufragen, wird die Wiedergabe gestört. So kann es passieren, dass ein simpler Maustreiber das Arbeiten unmöglich macht.

Mehr zum Thema Audio Interface: Link Audio Interface


0 Comments | Posted in Pro Audio Guide By DA-X

Das Audio Interface

01.08.2011 17:07:21
Audiointerface

Das Audio Interface


Als Herzstück des digitalen Tonstudios ist der Computer mit multiplen Aufgaben betreut und ersetzt dabei Bandmaschine, Mischpult, Effekte und Instrumente. Im tontechnischen Einsatz muss der Computer "auf den Punkt" funktionieren, denn immerhin sollen Aufnahme, Playback, interne und externe Instrumente sowie Effekte nicht irgendwann, sondern sofort und gleichzeitig ertönen. Neben einem zuverlässig konfigurierten, schnellen Rechner ist hier vor allem das Audio-Interface gefordert. Es stellt die Audioein und -ausgänge eines Computersystems - die Schnittstelle zu Aufnahme und Wiedergabe. Im Vergleich zu einer internen Lösung handelt es sich dabei um eine Entwicklung für den tontechnischen Bereich mit entsprechenden Chips, Treibern und musikspezifischer Ausstattung sowie dem Ziel, die Klangqualität zu steigern.
Den Überblick im Dschungel der verschiedenen Modelle und Typen zu wahren, fällt schwer. Konkurrenz belebt zwar das Geschäft, bringt aber auch durch Preisdruck handfeste Nachteile mit sich. Fest steht: Ihr Audio-Interface soll gut klingen, dazu zuverlässig und schnell mit der DAW und den aktuellen Betriebssystemen arbeiten. Hierfür sind herstellerseitig Investitionen in die Hardware und die Treiberentwicklung unumgänglich. Wenn an einer der beiden Stellen gespart wird, hakt das Gesamtsystem! Gnadenlos billig bedeutet, zumeist Abstriche in Qualität und/oder Ausstattung in Kauf zu nehmen.
Zwar ist die grundsätzliche Klangqualität der AD/DA-Wandler heute beachtlich, dennoch gibt es klare Unterschiede insbesondere im Bereich der analogen Preamps, der Treiber, der Schnittstellenadaption innerhalb des Gerätes und natürlich der mechanischen Ausführung.

Die Schnittstellen


Mac, PC oder Unix?
Die relevanten Plattformen sind heute Mac OS X und Windows 7 sowie, auf älteren Systemen Windows XP und Vista. Ältere Systeme laufen trotz neuer Plattformen sicher nicht weniger stabil, allerdings sollte man nicht damit rechnen, dass Neuentwicklung auch wirklich explizit mit alten Betriebssystemen und Komponenten getestet wird. Bei einem Neukauf sollten Sie sich für ein Windows 7 System mit 64 Bit entscheiden, während aktuelle Macs ohnehin mit dem jeweils aktuellsten OS X ausgeliefert werden. Wer seinen Rechner in dieser Hinsicht Up-to-Date bringen möchte, sollte eine Kompatibilität seiner Werkzeuge zunächst überprüfen. Das gilt für Sequencer, Plug-ins und alle Treiber. Sich für ein 32 Bit Betriebssystem zu entscheiden ist unvernünftig, denn es kann bisher stets auch in einem 32 Bit Modus arbeiten (Win 7/64, Snow Leopard, Lion). Allerdings vergeben Sie sich durch den Verzicht auf 64 Bit die Option die aktuelle, rasante Adaptierung auf den größeren Speicherbereich mitzunehmen. Unix-Derivate, abgesehen von OS X selbst, sind im professionellen Audiobereich wenig verbreitet. Entsprechend werden wir dieses Thema an dieser Stelle auch nicht weiter verfolgen.

Die Frage nach der Rechnerplattform müssen Sie selbst treffen. Dabei können Ihnen folgende Tipps eventuell von Nutzen sein:
  • Welche DAW kenne Sie bzw. möchten Sie nutzen?
  • Welche DAW nutzen Ihre Bekannten und Partner?
  • Legen Sie Wert auf modulare Erweiterung?
Windows- und Applerechner nehmen sich hinsichtlich der Geschwindigkeit nichts, es gibt aber mehrere Quellen die belegen das AU-Plug-ins weniger performant als VST-Plug-ins sind. Allerdings ist der "PC" aufgrund seines uneinheitlichen Aufbaus das erheblich fehleranfälligere System. Stabilität setzt hier Sachkenntnis voraus und wir unterstützen Sie als marktführender Hersteller professioneller Audio-PC-Systeme, indem wir Ihnen ein schlüsselfertiges System anbieten.
Der modulare Aufbau stationärer Windows-Systeme ist der Apple-Plattform deutlich überlegen. Das Angebot an internen Steckplätzen, möglicher Schnittstellenvielfalt und Erweiterbarkeit ist in der Regel deutlich größer. Allenfalls der Mac Pro kann hier konkurrieren, kostet allerdings auch signifikant mehr als vergleichbare PCs.
Geht es um fest konfigurierte oder gar Mobilsysteme ist deren Leistung von den eingesetzten Komponenten abhängig. Hier erweist sich der PC als größere Fallgrube. Auch hier bietet wir Ihnen ein durch und durch getestetes, fertiges System an.
Bei Apple Rechnern gilt es allerdings ebenfalls Fallstricke zu beachten: So gibt es Modelle außerhalb der Mac Pro Serie, die Firewire-Chip von Agere verbauen, die mit vielen Audio-Interfaces nicht kompatibel sind.
Technisch betrachtet ist Apples Audioarchitektur Core Audio der Windows-Spezifikation überlegen. Es ist ein modernes Treibermodell das niedrige Latenz und Multi-Client-Betrieb ermöglicht, ebenso wie ein Verschmelzen mehrere Audio-Interfaces zu einer kombinierten virtuellen Einheit (Aggregate Device).
Demgegenüber steht die veraltete MME/Direct X Basis von Windows, die für den Einsatz in der Musikproduktion untauglich ist. Modernere Treibersysteme wie WDM-KS setzen sich nicht einheitlich durch. Stattdessen greift eine Minderheit der anbietet zu proprietären Lösungen (Avid), die Mehrheit zum ASIO-Treibermodell der Firma Steinberg - hier sind ebenso überzeugende Ergebnisse möglich.


Monitoring und Latenz
Das ideale Audio-Interface transferiert alle Daten verzögerungsfrei vom Eingang zum Ausgang. So einfach ist das aber nicht. Neben der "gleichzeitigen Berechnung" mehrere Mischpultkanäle, ist die CPU auch noch an mehreren Orten tätig, etwa bei einer Kopieraktion, der Grafikaufbereitung usw. Wenn am Eingang ununterbrochen Audiosignale eingespeist werden, sollen diese Sprünge der CPU aber unhörbar bleiben. Diese Aufgabe ist nur durch Puffer umsetzbar, die die Daten vorhalten, bis die CPU Zeit zur Bearbeitung findet. Puffer gibt es an etlichen Stellen im Rechner und auch im Treiber für das Audio-Interface. Der Nachteil: Puffer bedeuten Zeitverzögerung mit folgenden Problemen:
  • Eingangssignale und Ausgang sind zeitlich gegeneinander versetzt.
  • Steuersignale (z.B. Keyboard) für rechnerinterne Signale sind verzögert.
Während sich das Audiosignal in einem analogen Mischpult quasi verzögerungsfrei vom Ein- und Ausgang bewegt, stellt die digitale Verzögerung - die sogenannte Latenz - ein Problem dar. Im ungünstigsten Falle hört man die eigene Performance spürbar zeitverzögert zum Playback.

Zur Lösung bzw. Minderung des Problems gibt es drei Wege:
  1. das Monitoring außerhalb des Computers, etwa über ein Mischpult
  2. das Heruntersetzen der Treiberpuffer
  3. der Einsatz von Direktmonitoring-Verfahren

Variante 1.  ist sinnvoll, aber an die Verfügbarkeit externer Geräte gebunden. Variante 2. liefert bei kleinen Treibergrößen gute Ergebnisse. Allerdings geht mit kleinen Puffergrößen auch ein Anstieg der Rechnerbelastung einher. Typischerweise werden Sie deshalb auf Variante c zurückgreifen. Die Ausnahme: Wenn Sie etwa einen virtuellen Synthesizer oder einen virtuellen Gitarrenverstärker spielen, also Effekte und Instrumente aus dem Rechner nutzen, kommen Sie um kleine Puffer nicht herum.

Bei Direktmonitoring wird das Eingangssignal während der Aufnahme "direkt" an die Ausgänge weitergeleitet. Dieses Direktmonitoring ist entweder über den Treiber spezifiziert oder aber Teil der Hardware in Form eines regelbaren Mischungsverhältnisses von Playback und Eingang.
Komplexer arbeiten autarke Monitorsysteme, die über einen Signalprozessor im Audio-Interface organisiert werden. Hier lassen sich mehrere Eingänge als Monitormischung auf spezifische Ausgänge zusammenführen. Solche Monitormischpulte in Audio-Interfaces sind unterschiedlich komplex aufgebaut. Vollkommene Freiheit bieten Systeme, die unabhängige Mischungen von Eingangs- und Playbacksignale an beliebige Ausgänge erzeugen können, wie etwa bei RME. Diese Unabhängigkeit erfordert natürlich auch zusätzliche Ausgänge bzw. Kopfhörerverstärker.
Weiteren Komfort bieten Effekte, die den Monitormix aufwerten, etwa in Form eines Nachhalls für den Sänger. Da diese Effekte quasi verzögerungsfrei für die Eingangssignale zur Verfügung stehen müssen, müssen also durch den Signalprozessor berechnet werden. Dafür liefert dieser oft gleichzeitig noch schnelle Pegelanzeigen, Werkzeuge zur Signalanalyse und weitere Vorteile. Entsprechende Lösungen findet man bei RME, Motu. Nahezu echtzeitfähige Signalprozessoren sind auch der Grund, warum im Bereich der gängigen Audio-Interfaces bis heute nur DSP-Systeme wie Pro Tools HD eine konzeptionelle Umgehung des Problems Latenz bieten: DSPs und ein direktes Kommunikationssystem zwischen den Wandlereinheiten und Steckkarten ermöglichen eine Signalbearbeitung, die in vielen Fällen einem analogen Mischpult nahekommt - allerdings nur solange native Elemente nicht im Signalfluss beteiligt sind.

Tipp: Latenz-Kontrolle
Der Treiber eines Audio-Interfaces übermittelt der Software seine Verarbeitungszeit. Mittels dieser Latenzangaben stellt der Sequenzer sicher, dass eine Audioaufnahme synchron zum Arrangement auf der Spur landet. Dabei werden die Wandler und eventuelle Systempuffer kompensiert. Falsch übermittelte Latenzwerte sind deshalb problematisch! Sie suggerieren gute Werte, bringen aber den Sequenzer in Bedrängnis.
Sie können die Treiberwerte mit einer Rundummessung hinterfragen. Das Prinzip ist einfach: Sie geben einen klaren Impuls an einer definierten Zeitposition aus. Dabei verbinden Sie den Analogausgang des Audio-Interfaces mit einem Eingang. Auf einer weiteren Spur nehmen Sie den abgespielten Impuls wieder auf. Das aufgezeichnete Signal kommt um die Gesamtlatenz des Systems verzögert an (Ausgangslatenz, Eingangslatenz, alle Puffer, Wandler). Der Versatz gegenüber der Originalposition auf der Ausgangspur müsste sich mit der gemeldeten Gesamtlatenz decken. Übrigens: Weder ASIO noch Core Audio berücksichtigen die unterschiedliche Laufzeit analoger und digitaler Anschlüsse an Audio-Interfaces.

Unsere Audio-Interface Kategorie im Überblick.
0 Comments | Posted in Pro Audio Guide By DA-X