Hartmann Neuron VST: Eine umfassende Erklärung

In der Welt der elektronischen Musikproduktion hat es seit den 1950er Jahren eine rasante Entwicklung gegeben, von den frühen Experimenten mit Computern bis hin zur heutigen allgegenwärtigen Nutzung von Software-Synthesizern und Digital Audio Workstations (DAWs). Der Hartmann Neuron VST stellt in dieser Evolution einen besonderen Meilenstein dar. Dieser Artikel beleuchtet die Hintergründe, die Technologie und die Besonderheiten dieses Instruments.

Die Anfänge der digitalen Musikproduktion

Die ersten Schritte in der computergestützten Musikproduktion wurden bereits in den 1950er Jahren unternommen, aber erst in den 1980er und 1990er Jahren erlebte diese Entwicklung einen regelrechten Aufschwung. Analoge Schaltkreise in Synthesizern wurden zunehmend durch spezialisierte Computer ersetzt. Mit steigender Rechenleistung wurde die Klangerzeugung direkt in den Computern realisiert, wodurch Hardware-Synthesizer heute nur noch einen Bruchteil der Instrumentenproduktion ausmachen. Die digitale Produktion wurde erschwinglich und fand nicht mehr nur im akademischen Bereich Anwendung.

Frühe Pioniere der Computermusik

Schon früh wurden Computer zur Steuerung und Erzeugung von Musik eingesetzt. Das elektronische Studio der Columbia University in New York City erhielt seinen Computer als Geschenk, nachdem dieser nicht die erwarteten Hits komponierte. Ausgestattet mit Oszillatoren von Bob Moog, wurde er für die Komposition zeitgenössischer klassischer Musik eingesetzt. 1957 schrieb Max Matthews die erste Musiksoftware, und der australische CSIRAC-Computer sang bereits 1960 seine Lieder.

Die Programmierung der frühen Musiksoftware, wie auch der davon abstammenden Programme wie CSound (1986), SuperCollider (1996) und ChucK (2003), war wenig intuitiv und ähnelte eher der Arbeit eines Softwareentwicklers. Ein Sinuston mit 440 Hz, einer Phase von 0 und einer Lautstärke von 0,5 wird in SuperCollider wie folgt notiert: SinOsc.ar(440, 0, 0.5). Wer daran jedoch Freude hat, besitzt eine unglaublich mächtige modulare Umgebung, die zumeist sogar kostenlos ist.

IRCAM und die Entwicklung von Max

Bedeutend für die Entwicklung des Computers als echtes Musikinstrument war auch die Forschungsarbeit des IRCAM (Institut de Recherche et Coordination Acoustique/Musique), das 1970 gegründet und 1977 eröffnet wurde. Im Gegensatz zum bereits bestehenden Pariser Studio INA/GRM ging es im IRCAM vor allem um live gespielte Elektronik. Hier wurden schon Ende der 1970er Jahre digitale Klangprozessoren und Workstations entwickelt.

Lesen Sie auch: Leistungen von Neurologe Hartmann

1985 begann Miller Puckette hier mit der Entwicklung von Max, einer ursprünglich für den Macintosh geschriebenen Software, die sich im Unterschied zu den oben genannten Programmen von Anfang an auf eine graphische Benutzeroberfläche konzentrierte. Mitte der 1980er Jahre waren die Computer jedoch noch nicht so weit, und Max fungierte als Steuerprogramm z. B. von MIDI-Daten, während die Klangerzeugung noch auf Geräten wie der Sogitex 4x Workstation oder später auf der von Steve Jobs entwickelten NeXT Plattform erfolgte.

1997 erschien dann die entscheidende Erweiterung Max/MSP, mit welcher Musik in Echtzeit auf einem haushaltsüblichen Computer erzeugt werden konnte. Der Name Max/MSP steht sowohl für Max Matthews, nach dem das Programm benannt wurde, als auch für MSP, was für Max Signal Processing aber auch für Miller Smith Puckette steht. Max, inzwischen in der Version 8 und vielen auch über Max for Live als Erweiterung von Ableton Live bekannt, ist heute eine ungeheuer vielfältige Plattform für die Erzeugung von Steuerungs-, Audio- und Videodaten und wird in vielen Kunst- und Musikprojekten eingesetzt. Bekannt geworden ist der Einsatz von Max z. B. durch Autechre, aber selbst viele Programme zur MIDI-Steuerung auf dem iPad wie Lemur, Touch OSC oder MIDI Designer basieren auf diesem Prinzip.

Das Heimstudio der 1980er Jahre und die ersten Soundkarten

1981 erschien mit dem IBM PC Model 5150 der erste PC. Der „persönliche“ Computer bezeichnet dabei nur die Größe und die Anwendung durch eine Person im Gegensatz zu den früheren schrankwandgroßen Mainframecomputern. Die Bezeichnung wird zwar oft nur in Verbindung mit Produkten von Microsoft verwendet, gemeint sind jedoch alle Arten von Heimcomputer. Commodore, Atari, Microsoft, IBM, Schneider und Apple fallen ebenso darunter wie MS-DOS, Macintosh, TOS und OS/2. Diese PCs verfügten in den Anfängen meist über nur einen einzelnen Lautsprecher, dessen Aufgabe es war, zu piepsen. Immer in derselben Lautstärke, immer mit dem charakteristischen Sound einer Rechteckwelle, aber immerhin mit verschiedenen Tonhöhen.

Ab 1983 und mit der Erfindung von MIDI liefen auf den Computern Rastersequenzer, die sogenannten Tracker. Die Klangerzeugung erfolgte entweder innerhalb der verbauten Chips - auf dem Commodore z. B. In diesen Geräten wiederum arbeiteten Soundchips, viel zu viele um sie hier einzeln vorzustellen. Einige der Chips wurden dabei auch in Synthesizern der Zeit eingesetzt, wie z. B. die Chips von Yamaha und Roland, die sich genauso in deren Hardware Synthesizern fanden. Und selbst, wenn es heute nur digitale Sound Chips gibt, sie machen Musik in Computern, Smartphones, Waschmaschinen und Tablets. Die Welt ist voll von Synthesizern und sie werden im industriellen Standard als Massenware hergestellt.

Interessant dabei: In den 1990ern wurde eifrig über die Vor- und Nachteile von Creative Labs Sound Blaster versus Gravis Ultrasound diskutiert. 1986 entwickelte Motorola einen Chip, der sich ganz auf die digitale Signalverarbeitung konzentrierte. Digital Signal Processing, kurz DSP, ist nämlich genau das, was zur Errechnung und digitaler Echtzeitgenerierung von Audio sowie Video benötigt und die Motorola DSP56000 Serie kam in Graphik- und Soundkarten, und in vielen Synthesizern zum Einsatz.

Lesen Sie auch: Überblick über Hartmann Neurologie

Als dann 1989 die erste Sound Blaster Karte erschien, wanderte die Klangerzeugung endgültig in den Computer. Natürlich verschwanden die Türme von Rack-Synthesizern nicht gleich und noch lange hatten viele Soundkarten einen MIDI-Port gleich mitinstalliert, aber ein Anfang war gemacht.

Der Übergang zum digitalen Tonstudio

Die Arbeit mit Tonband war mühsam und zeitaufwendig. Daher wurde früh nach Wegen gesucht, das Leben mit digitaler Technik zu erleichtern. Vor diesem Hintergrund wurden der Fairlight CMI oder das NED Synclavier erfunden, die auch schon die Idee eines digitalen und tonbandlosen Studios entwickelten. Die Bezeichnung ‚TS‘ beim Synclavier TS steht genau dafür: Tapeless Studio.

Mit genau dem gleichen Schlagwort erschienen 1989 das Digidesign Sound Tools Audiointerface mit dem neuentwickelten Motorola DSP56000 Chip und die Sound Designer II Software auf dem Markt, aus denen zwei Jahre später die DAW Pro Tools werden sollte. Die erste Version von Pro Tools aus 1991 beherrschte dann schon zwei analoge und zwei digitale Ein- und Ausgänge, Pro Tools II TDM aus dem Jahr 1994 lieferte immerhin schon 16 Spuren. Und so ging es immer weiter: Die Anzahl der Spuren wurde ebenso größer wie die Audioqualität besser und die Verarbeitung schneller.

Die längste Zeit benötigte Pro Tools dafür dedizierte Audiokarten, bevor 1999 das erste Mal eine reduzierte Pro Tools Variante erschien, die selbst mit ein paar ausgewählten anderen Audiointerfaces arbeiten konnte. 2005 wurde aus dem Audioeditor dann tatsächlich eine selbstständige Produktionssoftware, denn ab diesem Zeitpunkt wurde Pro Tools auch mit eigenständigen Softwareinstrumenten ausgeliefert. Und erst seit 2011 ist mit ProTools 9 die Bindung an bestimmte Audiointerfaces aufgehoben.

Die Entwicklung der DAWs

Die Entwicklung von Pro Tools spiegelt sich analog auch bei den anderen großen DAWs wider. Steinbergs Cubase erschien 1989 als MIDI Sequenzer und wurde nach und nach zu einer DAW aufgebohrt, allerdings auf Basis der von Digidesign entwickelten Hardware. 1996 wurde die VST-Erweiterung erfunden, mit der man Effekte und Instrumente von Fremdanbietern einbinden konnte. Die VST-Erweiterung wurde Industriestandard, und Cubase hatte für eine Weile die Nase vorn. 1999 wurde mit Cubase VST 24 3.7 zum ersten Mal ein eigenes virtuelles Instrument mitgeliefert. Der Neon genannte Softsynth lieferte zwei Oszillatoren, zwei Envelopes, einen Filter und einen LFO.

Lesen Sie auch: Finden Sie den besten Neurologen in Mönchengladbach

Der dritte im Bunde ist Logic von Emagic, das 1993 erschien. Auch hier beruhte die Technik auf den Entwicklungen von Digidesign, und auch hier erschienen 1999 die ersten virtuellen Instrumente. Mit dem Verkauf an Apple im Jahr 2002 entstand das Logic von heute, dessen Herkunft man aber noch an den Softsynths von Emagic und vor allem an deren GUI aus der Zeit der letzten Jahrtausendwende erkennt, in welcher Computer immer noch ein bisschen Science-Fiction-Feeling ausstrahlten.

Die Geschichte aller dieser DAWs ähnelt sich also: Um 1990 kamen sie als einfaches Schnittprogramm, Sequenzer oder Notensatzprogramm auf, es fand eine allmähliche Erhöhung der Spuren und der Klangqualität statt, und Ende der 1990er begann die Entwicklung von Softsynths. Ab 2000 haben wir es bei DAWs mit vollausgereiften Produktionsstudios zu tun, und spätestens ab 2010 erfolgt die Loslösung von dedizierter Hardware. Heute ähneln sich DAWs im Funktionsumfang, unterscheiden sich aber im Workflow. Und inzwischen gibt es natürlich noch viel mehr Programme: Bitwig, Studio One, FL Studio und Reaper sind hier nur die bekanntesten.

Eine Besonderheit stellt aber vielleicht immer noch Ableton Live dar, das 2001 erschien. Ableton Live war die längste Zeit eine Software, die im Gegensatz zu den üblichen DAWs für - Überraschung! - den Live-Einsatz entwickelt wurde. Zum großen Erstaunen aller konnten bei Ableton Live Audiodateien während des Spielbetriebs ausgetauscht werden, was etwas war, das so überhaupt nicht mit dem Tonbandschnittparadigma der anderen DAWs zusammenging.

Der Synthesizer als Computer

Die Synthesizer wurden zu Computern, und das auf seltsame Weise gleichzeitig überdeutlich und unbemerkt. Als der Yamaha DX7 1983 erschien, war einerseits ganz klar, dass man es mit einem digitalen Gerät zu tun hat, andererseits wäre niemand auf die Idee gekommen, ihn als VST in a box zu bezeichnen und das nicht nur, weil es VSTs noch gar nicht gab. Einem DX7 spricht niemand ab, ein Instrument zu sein, bei neuen digitalen Synthesizern hört man dagegen oft, dass es ja „nur“ ein Computer sei.

In einem Yamaha DX7 arbeiten ASICs (application-specific integrated circuit), also anwendungsspezifische integrierte Schaltungen. Tatsächlich handelt es sich dabei um custom chips, also speziell hergestellte Chips, die teuer in der Herstellung waren. In den analogen Zeiten waren das eben die bekannten SSM, CEM und SID Chips mit miniaturisierter analoger Klangerzeugung. Im DX7 und frühen Soundkarten auch anderer Firmen werkelten dagegen oft die OPL2 und OPL3 Chips von Yamaha. Diese Chips generieren den Klang mithilfe von in den Chips gespeicherten trigonometrischen Tabellen, deren Werte ausgelesen und in Spannung umgesetzt werden. Der erforderliche Rechenaufwand hält sich dabei sehr in Grenzen, bei der Klangerzeugung im DX7 muss noch nicht einmal multipliziert werden.

Schließlich tauchten die DSP Chips auf, bei denen der Chip selber die gewünschten Wellenformen in Echtzeit berechnet, was noch einmal ganz andere Ansprüche an die Rechenleistung stellt. DSP Chips wurden von vielen Firmen hergestellt, und im Markt der Synthesizer wurden vor allem Produkte von Motorola, Texas Instruments und Sharc eingesetzt. Mit den analogen Chips war vornehmlich subtraktive Synthese möglich, mit den Chips von Yamaha nur FM-Synthese, aber mit den DSP Chips standen plötzlich alle Türen offen. Und so kam es zu einer ganzen Explosion an neuen Synthesearten in den 1980er und 1990er Jahren.

Physical Modeling und virtuell analog

Zwei Syntheseformen fehlen aber noch, die besonders und einflussreich die Entwicklung beeinflussten: Physical Modeling und virtuell analog. Physical Modeling errechnet die Eigenschaften „echter“ Musikinstrumente und bringt das Ergebnis zum Klingen. Man erstellt also ein physikalisches Modell von einer Marimba, schlägt mit einem physikalischen Modell eines Schlegels darauf und bringt so den virtuellen Holzklangstab der Marimba zum Schwingen. Und wie in der Realität gibt die virtuelle Marimba einen virtuellen Ton von sich, der berechnet und hörbar gemacht werden kann.

Interessant für die Klangsynthese wird es aber dann, wenn man verschiedene Teile von verschiedenen Musikinstrumenten miteinander kombiniert, und das wurde Mitte der 1990er Jahre mit dem Yamaha VL1 und VL7 (1994), dem Technics WSA1 (1995) und dem Korg Prophecy (1995) ausprobiert. Die dahinterstehenden Patente kamen übrigens wie schon bei der FM-Synthese von der Standford University, die sich einen weiteren Geldsegen aus der Zusammenarbeit mit Yamaha erhoffte. Die wirklich innovativen Instrumente waren allerdings keine echten Erfolge, denn den neuerstellten Instrumenten geht es oft ein bisschen wie dem genauso zusammengestöpselten Frankenstein: Man erkennt was es ist, aber hübsch ist es nicht…

Axel Hartmann und der Hartmann Neuron

Axel Hartmann zählt weltweit zu den anerkanntesten Industriedesignern für elektronische Musikinstrumente. Seine kongeniale Eigenentwicklung - der Hartmann Neuron Synthesizer - war seiner Zeit weit voraus und ist noch heute ein gesuchtes Sammlerobjekt. Mit dem 20 Synthesizer treibt Axel Hartmann seinen kompromisslosen Anspruch auf die Spitze - Ein edles, luxuriöses Design-Objekt, das perfekte Funktion und Klang fast als Selbstverständlichkeiten in den Hintergrund treten lässt. Und nur wenige werden das Privileg haben, den 20 zu erleben, denn er wird in den Varianten Silber/Schwarz und Schwarz/Schwarz jeweils nur 20 Mal in exklusiver Handarbeit gebaut.

Schon seit vielen Jahren war es Axel Hartmanns Traum, einen Synthesizer zu entwickeln und zu bauen, ohne auf Budget-Vorgaben oder Markenrichtlinien zu achten. „Ich wollte frei sein und mit genau den Materialien arbeiten, die mir vorschweben. Ich möchte die Herstellungsprozesse wählen, die die besten Ergebnisse hervorbringen, um am Ende das Optimum in Design, Funktion und Klang darzustellen. Ein Synthesizer, der nicht nur gut klingt und aussieht, sondern auch und gern eingesetzt wird, weil er durch ein einzigartiges Bedien-Gefühl und logische Funktionalität gleichsam dazu einlädt." Für den perfekten Entwurf und die aufwendige Konstruktion des Gehäuses haben Axel Hartmann, sein Partner Stefan Leitl und das Team seiner Agentur Design Box über 2.000 Arbeitsstunden investiert.

In einer exklusiven Manufaktur, nahe des Bodensees, wird das Gehäuse dreidimensional gefräst und für das perfekte Oberflächen-Finish computergesteuert mit Glasperlen gestrahlt und danach in Schwarz oder Aluminium Natur eloxiert. Alle Beschriftungen und sonstigen Designelemente werden via Lasergravur eingearbeitet. Die kompromisslose Logik der Benutzerführung macht den 20 zu einem überaus musikalischen, programmierfreudigen Instrument.

Die Sound-Engine wurde von Waldorf Music entwickelt und ist klanglich über jeden Zweifel erhaben. Wie auch teuerste Sportwagen für ein Mehr an Leistung immer noch ein wenig getunt werden, so wird der Klang dieser Engine im 20 durch einen SUPRA Op-Amp nach außen geleitet, den der deutsche Hersteller SPL extra für diesen Synthesizer entwickelt hat. Durch die 120-Volt-Technologie der renommierten deutschen Pro-Audio-Schmiede gewinnt der Sound des 20 deutlich an Dynamik und Transparenz.

Die gleiche Liebe und Detailverbundenheit, die Axel Hartmann in die Gestaltung des Synthesizers hat einfließen lassen, zeigt sich in den Sounds, die namhafte Sound-Designer dem 20 mit auf den Weg geben. Es ist eine wunderbar persönliche Auswahl, die auch einen Blick auf den Musiker Axel Hartmann erlaubt - voller Liebe zum Detail, hervorragend spielbar und ein perfekter Querschnitt aus 50 Jahren Synthesizer-Geschichte. Als Extra gibt es Soundsets von zwei Sound-Designern, die Axel Hartmann aus jahrelanger Mitarbeit an Synthesizer-Legenden kennt: Kurt Ader mit seinem Ka-Pro Team um Professor Peter Jung, sowie sein Weggefährte aus frühesten Tagen, Peter Gorges.

Die Technologie hinter dem Neuron

Der Hartmann Neuron analysiert ein Sample und zerlegt es nach einer Art von "FFT" (Fast Fourier Transformation) und speichert ein algorithmisches Abbild des Klanges - also kein Sample! Die FFTs sind in Sinussignale frequenzmässig zerlegte Analysedaten. Denn jeder Klang kann ja in Sinustöne und Obertöne zerlegt werden. Ab hier kann man nun algorithmisch einige "Anfasser" basteln, welche das Ganze verzerren, hier mithilfe neuronaler Netze, was schonmal gut klingt.

Es basiert auf resonierenden OSCs/Filtern, welche analog aufgebaut sind und per DSP kontrolliert werden. Der Neuron ist in der Lage, einen Teil von klanglicher Veränderung zu machen, die gebotenen Anfasser der Modelle sind oftmals identisch, egal welcher Klang. Aus Samples werden Modelle, die jedoch eine gewisse "Starrheit" dennoch besitzen, jedoch aber eine Zerlegung in kleinere Teile machen müssen, um den Klang auswerten und verändern zu können. Trotz dieser "groben" Analyse ist der Neuron bisher in seiner Art einzigartig.

Neuron VS als Software-Synthesizer

Der Hartmann Neuron kam 2000 auf die Welt, und später kam der Hartmann Neuron VS als Software Synthesizer. 2012 wurde der Neuron VS kostenlos, aber NUR für MAC erhältlich.

Einige Nutzer haben Probleme mit dem Neuron VS unter Windows 10 festgestellt. Zuerst wollte das 32bit VST nicht starten. Dann lief es mit der GUI, aber es kam kein Ton raus. Es gibt ein paar Probleme, die man wieder nicht auf dem Schirm hatte. Zum einen sind ein paar Bänke „defekt“, sodass er beim Aufrufen der Patches abstürzt. Das wird wohl an der MAC Datenbank liegen, die für die „Neuere“ Version ist. Schlimmer ist allerdings, dass Ableton Live die Patches nicht speichert, die man verwendet hat im Arrangement. Der Neuron verzerrt und übersteuert gerne.

Die Community und der Hardware-Neuron

Es gibt eine User Group, die international besetzt ist, und hier kann man alle Infos beziehen, Mainboards, Löten, Netzteil usw. Du bist auf der Umsetzung ja immer alleine, mehr als begleiten kann man Dich ja nicht. Klar, es gibt auch Techniker, die sich um den Neuron kümmern können. Wegen Elektroschrott, es ist ein Computer mit Linux, und das einzige Problem ist eben das Mainboard zu beschaffen, aber machbar. Zb nach einem neuen Austausch Mainboard suchen und einlagern.

Eine Ferndiagnose ist wirklich schwer, aber Ersatzteile sind immer gut. Die Elkos vorsorglich austauschen ist aber schon angebracht, die sind einfach nicht hochwertig und werden unausweichlich taub. Auch weil die Kühlung mist ist, also da ist auch Potential. Beim letzten Neuron hatte man einen wirklich großen Lüfter verbaut.

Klangliche Eigenschaften und Anwendung

Die zufälligen Ergebnisse, immensen Klanggestaltungsmöglichkeiten sind wirklich absolut außergewöhnlich und mit keinem Synthesizer so auf die Schnelle erreichbar. Allerdings finden einige Nutzer den Grundsound etwas flachbrüstig und teils klirrend. Erinnert ein bisschen an Rolands U Serie. Oben raus recht viel Aliasing, und das Filter dünnt mächtig aus. Was man damit wohl definitiv nicht machen kann, sind analog klingende Sounds oder Sounds vom akustischen Instrumenten. Dafür hat er mit Klängen beglückt, die man das Leben noch nie gehört hat.

Der Neuron ist ein Spezialist für Filmmusiksounds, Flächen, Scchwurbel und Ambientfreunde werden GENAU DIESEN Synthesizer immer gesucht haben!

Axel Hartmann als Designer

Auch wenn Axel Hartmann vielleicht nicht den „Fame“ eines Boob Moog mitbringt: In der Synthesizer-Branche ist Hartmann einer der wichtigsten Designer.

Gearnews: Ab welchem Punkt in der Entwicklung eines Synthesizers werden Sie involviert?

Axel Hartmann: Idealerweise werden wir zu einem Zeitpunkt in ein Projekt hinzugezogen, an dem die grundlegenden Spezifikationen eines zukünftigen Produkts bereits feststehen. So können wir das Design schon von Anfang an perfekt an das Produkt anzupassen. Natürlich ist das nicht immer der Fall. Wir wurden auch schon einige Male zu einem späteren Zeitpunkt angefragt. Wir konnten bei einigen Projekten auch schon bei der Ausarbeitung der Spezifikationen mitwirken.

Axel Hartmann: Ich würde sehr gerne einen Synthesizer für Hans Nordelius/Nord entwerfen, weil ich deren Produkte sehr schätze und sie auch selbst als Keyboarder verwende. Ich denke auch, dass wir mit unserer Erfahrung und unseren Fähigkeiten vielleicht sogar einen guten Beitrag zur Ästhetik der Clavia-Produkte leisten könnten. Aus ästhetischer Sicht bewundere ich - wie vielleicht viele meiner Kollegen - die Produkte von Teenage Engineering, die in den winzigsten Details ihres Industriedesigns einfach nur genial sind.

Axel Hartmann: Plugins vs.

GN: Du hast auch Designs für Plugins, wie z. B. Waldorf Nave und Antares Autotune, entworfen.

AH: Zunächst erscheint ein Plugin als zweidimensionale Grafik auf einem Bildschirm. Die Plugin-Szene hat sich parallel zu den Möglichkeiten der computergestützten Musikproduktion so weit entwickelt, dass sie heute in vielerlei Hinsicht im Vergleich zu Hardware das Werkzeug der Wahl ist, insbesondere im professionellen Bereich.

AH: Ich würde gerne mal ein richtig hochwertiges HiFi-Gerät entwerfen, vielleicht so etwas wie einen Plattenspieler oder sogar eine ganze Serie. Oder eine kompakte Stereoanlage, wie sie in den Siebzigern populär war. Aber ehrlich gesagt, bin ich überglücklich, dass ich in meiner bisherigen Karriere so viele Synthesizer und elektronische Musikinstrumente entwerfen durfte.

tags: #hartmann #neuron #vst #erklärung