Der Hartmann Neuron, ein Name, der in der Synthesizer-Welt für Innovation und einzigartige Klangsynthese steht, hat eine bewegte Geschichte hinter sich. Dieser Artikel beleuchtet die Entwicklung des Hartmann Neuron, von seinen Anfängen als Hardware-Synthesizer bis zu seiner Wiederauferstehung als Software-Instrument, und gibt Einblicke in die Herausforderungen und Erfolge bei der Nutzung des Neuron VS unter modernen Betriebssystemen wie Windows.
Die Geburt einer Legende: Der Hartmann Neuron
Um das Jahr 2000 erblickte der Hartmann Neuron das Licht der Welt. Axel Hartmann, ein bedeutender Designer in der Synthesizer-Branche, trug maßgeblich zu seiner Entwicklung bei. Seine Expertise erstreckt sich über zahlreiche Instrumente, von Waldorf (Wave, Q) über Alesis (Andromeda) bis hin zu Roland (Fantom 2019) und Arturia (Brute-Linie, MiniFreak, AstroLab). Sogar am Little Phatty, dem letzten Synthesizer, an dem Bob Moog vor seinem Tod arbeitete, war Hartmann beteiligt.
Der Hartmann Neuron versprach, die Klangsynthese durch den Einsatz neuronaler Netze zu revolutionieren. Die Hardwareversion, die 2002 auf den Markt kam, war jedoch aufgrund ihres hohen Preises nur wenigen zugänglich und wurde bereits 2005 wieder eingestellt.
Der Hartmann Neuron VS: Eine Software-Reinkarnation
Nach der Insolvenz von Hartmann im Jahr 2004 gab es einen Abverkauf von Restbeständen des Hartmann Neuron VS, was Synthesizer-Enthusiasten die Möglichkeit bot, zumindest die Softwarevariante und den zugehörigen Controller zu erwerben. Der Traum eines Synthesizersammlers schien wahr zu werden.
2012 kam die überraschende Nachricht, dass der Neuron VS kostenlos erhältlich sein würde - allerdings nur für Mac-Nutzer. Windows-Anwender waren enttäuscht. Doch die Hoffnung sollte nicht ganz sterben.
Lesen Sie auch: Leistungen von Neurologe Hartmann
Retro-Anfall mit Happy End: Neuron VS unter Windows 10
Nun ist es endlich gelungen, den Hartmann Neuron VS unter Windows 10 zum Laufen zu bringen! Dieser Erfolg ist jedoch nicht ohne Stolpersteine erreicht worden. Zunächst wollte das 32-Bit-VST nicht starten. Danach lief es zwar mit der Benutzeroberfläche, aber es kam kein Ton heraus.
Es gab einige Probleme, die es zu bewältigen galt:
- Einige Bänke sind "defekt", sodass beim Aufrufen der Patches Abstürze auftreten. Dies liegt wahrscheinlich an der Mac-Datenbank, die für die "neuere" Version gedacht ist.
- Ableton Live speichert die verwendeten Patches nicht im Arrangement.
- Der Neuron verzerrt und übersteuert gerne. Dem kann man aber mit dem integrierten Kompressor entgegenwirken.
Axel Hartmann: Ein Designer im Interview
Axel Hartmanns Einfluss in der Synthesizer-Branche ist unbestritten. Gearnews interviewte ihn über seinen Schaffensprozess und seine Inspirationsquellen.
Gearnews: Ab welchem Punkt in der Entwicklung eines Synthesizers werden Sie involviert?
Axel Hartmann: Idealerweise werden wir zu einem Zeitpunkt in ein Projekt hinzugezogen, an dem die grundlegenden Spezifikationen eines zukünftigen Produkts bereits feststehen. So können wir das Design schon von Anfang an perfekt an das Produkt anzupassen. Natürlich ist das nicht immer der Fall. Wir wurden auch schon einige Male zu einem späteren Zeitpunkt angefragt. Wir konnten bei einigen Projekten auch schon bei der Ausarbeitung der Spezifikationen mitwirken.
Lesen Sie auch: Hartmann Neuron VST: Funktionen und Möglichkeiten
Hartmann hat mehrere Lieblingsprojekte und betont, dass jedes Design seine eigenen, interessanten Anforderungen mit sich bringt. Besonders hervor hebt er die Arbeit am Little Phatty, dem letzten Synthesizer von Bob Moog. Er würde gerne einmal einen Synthesizer für Hans Nordelius/Nord entwerfen, da er deren Produkte sehr schätzt. Auch bewundert er die Produkte von Teenage Engineering für ihre Detailtiefe.
Hartmann beobachtet, dass heutzutage auch kleinere Hersteller erfolgreich großartige Instrumente oder Effekte entwerfen und vermarkten können. Die traditionellen Marketingstrukturen in der Synthesizerindustrie haben sich durch das Internet rasant verändert.
Plugins vs. Hardware: Hartmanns Perspektive
Hartmann hat auch Designs für Plugins wie Waldorf Nave und Antares Autotune entworfen. Er erklärt, dass Plugins zunächst als zweidimensionale Grafik auf einem Bildschirm erscheinen. Die Plugin-Szene hat sich parallel zu den Möglichkeiten der computergestützten Musikproduktion so weit entwickelt, dass sie heute in vielerlei Hinsicht im Vergleich zu Hardware das Werkzeug der Wahl ist, insbesondere im professionellen Bereich. Software-Instrumente sind mittlerweile weit mehr als die reine Emulation klassischer Instrumente oder Effektgeräte in der Welt der DAWs. Sieht man von „reinen Hardware-Nachbildungen“ ab, können Plugins äußerst kreative Instrumente sein, deren Klang- und Sounddesign-Möglichkeiten weit über das hinausgehen, was Hardware jemals bieten kann.
Beim Entwurf eines Hardware-Instruments geht es hauptsächlich um Aspekte wie Ergonomie, Herstellbarkeit, Produktionskosten usw. Bei Software-Instrumenten ist das anders. Natürlich gilt das auch für den Workflow eines „echten“ Hardware-Synthesizers. Aber dort ist das die Bedienoberfläche nur eine Dimension von vielen verschiedenen Aspekten des gesamten Instruments. Hinzu kommen die eben genannten Faktoren, die ein Hardware-Instrument als eigenständige Einheit ausmachen. Hartmann entwirft beides gerne.
Er findet auch ungewöhnliche Designs von Plugins wie Aberrant DSP oder LOLCOMP von Mixing Night interessant. Seiner Meinung nach haben beide Welten, Software und Hardware, ihre Daseinsberechtigung.
Lesen Sie auch: Überblick über Hartmann Neurologie
Hartmann ist ein großer Autofan und beobachtet Trends in der Automobilindustrie. Er würde gerne mal ein hochwertiges HiFi-Gerät entwerfen, ist aber überglücklich, dass er in seiner bisherigen Karriere so viele Synthesizer und elektronische Musikinstrumente entwerfen durfte.
Yellow Tools Independence Pro: Ein Sampler im Überblick
Yellow Tools Independence Pro ist ein umfassender Sampler, der als Standalone-Anwendung sowie als VST- und AU-Plug-in unter Windows und Mac OS X funktioniert. Er bietet eine große Benutzeroberfläche mit großen Buttons und Anzeigen, die ein ermüdungsfreies Arbeiten ermöglichen.
Independence Pro verfügt über eine Quick Edit Page mit Custom Remote Controls, eine Filterabteilung und eine Effektsektion. Auf der Modules-Seite lassen sich Sounds modifizieren, verdrehen oder Inserteffekte einfügen. Die flexibel handhabbaren Modifier lassen fast unbegrenzt viele Möglichkeiten zu.
Der Sampler unterstützt das Arbeiten mit Zonen und Layern und bietet über einen Audio-Editor Übersicht über die Wellenformen ausgewählter Samples, sowie über Sample Rate, Wortbreite, Typ und Länge. Hervorzuheben ist die äußerst clevere Importfunktion, die es ermöglicht zusammenhängende Samples anhand der Namensstruktur einzulesen.
Independence verfügt über einen eigenen integrierten Mischer, der das Verhältnis der einzelnen Layer Channels, Custom Channels, der Busse und den Output regelt. Jeder Layer Channel verfügt über eine unbegrenzte Anzahl von Inserts, deren Reihenfolge per Drag & Drop geändert werden kann. Es lassen sich bis zu fünf Busse adressieren, sowie die Audio-Ausgänge zuweisen.
Die Werkssounds decken einen sehr breiten Anwendungsbereich ab, wobei das Hauptaugenmerk hier auf Natursounds im weiteren Sinne liegt. Man findet in Independence Drumsets und Percussion-Sounds genauso wie Gitarren und Bässe. Auch schöne Pianos und E-Pianos sowie viele Synthie-Klassiker sind enthalten.
Um einen Überblick über die Soundauswahl von Independence Pro zu geben, werden im Soundbeispiel nur Sounds aus der Werkslibrary des Yellow Tools Samplers benutzt. Zusätzlich zum Kompressor kommt hier noch der 6-bandige parametrische EQ mit ins Spiel.
Independence 2 hat sich die Bezeichnung Workstation wirklich verdient. Independence ist logisch aufgebaut, so dass man durch alle Schritte der Samplebearbeitung geleitet wird. Die Sounds klingen klar, transparent und überzeugen durch das dynamische Mapping.
Wer sich von der Qualität von Independence überzeugen möchte, für den bietet Yellow Tools die Möglichkeit, sich Independenec Free zu laden. Diese Freeware enthält eine reduzierte, aber gute Klangbibliothek, die einen Querschnitt durch die Yellow Tools-Library bietet und ist zur großen Version laut Hersteller insofern beschränkt, als dass man in der neuesten Version nur eine beschränkte Anzahl an eigenen Samples importieren kann.
Die neuronale Philosophie: Ein Blick hinter die Kulissen
Der Hartmann Neuron analysiert ein Sample und zerlegt es in eine Art von "FFT" (Fast Fourier Transformation). Dabei wird ein algorithmisches Abbild des Klanges gespeichert, also kein Sample im herkömmlichen Sinne. Die FFTs sind in Sinussignale frequenzmässig zerlegte Analysedaten, da jeder Klang in Sinustöne und Obertöne zerlegt werden kann. Ab hier kann man nun algorithmisch einige "Anfasser" basteln, welche das Ganze verzerren. Hier mithilfe neuronaler Netze, was schonmal gut klingt.
Der Neuron ist in der Lage, einen Teil von klanglicher Veränderung zu machen, die gebotenen Anfasser der Modelle sind oftmals identisch, egal welcher Klang. Aus Samples werden Modelle, die jedoch eine gewisse "Starrheit" dennoch besitzen.
Trotz dieser "groben" Analyse ist der Neuron bisher in seiner Art einzigartig. Es ist keine Arbeit wie an einem modularen System, wo man einen Klang aus klaren Einheiten selbst zusammenstellt. Eher verdreht man den Klang mittels "musikalischer", vom Hersteller festgelegter Parameter, die einen fertigen Klang als Basis haben.
Es gibt inzwischen mehr als 300 Modelle (Neuron Models).
Hartmann Neuron: Ein Spezialist für besondere Klänge
Der Hartmann Neuron ist ein Spezialist! Filmmusiksounds, Flächen, Scchwurbel und Ambientfreunde werden GENAU DIESEN Synthesizer immer gesucht haben! Denn auf diesem Gebiet gibt es viel, was er tut.
Der Hartmann Neuron zerlegt Samples in Analyse-Daten und speichert diese. Daher ist auch das Morphen in den "Rysonatoren" möglich und das Aufprägen des Charakters des jeweils anderen Samples. Das ist etwas ganz Neues, was bisher nur Kyma konnte! Echtzeit!
Jeder der Rysonatoren hat 3x4 Parameter, die mit einem Joystick kontrolliert werden können. Man kann auch die Joystickfahrt aufzeichnen. Es gibt mehrere Modi, WIE gemorpht werden soll: eine Art Convolver wie in Metasynth oder Sonicworx (in Echtzeit), eine Rechts-Links-Anordnung, Mix zum Blenden und einige andere sehr interessante Formen.
Es gibt auch eine Art 3D-LFO, mit dem man auch die Stärke und auch 2Dimensionalität einstellen kann. WAS genau moduliert wird ist nicht genau raushörbar. Es ist aber im 3D Mode sehr bewegend und man kann das als eine Art zusätzlichen LFO mit Super-3D Megachorus nur untertrieben beschreiben.
Die Parameter haben Namen wie Alienize oder Glass -> Wood oder auch mehr Röhre oder mehr flach, warm oder kalt, Chaos oder Ordnung oder Funny.
Es gibt auch Filter in der Silver Sektion: Effekte (Delay mit Feedback), EQ und Filter (6, 12, 24dB LPF, HPF, BPF).
Die digitale Revolution in der Musikproduktion
Schon in den 1950ern wurden Computer zur Erzeugung von Musik eingesetzt, so richtig los ging es aber erst in den 1980er und 1990er Jahren. Auf einmal steckten in den Gehäusen der Synthesizer nicht mehr analoge Schaltkreise, sondern kleine spezialisierte Computer. Kaum wurden Rechner leistungsstark genug, erfolgte die Klangerzeugung direkt in diesen und heute machen Hardware-Synthesizer nur noch einen Bruchteil der Instrumentenproduktion aus. Die digitale Produktion wurde erschwinglich und nicht mehr nur im akademischen Bereich angewendet.
1980 wurde noch auf Tonband produziert, im Jahr 2000 nahm ein Tonbandgerät nur wertvollen Studioplatz weg, im Jahr 2021 nimmt ein wertvolles Tonbandgerät den schönsten Platz im Studio ein.
Kaum gab es Computer wurden sie schon zur Steuerung und Erzeugung von Musik genutzt. 1957 schrieb Max Matthews die erste Musiksoftware und der australische CSIRAC Computer sang schon 1960 seine Lieder.
Bedeutend für die Entwicklung des Computers zur Nutzung als echtes Musikinstrument war auch die Forschungsarbeit des IRCAM, dem Institut de Recherche et Coordination Acoustique/Musique, das 1970 gegründet und 1977 eröffnet wurde. Hier wurden schon Ende der 1970er Jahre digitale Klangprozessoren und Workstations entwickelt. 1985 begann hier durch Miller Puckette die Entwicklung von Max, einer ursprünglich für den Macintosh geschriebenen Software, die sich im Unterschied zu den oben genannten Programmen von Anfang an auf eine graphische Benutzeroberfläche konzentrierte. 1997 dann, Max wurde zwischenzeitlich an die Firma Opcode und dann an Cycling `74 lizensiert, erschien die entscheidende Erweiterung, Max/MSP, mit welcher Musik in Echtzeit auf einem haushaltsüblichen Computer erzeugt werden konnte.
1981 erschien mit dem IBM PC Model 5150 der erste PC. Ab 1983 und mit der Erfindung von MIDI liefen auf den Computern Rastersequenzer, die sogenannten Tracker. Die Klangerzeugung erfolgte entweder innerhalb der verbauten Chips - auf dem Commodore z. B. In diesen Geräten wiederum arbeiteten Soundchips, viel zu viele um sie hier einzeln vorzustellen. Einige der Chips wurden dabei auch in Synthesizern der Zeit eingesetzt, wie z. B. die Chips von Yamaha und Roland, die sich genauso in deren Hardware Synthesizern fanden.
1987 erschien mit Creator von C-Lab ein Notations- und Sequenzer-Programm, das neue Maßstäbe setzte und nicht nur das Ende des traditionellen Notenstichs einläutete, sondern im Zusammenhang mit den DSP Chips gleich auch das Ende des analogen Tonstudios. Als dann 1989 die erste Sound Blaster Karte erschien, wanderte die Klangerzeugung endgültig in den Computer.
Vor diesem Hintergrund wurden der Fairlight CMI oder das NED Synclavier erfunden, die auch schon die Idee eines digitalen und tonbandlosen Studios entwickelten. Und mit genau dem gleichen Schlagwort erschienen 1989 das Digidesign Sound Tools Audiointerface mit dem neuentwickelten Motorola DSP56000 Chip und die Sound Designer II Software auf dem Markt, aus denen zwei Jahre später die DAW Pro Tools werden sollte.
Steinbergs Cubase erschien 1989 als MIDI Sequenzer. 1996 wird die VST-Erweiterung erfunden, mit der man Effekte und Instrumente von Fremdanbietern einbinden kann. 1999 wird mit Cubase VST 24 3.7 zum ersten Mal ein eigenes virtuelles Instrument mitgeliefert. Der Neon genannte Softsynth liefert zwei Oszillatoren, zwei Envelopes, einen Filter und einen LFO. Der dritte im Bunde ist Logic von Emagic, das 1993 erscheint. Mit dem Verkauf an Apple im Jahr 2002 entsteht das Logic von heute, dessen Herkunft man aber noch an den Softsynths von Emagic und vor allem an deren GUI aus der Zeit der letzten Jahrtausendwende erkennt, in welcher Computer immer noch ein bisschen Science-Fiction-Feeling ausstrahlten.
Ableton Live war die längste Zeit eine Software, die im Gegensatz zu den üblichen DAWs für - Überraschung! - den Live-Einsatz entwickelt wurde.
ASICs, DSPs und die Entwicklung der Synthese
Als der Yamaha DX7 1983 erschien, war einerseits ganz klar, dass man es mit einem digitalen Gerät zu tun hat, andererseits wäre niemand auf die Idee gekommen, ihn als VST in a box zu bezeichnen und das nicht nur, weil es VSTs noch gar nicht gab. Einem DX7 spricht niemand ab, ein Instrument zu sein, bei neuen digitalen Synthesizern hört man dagegen oft, dass es ja „nur“ ein Computer sei. Was hat es damit auf sich?
In einem Yamaha DX7 arbeiten ASICs (application-specific integrated circuit). Tatsächlich handelt es sich dabei um custom chips, also speziell hergestellte Chips, die teuer in der Herstellung waren. In den analogen Zeiten waren das eben die bekannten SSM, CEM und SID Chips mit miniaturisierter analoger Klangerzeugung. Im DX7 und frühen Soundkarten auch anderer Firmen werkelten dagegen oft die OPL2 und OPL3 Chips von Yamaha. Diese Chips generieren den Klang mithilfe von in den Chips gespeicherten trigonometrischen Tabellen, deren Werte ausgelesen und in Spannung umgesetzt werden.
Schließlich tauchten die DSP Chips auf, bei denen der Chip selber die gewünschten Wellenformen in Echtzeit berechnet, was noch einmal ganz andere Ansprüche an die Rechenleistung stellt. DSP Chips wurden von vielen Firmen hergestellt und im Markt der Synthesizer wurden vor allem Produkte von Motorola, Texas Instruments und Sharc eingesetzt.
Mit den analogen Chips war vornehmlichsubtraktive Synthese möglich, mit den Chips von Yamaha nur FM-Synthese, aber mit den DSP Chips standen plötzlich alle Türen offen. Und so kam es zu einer ganzen Explosion an neuen Synthesearten in den 1980er und 1990er Jahren.
Physical Modeling errechnet die Eigenschaften „echter“ Musikinstrumente und bringt das Ergebnis zum Klingen. Man erstellt also ein physikalisches Modell von einer Marimba, schlägt mit einem physikalischen Modell eines Schlegels darauf und bringt so den virtuellen Holzklangstab der Marimba zum Schwingen. Interessant für die Klangsynthese wird es aber dann, wenn man verschiedene Teile von verschiedenen Musikinstrumenten miteinander kombiniert und das wurde Mitte der 1990er Jahre mit dem Yamaha VL1 und VL7 (1994), dem Technics WSA1 (1995) und dem Korg Prophecy (1995) ausprobiert.
Aktuelle Entwicklungen und Kuriositäten
- Microsoft plant, den Copilot im Edge-Browser nicht mehr nur optional zu lassen.
- Alljährlich Grüßen die Black Week Deals!
- Die Versionen 2023 und 2024 der bekannten Landschaft 3D Software EON Vue ist jetzt kostenlos.
- Die Hersteller und IT-Konzerne möchten es wohl nicht gerne hören aber alte Software ist nicht tot!
- Es gibt aktualisierte Software Empfehlungen.
- Die Livestreaming-Option in Instagram ist scharf und kann genutzt werden. Als Streaming Software hat sich OBS Studio etabliert als Open-Source-Software.
- Die Einrichtung von 0Patch ist supereinfach und daher auch für nicht technisch versierte User zu empfehlen, die einfach nicht auf Windows 11 updaten können oder ihr Windows 10 Gerät behalten möchten, weil es noch tut, was es soll.