Die Geschichte der elektronischen Musik

Die 60‘er waren fruchtbare Jahre für elektronische Musik, nicht nur für die Wissenschaft, sondern auch für unabhängige Künstler wie Synthesizer-Technologie wurde mehr zugänglich. Zu diesem Zeitpunkt war eine starke Gemeinschaft von Komponisten und Musikern die Arbeit mit neuen Sounds und Instrumenten etabliert und wächst. 1960 erlebte die Zusammensetzung der Luening die Gargoyles für Violine und Tonband sowie die Uraufführung von Stockhausens Kontakte für elektronische Klänge, Klavier und Schlagzeug. Dieses Stück in zwei Versionen: eine für 4-Kanal-Tonband gab, und die andere für Band mit menschlichen Darstellern. "In Kontakte, verlassene Stockhausen traditionelle musikalische Form auf linearen Entwicklung und dramatischen Höhepunkt basiert. Dieser neue Ansatz, die er als Moment bilden, ähnelt der filmischen Splice -Techniken im frühen zwanzigsten Jahrhundert Film.

Die erste dieser Synthesizer zu erscheinen war der Buchla. Erschienen im Jahr 1963 war es das Produkt der Bemühungen von musique concrète Komponisten Morton Subotnick angeführt.

Das Theremin war die seit den 1920er Jahren, aber es erreicht einen Grad von populären Anerkennung durch seine Verwendung in Science-Fiction-Film-Soundtrack Musik in den 1950er Jahren (z. B. Bernard Herrmann klassischen Score für The Day the Earth Stood Still).

In Großbritannien in diesem Zeitraum die BBC Radiophonic Workshop (gegründet 1958) einer der produktivsten und bekanntesten elektronischen Musikstudios der Welt entstanden, [benötigte Zitat] thanks in hohem Maße auf ihre Arbeit an der BBC Science-Fiction-Serie Doctor Who. Einer der einflussreichsten britischen elektronischen Künstler in dieser Zeit [Bearbeiten] war Werkstatt Mitarbeiterin Delia Derbyshire, die jetzt für ihre 1963 elektronische Realisierung des iconic Doctor Who Thema, das von Ron Grainer komponiert berühmt.
Israelischen Komponisten Josef Tal im Studio für elektronische Musik in Jerusalem (~ 1965). Auf der rechten Seite, Hugh Le Caine Sound-Synthesizer der Special Purpose Tape Recorder.

Im Jahre 1961 Josef Tal wurde das Zentrum für Elektronische Musik in Israel an der Hebräischen Universität, und im Jahr 1962 Hugh Le Caine kam in Jerusalem zu seiner Creative Tape Recorder in den Mittelpunkt zu installieren. In den 1990er Jahren Tal durchgeführt, zusammen mit Dr. Shlomo Markel , in Zusammenarbeit mit dem Technion -. Israel Institute of Technology, und VolkswagenStiftung ein Forschungsprojekt (Talmark) an der Entwicklung eines neuartigen Notenschrift für elektronische Musik ausgerichtet

Milton Babbitt komponierte seine ersten elektronischen Arbeiten mit dem Synthesizer-Komposition für Synthesizer (1961), die er schuf mit dem RCA-Synthesizer an der Columbia-Princeton Electronic Music Center.
Für Babbitt war die RCA-Synthesizer ein Traum aus drei Gründen wahr. Erstens, die Fähigkeit zu erkennen und zu steuern jedes musikalische Element genau. Zweitens waren die benötigte Zeit, um seinen aufwändigen seriellen Strukturen erkennen, in der Praxis zu erreichen gebracht. Drittens war die Frage nicht mehr: "Was sind die Grenzen des menschlichen Darsteller?" sondern "Was sind die Grenzen des menschlichen Gehörs?

Die Zusammenarbeit auch über Ozeane und Kontinente aufgetreten. Im Jahr 1961 lud Ussachevsky Varèse der Columbia-Princeton Studio (CPEMC). Nach der Ankunft begann Varese auf eine Revision der Wüsten. Er wurde von Mario Davidovsky und Bülent Arel unterstützt.

Die intensive Tätigkeit auftretenden CPEMC und anderswo inspirierte die Gründung der San Francisco Tape Music Center in 1963 von Morton Subotnick, mit weiteren Mitgliedern Pauline Oliveros, Ramon Sender, Anthony Martin und Terry Riley. Rileys overdubbed Aufnahme A Rainbow in Curved Air (1967) verschiedene elektronische Tasteninstrumente, alle gespielt von dem Komponisten-Improvisator beschäftigt.

Später zog das Center Mills College, unter der Regie von Pauline Oliveros, wo er heute als Zentrum für zeitgenössische Musik bekannt ist.

Gleichzeitig in San Francisco präsentierte Komponisten Stan Shaff und Ausrüstung Designer Doug McEachern, der erste "Audium" Konzert in San Francisco State College (1962), gefolgt von einer Arbeit an der San Francisco Museum of Modern Art (1963), konzipiert als in Zeit, kontrollierte Bewegung des Klangs im Raum.
Zwölf Lautsprechern umgeben das Publikum, wurden vier Lautsprecher auf einer rotierenden, mobile-artige Konstruktion oben montiert. In einem SFMOMA Leistung im folgenden Jahr (1964), kommentierte San Francisco Chronicle Musikkritiker Alfred Frankenstein, "die Möglichkeiten der Raum- Klang-Kontinuum haben selten so intensiv untersucht ".
In 1967, dem ersten Audium, ein" Ton-Raum-Kontinuum ", eröffnete hält wöchentlich Performances bis 1970. Im Jahr 1975, ermöglicht durch Startkapital von der National Endowment for the Arts, eröffnete ein neues Audium, entworfen vom Boden bis zur Decke für die räumliche Klang-Komposition und Performance.
Es gibt Komponisten, die Klangraum manipulieren indem Sie mehrere Lautsprecher an verschiedenen Standorten in eine Performance Leerzeichen und dann Schalt-oder Schwenken der Ton zwischen den Quellen. In diesem Ansatz wird die Zusammensetzung der räumlichen Manipulation abhängig von der Lage der Lautsprecher und in der Regel nutzt die akustischen Eigenschaften des Gehäuses.
Beispiele hierfür sind Varese Poem Electronique (Band Musik in der Phillips-Pavillon der Weltausstellung 1958 in Brüssel durchgeführt) und Stanley Schaff ist Audium Installation, die derzeit in San Francisco. Durch wöchentliche Programme (über 4.500 in 40 Jahren), Shaff" formt "Klang, der Durchführung jetzt digitalisiert räumliche Arbeiten leben durch 176 Referenten.

Ein bekanntes Beispiel für die Verwendung von Moog in voller Größe Moog Modular-Synthesizer ist die Switched-On Bach Album von Wendy Carlos, die eine Begeisterung für Synthesizer-Musik ausgelöst.

Pietro Grossi war ein italienischer Pionier der Computer-Komposition und Band Musik, die zuerst mit elektronischen Techniken in den frühen sechziger Jahren experimentiert. Grossi war ein Cellist und Komponist in Venedig im Jahre 1917 geboren. Er gründete die S 2F M (Studio de Fonologia Musicale di Firenze) in 1963 um Experiment mit elektronischen Sound und Komposition.

CSIRAC, der erste Computer, um Musik zu spielen, tat dies öffentlich im August 1951. Eines der ersten großen öffentlichen Demonstrationen von Computer-Musik war ein pre-recorded nationalen Radio-Sendung auf NBC Radio Network-Programm-Monitor am 10. Februar 1962. Im Jahr 1961, um LaFarr Stuart programmiert Iowa State University CYCLONE Computer (ein Derivat des Illiac) einfache, erkennbare Melodien durch eine verstärkte Lautsprecher an das System war ursprünglich für administrative und diagnostische Zwecke befestigt spielen. Ein Interview mit Mr. Stuart begleitete seine Computer-Musik.

Die späten 1950er, 1960er und 1970er Jahren war auch die Entwicklung von großen Mainframe-Computer-Synthese. Ab 1957 entwickelte Max Mathews von Bell Labs die Musikprogramme, die ihren Höhepunkt in MUSIC V, ein direkter digitaler Synthese Sprache

In Amerika wurden die Live-Elektronik in den frühen 1960er Jahren erstmals von Mitgliedern der Milton Cohens Space Theater in Ann Arbor, Michigan, darunter Gordon Mumma und Robert Ashley, die von Einzelpersonen wie David Tudor um 1965, und der Sonic Arts Union, im Jahr 1966 gegründet von Gordon Mumma, Robert Ashley, Alvin Lucier und David Behrman. ONCE Festivals, mit Multimedia-Theatermusik, wurden von Robert Ashley und Gordon Mumma in Ann Arbor zwischen 1958 und 1969 organisiert. Im Jahr 1960, John Cage Cartridge Music, einer der frühesten Live-Elektronik Werke komponiert.

In Europa im Jahr 1964, Karlheinz Stockhausen Mikrophonie I für Tamtam, Handmikros, Filter und Potentiometer und Mixtur für Orchester, vier Sinusgeneratoren und vier Ringmodulatoren zusammen. Im Jahre 1965 komponierte er Mikrophonie II für Chor, Hammondorgel, und Ringmodulatoren.

Der Jazz Musiker und Komponisten Paul Bley und Annette Peacock durchgeführt einige der ersten Live-Konzerte in den späten 1960er Jahren mit Moog-Synthesizer. Peacock gemacht regelmäßige Verwendung eines kundenspezifischen Moog-Synthesizer, ihre Stimme auf der Bühne und im

1966/67 entdeckte Reed Ghazala und fing an, "Circuit Bending"-Anwendung der kreative Kurzschluss, einen Prozess der Chance Kurzschluss zu lehren, die Schaffung experimenteller elektronischer Instrumente, erkunden Tonelementen hauptsächlich aus Timbre und mit weniger hinsichtlich Tonhöhe oder Rhythmus und beeinflusst von der aleatorischen Musik von John Cage [sic] Konzept.

Veröffentlicht im Jahr 1970 von Moog Music den Mini-Moog unter den ersten weithin verfügbar, portable und relativ erschwinglichen Synthesizern. Es wurde das am häufigsten verwendete Synthesizer in beiden beliebten und elektronische Kunstmusik. Patrick Gleeson, live zu spielen mit Herbie Hancock in der Anfang der 1970er Jahre Pionierarbeit beim Einsatz von Synthesizern in einer Wanderausstellung Kontext, in dem sie unterworfen waren, betont die frühen Maschinen waren nicht entwickelt.

In 1974 wurde die WDR-Studio in Köln erwarb eine EMS Synthi 100 Synthesizer, der durch eine Reihe von Komponisten in der Produktion von bemerkenswerten elektronischen Arbeiten-unter anderem verwendet wurde, Rolf Gehlhaar die Fünf deutsche Tänze (1975), Karlheinz Stockhausens Sirius (1975-76), und John McGuire ist Pulse Musik III (1978).

Die Anfang der 1980er Jahre sahen den Aufstieg von Bass-Synthesizer, der einflussreichsten wobei die Roland TB-303, einem Bass-Synthesizer und Sequencer Ende 1981 veröffentlicht, die später würde mit elektronischer Tanzmusik ein Synonym, besonders Acid House. Ein der ersten, die ihn verwenden, wurde Charanjit Singh im Jahr 1982, obwohl es nicht populär wäre, bis Phuture der "Acid Tracks" im Jahr 1987.

IRCAM in Paris wurde zu einem bedeutenden Zentrum für Computermusik Forschung und Realisierung und Entwicklung des Sogitec 4X EDV-System, mit damals revolutionären digitalen Echtzeit-Signalverarbeitung. Pierre Boulez ist Répons (1981) für 24 Musikern und 6 Solisten verwendet 4X zu transformieren und Route Solisten zu einem Lautsprecher-System.

STEIM ist ein Zentrum für Forschung und Entwicklung von neuen Musikinstrumenten in der elektronischen performing arts, in Amsterdam, Niederlande. STEIM besteht seit 1969. Es wurde von Misha Mengelberg, Louis Andriessen, Peter Schat, Dick Raaymakers, Jan van Vlijmen, Reinbert de Leeuw, und Konrad Boehmer gegründet. Diese Gruppe von niederländischen Komponisten hatte die Reformation der feudalen Musik Amsterdam Strukturen gekämpft, sie bestand darauf, Bruno Maderna Ernennung zum Musikdirektor des Concertgebouw Orchestra und durchgesetzt werden die erste öffentliche Förderungen für experimentelle und improvisierte elektronische Musik in den Niederlanden.

Elektronmusikstudion (EMS), früher bekannt als elektroakustische Musik in Schweden bekannt ist, ist die schwedische nationale Zentrum für elektronische Musik und Klangkunst. Die Forschungs-Organisation begann 1964 und ist mit Sitz in Stockholm.

In den späten 1960er Jahren begann Pop und Rock Musiker, darunter The Beach Boys und The Beatles, um elektronische Instrumente verwenden, wie das Theremin und Mellotron, zu ergänzen und zu definieren ihren Sound.
Bis zum Ende des Jahrzehnts nahm die Moog-Synthesizer einen führenden Platz in den Klang der neuen Progressive-Rock mit Bands wie Pink Floyd, Yes, Emerson, Lake & Palmer, Genesis und machen sie zu einem Teil ihres Sounds. Instrumental Prog-Rock war von besonderer Bedeutung in Kontinentaleuropa, so dass Bands wie Kraftwerk, Tangerine Dream, Can, Faust, um die Sprachbarriere zu umgehen.
Die Synthesizer-lastigen "Kraut rock", zusammen mit dem Werk von Brian Eno (für eine . on Rock (1972) Switched, die Moog-Synthesizer featured Überstellungen: Zeit der Keyboarder bei Roxy Music), würde einen großen Einfluss auf nachfolgende Synth Rock Elektronische Gestein wurde auch von mehreren japanischen Musikern, darunter Isao Tomita, Elektrorasierer Samurai hergestellt werden der zeitgenössischen Pop-und Rocksongs, und Osamu Kitajima der Progressive-Rock-Album Benzaiten (1974).
Mitte der 1970er Jahre sahen den Aufstieg der elektronischen Kunst, Musik, Musiker wie Jean Michel Jarre, Vangelis und Tomita, der mit Brian Eno waren einen signifikanten Einfluss auf die Entwicklung des New Age Musik.

Nach der Ankunft des Punk-Rock, entstand eine Form von grundlegenden Synth Rock, immer mit neuen digitalen Technologie auf andere Instrumente zu ersetzen. Wegweisende Bands inklusive Ultravox mit ihren 1977-Single "Hiroshima Mon Amour", Yellow Magic Orchestra aus Japan, The Human League und Tubeway Army aus dem Vereinigten Königreich und Devo aus den USA.
Yellow Magic Orchestra in allem geholfen, Pionier synthpop mit ihrem selbstbetitelten Album (1978) und Solid State Survivor (1979).
Die Definition von MIDI und die Entwicklung von digitalen Audio machte die Entwicklung von rein elektronischen Klängen sehr viel einfacher. Diese Entwicklungen führten zum Wachstum der Synthie-Pop, die, nachdem sie von der New Romantic Bewegung erlaubt Synthesizern angenommen wurde, die Pop-und Rockmusik der frühen 80er Jahre dominieren.
Key Handlungen enthalten Duran Duran, Spandau Ballet, A Flock of Seagulls, Culture Club, Talk Talk, Japan und den Eurythmics. Synthpop manchmal verwendet, Synthesizer alle anderen Instrumente zu ersetzen, [94], bis der Stil begann, von der Popularität in der Mitte der 1980er-Jahre fallen.

Musik-Sequenzer begann als um die Mitte des 20. Jahrhunderts verwendet, und Tomita Alben Mitte der 1970er-Jahre zu späteren Beispielen. In 1978, Yellow Magic Orchestra wurden mit Computer-basierte Technologie in Verbindung mit einem Synthesizer, um beliebte Musik zu produzieren, die ihre frühe Nutzung des Mikroprozessor-Basis Roland MC-8 Microcomposer Sequenzer.

Drum-Maschinen, die auch als Rhythmus-Maschinen bekannt ist, begann auch sein in den späten 1950er-Jahre eingesetzt, mit einem späteren Beispiel wird Osamu Kitajima der Progressive-Rock-Album Benzaiten (1974), die eine Rhythmus-Maschine zusammen mit elektronischen Trommeln und einem Synthesizer verwendet. [88] Im Jahr 1977, Ultravox ist "Hiroshima Mon Amour" war eine der ersten Singles, um das Metronom-like percussion einer Roland TR-77 Drum-Machine nutzen. Im Jahr 1980 veröffentlichte Roland Corporation die TR-808, eines der ersten und beliebtesten programmierbare Drum-Machines. Die erste Band, es zu benutzen war Yellow Magic Orchestra im Jahr 1980, und es wäre später zu gewinnen große Popularität mit der Veröffentlichung von Marvin Gaye "Sexual Healing" und Afrika Bambaataa "Planet Rock" im Jahr 1982, nach der die TR-808 würde in weiter bleiben Einsatz bis mindestens 2008.

Im Jahr 1980 traf sich eine Gruppe von Musikern und Musik Händlern eine Schnittstelle, über die neuen Instrumente Steuerbefehle mit anderen Instrumenten und der vorherrschenden Mikrocomputer kommunizieren konnte standardisieren. Dieser Standard wurde genannt MIDI (Musical Instrument Digital Interface) und resultiert aus einer Zusammenarbeit zwischen führenden Hersteller zunächst Sequential Circuits, Oberheim, Roland, und später nahmen Gruppen wie: Yamaha, Korg und Kawai, etc. Ein Papier wurde von Autor Dave Smith von Sequential Circuits und der Audio Engineering Society im Jahr 1981 vorgeschlagen. Dann, im August 1983 wurde der MIDI-Spezifikation 1.0 abgeschlossen.

Das Aufkommen der MIDI-Technologie ermöglicht einem einzigen Tastendruck steuern Radbewegung, Pedalbewegung, oder den Befehl aus einem Mikrocomputer, um jedes Gerät im Studio ferngesteuert und synchron zu aktivieren, mit jedem Gerät reagiert entsprechend den Bedingungen des Komponisten vorgegeben.

MIDI-Instrumente und Software mächtige Kontrolle über hochentwickelte Instrumente leicht erschwinglich von vielen Studios und Einzelpersonen. Acoustic Sounds wurde wieder in die Studios über die Probenahme und Proben-ROM-basierte Instrumente.

Miller Puckette entwickelte Grafik-Signal-Processing-Software für 4X genannt Max (nach Max Mathews) und später portiert auf Macintosh (mit Dave Zicarelli Verlängerung um Opcode) für die Echtzeit-MIDI-Steuerung, womit algorithmische Komposition Verfügbarkeit für die meisten Komponisten mit bescheidenen Computer-Programmierung Hintergrund. bezogen. Siehe die entsprechenden Diskussion auf der Diskussionsseite.

Im Jahr 1975 lizenzierte die japanische Firma Yamaha die Algorithmen für die Frequenz-Modulation-Synthese (FM-Synthese) von John Chowning, die mit ihm an der Stanford University seit 1971 experimentiert. Yamaha-Ingenieure begannen Anpassung Chowning-Algorithmus für den Einsatz in einem digitalen Synthesizer, indem Verbesserungen wie die "key-Skalierung" Methode, um die Einführung von Verzerrungen, die normalerweise in analogen Systemen aufgetreten Frequenzmodulation zu vermeiden. Es wäre das erste kommerzielle digitale Synthesizer freigegeben werden den australischen Fairlight Firma Fairlight CMI werden ( Computer Musical Instrument) im Jahr 1979, als die erste praktische polyphone digitalen Synthesizer / Sampler-System.

Im Jahr 1980, Yamaha schließlich erschien die erste FM Digital-Synthesizer, den Yamaha GS-1, aber in einem teuren Preis. [104] Im Jahr 1983 stellte Yamaha die erste Stand-alone-Digital-Synthesizer, der DX-7, die auch zur FM-Synthese und würde eines der meistverkauften Synthesizer aller Zeiten zu werden. [101] Die DX-7 wurde für seine erkennbaren hellen Farbtönen, die teilweise auf eine Übererfüllung Abtastrate von 57 kHz bekannt war.

Barry Vercoe beschreibt eine seiner Erfahrungen mit der frühen Computer-Sounds: "Am IRCAM in Paris im Jahre 1982, hatte Flötist Larry Beauregard seiner Flöte zu 4X Audio DiGiugno den Prozessor angeschlossen ist, ermöglicht Echtzeit-Pitch-folgenden.
Auf einem Guggenheim zu dem Zeitpunkt, erweiterte ich dieses Konzept, um Echtzeit-Score-folgenden mit automatischer Synchronisation Begleitung, und über die nächsten zwei Jahre Larry und ich gab zahlreiche Demonstrationen des Computers als Kammermusikerin und spielte Händel Flötensonaten, Boulez 'Sonatine für Flöte und Klavier, und 1984 war meine eigene Synapse II für Flöte und Computer-das erste Stück immer ausdrücklich für eine solche Einrichtung besteht.
Eine große Herausforderung bestand darin, die richtige Software-Konstrukte zu sehr empfindlich und reagiert Begleitung zu unterstützen. All dies war vor MIDI, aber die Ergebnisse waren beeindruckend, auch wenn hohe Dosen von Rubato immer wieder überraschen würde meine Synthetic Performer.
In 1985 haben wir lösten das Rubato Problem, indem das Lernen aus den Proben (jedes Mal, wenn spielte auf diese Weise die Maschine besser wäre). Wir waren auch jetzt Tracking Violine, da unsere brillante, junge Flötist einen tödlichen Krebs zugezogen hatte.
Darüber hinaus verwendet diese Version einen neuen Standard namens MIDI, und hier war ich geschickt von ehemaligen Studenten Miller Puckette, dessen erste Konzepte für diese Aufgabe, die er später erweitert zu einem Programm namens MAX.

In den späten 1980er Jahren machte dance music records nur mit elektronischen Instrumenten wurde zunehmend populär. Der Trend hat sich bis heute mit modernen Nachtclubs weltweit regelmäßig spielen elektronische Tanzmusik weiter. Heute ist Elektronik / Dance-Musik so populär, dass spezielle Genre Radiostationen und TV-Kanäle (zB NRJ Dance, MUSIC FORCE EUROPE) existieren.

In den 1990er Jahren begann interaktiven Computer-assisted Leistung möglich wird, mit einem Beispiel wie folgt beschrieben:
"Automated Harmonisierung der Melody in Echtzeit: Eine interaktive Computer-System, in Zusammenarbeit mit der Flötistin / Komponist Pedro Eustache entwickelt, für Echtzeit-melodische Analyse und harmonische Begleitung.
Basierend auf einem neuartigen System der Harmonisierung von Eustache entwickelt, analysiert die Software den tonalen melodischen Funktion der eingehenden Noten, und sofort führt eine orchestrierte Harmonisierung der Melodie.
Die Software wurde ursprünglich für die Leistung von Eustache auf Yamaha WX7 Wind-Controller entwickelt, und wurde in seiner Zusammensetzung Tetelestai verwendet, uraufgeführt in Irvine, Kalifornien, März 1999.

Andere neuere Entwicklungen waren die Tod Machover (MIT und IRCAM) Zusammensetzung Begin Again Again for "hypercello", ein interaktives System von Sensoren zur Messung von physikalischen Bewegungen des Cellisten. Max Mathews entwickelte die "Conductor"-Programm für die Echtzeit-Tempo, Dynamik und Klangfarbe Kontrolle eines Pre-Input elektronischen Partitur. Morton Subotnick veröffentlichte eine Multimedia-CD-ROM All My Kolibris haben Alibis.

In den letzten Jahren hat die Computer-Technologie leichter zugänglich geworden und Musik-Software hat sich weiterentwickelt, die Interaktion mit Musik-Produktion-Technologie ist nun möglich, mit Mitteln, die keine Beziehung zu den traditionellen musikalischen Aufführungspraxis tragen: zum Beispiel Laptop-Performance (laptronica) und Live Coding. Im Allgemeinen bezieht sich der Begriff Live-PA zu einer Live-Performance mit elektronischer Musik, egal ob mit Laptops, Synthesizern oder anderen Geräten.

In den letzten zehn Jahren eine Reihe von Software-basierten virtuellen Studio-Umgebungen entstanden sind, mit Produkten wie Propellerhead Reason und Ableton Live zu finden Anklang findet. Solche Tools bieten praktikable und kostengünstige Alternativen zu typischen Hardware-basierten Produktions-Studios, und dank der Fortschritte in Mikroprozessor-Technologie ist es nun möglich, qualitativ hochwertige Musik mit etwas mehr als einem Laptop-Computer zu erstellen. Diese Fortschritte haben die Musikproduktion demokratisiert, was zu einem massiven Anstieg in Höhe von home-produzierte elektronische Musik für die breite Öffentlichkeit über das Internet.

Artists können jetzt auch individualisieren ihre Produktion der Praxis durch die Schaffung von personalisierten Software-Synthesizer, Effekte Module und verschiedene Zusammensetzung Umgebungen. Geräte, die einst existierte ausschließlich in der Hardware-Domain können problemlos virtuellen Pendants. Einige der beliebtesten Software-Tools für die Erreichung dieser Ziele sind kommerzielle Veröffentlichungen wie Max / MSP und Reaktor-und Open-Source-Pakete wie Csound, Pure Data, SuperCollider, und Chuck.

Circuit Bending ist der kreative Anpassung der Schaltungen, die in elektronischen Geräten wie Niederspannung, batteriebetriebene Gitarren-Effekte, Kinderspielzeug und kleinen digitalen Synthesizern zu neuen musikalischen oder visuellen Instrumente und Klangerzeuger zu schaffen. Betonend, Spontaneität und Zufall haben die Techniken des Circuit Bending wurde häufig mit Lärm Musik assoziiert, obwohl viele eher konventionellen zeitgenössischen Musikern und Musikgruppen zu experimentieren mit "verbogen" Instrumente bekannt wurden.
Circuit Bending Regel mit der Demontage der Maschine und das Hinzufügen von Komponenten wie Schalter und Potentiometer, dass die Schaltung zu verändern. Mit dem wiederbelebten Interesse für analoge Synthesizer Circuit Bending wurde eine preiswerte Lösung für viele experimentelle Musiker, ihre eigenen individuellen analoge Klangerzeuger zu schaffen.
Heutzutage sind viele Schemata können aufgebaut Rauschgeneratoren wie der Atari Punk Console oder den Dub Siren sowie einfache Modifikationen für Kinderspielzeug wie das berühmte Speak & Spells, die oft durch die Schaltung Bieger verändert gefunden werden.

Chiptune, chipmusic oder Chip-Musik ist Musik in Tonformate, wo viele der Klangstrukturen synthetisiert oder sequenziert werden in Echtzeit von einem Computer-oder Videospiel-Konsole Soundchip, manchmal auch Sample-basierte Synthese und niedrigen Bit Sample-Wiedergabe geschrieben. Viele Chip-Musik-Geräte featured Synthesizer im Tandem mit niedrigen Sample-Wiedergabe.

 

Featured Music Streams

Birdman - Y.U. MAD ft. Nicki Minaj, Lil Wayne

WERBUNG

mtv neuste aktion