Nowe technologie edukacyjne dla działalności muzycznej. Technologie oszczędzające zdrowie w edukacji muzycznej

03.02.2019

Federalna Agencja Edukacji

Państwowa instytucja edukacyjna wyższego szkolnictwa zawodowego

PAŃSTWOWY UNIWERSYTET EKONOMII I FINANSÓW W SYNKT PETERSBURGU

Wydział Ogólnoekonomiczny

Streszczenie na ten temat:

Informatyka w muzyce

Petersburg 2009


Wstęp

1. Nowe technologie i muzyka

2. Nagrywanie dźwięku

3. Perspektywy rozwoju technologii informacyjnych w muzyce

Bibliografia


Wstęp

Za jedną z głównych cech charakterystycznych okresu postindustrialnego należy uznać szybki rozwój technologii elektronicznych, które przyczyniły się do automatyzacji przechowywania i przetwarzania informacji za pomocą komputerów.

Pojawienie się wystarczająco potężnych komputerów i nowych technologii komputerowych miało ogromny wpływ na kształtowanie się nowoczesności kultura muzyczna. Możliwości nowoczesnych komputerów rosną każdego dnia równolegle z postępem naukowym i technicznym oraz rozwojem w dziedzinie programowania.

Nadszedł czas na dojrzałą konstruktywną relację, czas na budowę wspólnego budynku, w którym obie strony będą odczuwały rosnącą potrzebę wzajemnie wzbogacających się projektów. Tak różne i niegdyś pozornie odległe sfery ludzkiej aktywności intelektualnej w ostatnich dziesięcioleciach minionego stulecia nie tylko zostały przepojone wzajemnym szacunkiem, ale już teraz można śmiało przewidywać genialny i owocny rozwój ich współpracy.

Oczywistość zasadniczo nowych możliwości, jakie daje komputer muzyczny w rozwoju profesjonalnego myślenia muzyka we wszystkich obszarach twórczości muzycznej, nieuchronnie doprowadzi do coraz szerszego wprowadzania technologii muzycznych i komputerowych, które znacząco uzupełnią, a nawet zmienią sam charakter pracy kompozytora, muzykologa, wykonawcy i pedagoga.

Liczne eksperymenty z elektronicznymi (i nie tylko) maszynami zdolnymi do wydobywania dźwięku doprowadziły do ​​powstania różne drogi pisania muzyki, a co za tym idzie do powstania różnorodnych stylów i kierunków. Nowy dźwięk, niezwykły i nieprzyzwyczajony do ucha, stał się innowacją w muzyce. Wielu znanych współczesnych kompozytorów, na przykład K. Stockhausen, O. Messiaen, A. Schnittke, pomimo złożoności pracy z technologią, tworzyło utwory przy użyciu nowych instrumentów elektronicznych lub tylko na nich.

Sam rozwój elektronicznej technologii komputerowej już trwa wczesne stadia doprowadził ją do „inwazji” w muzykę. Już w latach 50., używając pierwszych komputerów, naukowcy podejmowali próby syntezy muzyki: skomponowania melodii lub ułożenia jej sztucznymi barwami. Tak powstała muzyka algorytmiczna, której zasadę zaproponował już w 1206 roku Guido Marzano, a później zastosował V.A. Mozarta do zautomatyzowania komponowania menuetów – pisania muzyki według opadu losowe liczby. Kompozycje algorytmiczne stworzyli K. Shannon, R. Zaripov, J. Xenakis i inni. W latach 80. kompozytorzy mieli możliwość korzystania z komputerów wyposażonych w specjalne programy, który mógł zapamiętywać, odtwarzać i edytować muzykę, a także pozwalał tworzyć nowe barwy, drukować partytury własnych kreacji. Możliwe stało się wykorzystanie komputera w praktyce koncertowej.

Tak więc dzisiaj komputer jest instrumentem wielobrzmieniowym i integralną częścią każdego studia nagraniowego. Niewątpliwie samo słowo „studio” wielu osobom kojarzy się z pojęciem „kultury masowej” czy „trzeciej warstwy”, czyli z przejawami popkultury i współczesnego show-biznesu. Być może jest to jeden z głównych czynników, który przyciąga kandydatów przy wchodzeniu na inżynierię dźwięku lub inne wydziały, w taki czy inny sposób związane z muzyką i technologiami komputerowymi. Powstaje pytanie: jaką rolę odgrywa wprowadzenie komputerów w kształceniu przyszłych nauczycieli muzyki?

Całkiem możliwe, że pewien kod barwowo-rytmiczny muzyki komputerowej pomoże wyleczyć niektóre choroby. Dostępność technologii komputerowej i wygoda oprogramowania stworzą bezprecedensowe warunki dla twórczości muzycznej (muzyczne „robótki ręczne”), porównywalne po części z obecnym lawinowym rozprzestrzenianiem się amatorskiego tworzenia muzyki w stylu pop i rock. Znajome staną się również wyrażenia: „moja muzyka”, „moje domowe studio”, „moje płyty CD”, „moje wideoklipy”, „moja strona z muzyką” (wszędzie „moja” – w znaczeniu „stworzone przeze mnie”). koncepcje masowe. Każdy będzie mógł spróbować swoich sił w roli kompozytora, aranżera, realizatora dźwięku, kompozytora nowych brzmień, efektów dźwiękowych.

1. Nowe technologie i muzyka

Wpływ nowych technologii na muzykę można prześledzić od czasów starożytnych. Muzyka ewoluowała wraz z rozwojem środków jej wykonywania, czyli instrumentów muzycznych. Nie sposób sobie wyobrazić np. czterdziestej symfonii Mozarta granej na gałęzi wystającej z pnia. I stąd bierze się muzyka. Jakiś troglodyta tam w erze mezozoicznej siedział i wyrywał gałązkę z niczego. Kolejny troglodyta przechodził obok, usłyszał dźwięki, wychwycił w nich jakąś harmonię i postanowił spróbować. Trzeci, najinteligentniejszy troglodyta, domyślił się, że lepiej nie ciągnąć gałęzi, ale jakiegoś włókna, na przykład końskiego włosia, zrobił dla niego ramę z drewna i przeciągnął po niej te same włosy. Jest to w przybliżeniu historia narodzin pierwszego strunowego szarpanego instrumentu muzycznego. Zauważam, że gdyby trzeci troglodyta nie znał technologii obróbki drewna, nic by z tego nie wyszło.

W przyszłości, wraz z rozwojem głównie technologii obróbki drewna i metalurgii, zaczęto dostrzegać zależność dźwięku od rodzaju drewna, z którego wykonana jest rama. Ponadto delikatne końskie włosie ustąpiło miejsca metalowej nici. A gdzieś na dwa tysiące lat przed naszą erą pojawiają się takie instrumenty jak lira czy harfa.

Przez cały okres historii ludzkości od wynalezienia liry do współczesności powstała ogromna liczba instrumentów muzycznych. Ale trzy grupy były pod największym wpływem nowych technologii w ciągu ostatnich stu pięćdziesięciu lat - klawisze, perkusja i smyczki (głównie gitara).

Kiedy odkryto elektryczność, ludzie zaczęli próbować stosować ją w prawie wszystkich dziedzinach swojej działalności. Fortepian klasyczny nie był wyjątkiem. Ludzie starali się, aby drgania strun nie były tłumione, to znaczy chcieli, aby głośność dźwięku nie zmniejszała się z upływem czasu, jak w przypadku instrumentów dętych. W rezultacie wymyślono następujący projekt: pod kluczem ustanowiono kontakt, który włączył elektromagnes. W tym samym czasie, jak w zwykłym pianinie, młoteczek uderzył w strunę, zaczął wibrować, a gdy doszedł do magnesu, został wyłączony przez naciśnięcie struny na inny styk. Kiedy struna pod działaniem sił sprężystych odchyliła się z powrotem, styk otworzył się, a magnes ponownie zaczął działać i przyciągać strunę do siebie. Ze względu na to, że struna okresowo dotykała styku elektromagnesu, instrument ten miał bardzo ostry dźwięk i dlatego nie był powszechnie stosowany.

Inny instrument klawiszowy - organy - miał inny problem: wysoki koszt i rozmiar. W końcu każda częstotliwość potrzebowała tam własnej piszczałki, więc klasyczne organy zajmowały całe sale. Tak, a futra dla niego musiały być nieustannie pompowane. Wraz z wynalezieniem generatora elektrycznego pojawiło się pytanie o jego zastosowanie w instrumentach muzycznych - w końcu jeśli obrócisz go z różnymi prędkościami kątowymi, to po podłączeniu do głośnika usłyszysz dźwięki o różnych częstotliwościach. Pierwszy instrument wykorzystujący tę zasadę został wynaleziony w Chicago pod koniec lat osiemdziesiątych ubiegłego wieku. Nazywał się Telharmonium. Ponieważ dla każdej częstotliwości był osobny generator, zajmował całą piwnicę. W tej piwnicy siedział i grał muzyk, zwykle doświadczony organista. W tym samym czasie wynaleziono telefon i pierwsze głośniki.

I tak, aby słuchać muzyki, mieszkańcy Chicago dzwonili pod określony numer i łączyli się z Telharmonium. Ze względu na swoją masywność i złożoność produkcji i regulacji telharmonium nie otrzymało wystarczająco szerokiej dystrybucji. Jednak później, na bazie telharmonium, w latach trzydziestych ubiegłego wieku, amerykański inżynier Hammond stworzył instrument, który bardzo przypominał dźwięk organów. Nazwali to organami Hammonda. Stał się bardzo popularny ze względu na niski koszt i dobry dźwięk. Również organy Hammonda zaczęły być wykorzystywane nie tylko w muzyce klasycznej, ale także w nabierającej wówczas rozpędu muzyce rockowej.

Nowoczesne instrumenty klawiszowe - syntezatory - wywodzą się w zasadzie z organów Hammonda. Wraz z rozwojem elektroniki starano się jakoś poprawić jej brzmienie. Stopniowo oscylatory mechaniczne zastępowano najpierw multiwibratorami, a następnie układami scalonymi.

Także z dalszy rozwój mikroelektroniki, możliwe stało się uzyskanie niemal każdej barwy. We współczesnej muzyce popularnej syntezator jest dziś królem i bogiem. Ze względu na łatwość obsługi jest obecnie używany przez każdego, kto choć trochę potrafi grać na pianinie. Wystarczą trzy klasy zwykłego Szkoła Muzyczna grać mniej lub bardziej znośnie.

W Ostatnia dekada syntezator miał potężnego sojusznika - komputer. Jak wiadomo, nowoczesne komputery pozwalają robić wszystko, czego dusza zapragnie. Wraz z wynalezieniem kart dźwiękowych do komputera stało się możliwe wstawianie do nich chipów z bankiem instrumentów z dowolnego nowoczesnego syntezatora. Za pomocą specjalnych programów sekwencerowych możesz wprowadzić dowolną melodię do komputera i ją odtworzyć. Wygląda jak syntezator. Niedawno pojawiły się tak zwane samplery oprogramowania. Sampler to urządzenie, które pozwala nagrać próbkę dźwiękową (z ang. sample, skąd pochodzi nazwa), wskazać, której nucie ona odpowiada i po podłączeniu do syntezatora odtworzyć tę barwę. Samplery sprzętowe były drogie i trudne w obsłudze, więc napisanie samplera programowego wywołało sensację wśród muzyków. Teraz ogólnie można było sobie poradzić tylko z komputerem, znając trochę umiejętności muzycznych i nie będąc w stanie grać na niczym. Stosunek ceny do dźwięku syntezatora i komputera uczynił z nich niezastąpione instrumenty dla muzyków rockowych i popowych.

2. Nagrywanie dźwięku

Od czasów starożytnych ludzie próbowali jakoś uwiecznić dzieła muzyczne.

W końcu dla kompozytora za każdym razem grać niektóre ze swoich kompozycji, to to samo, co dla artysty za każdym razem przemalowywać swój obraz. Dlatego muzycy niejako pomyśleli o uwiecznieniu własnej twórczości. Najprostszą technicznie, a zatem najstarszą metodą jest notacja muzyczna.

Nie wymaga żadnych urządzeń technicznych, poza długopisem z atramentem i kawałkiem pergaminu, a następnie papieru. Notacja muzyczna polega na konwencjonalnym oznaczeniu dźwięków muzycznych na kartce. Doświadczony muzyk, widząc te znaki, od razu odtwarza w głowie melodię, którą potrafi odtworzyć prawie tak samo jak oryginał.

Wynalezienie notacji muzycznej, oczywiście, znacznie przyczyniło się do rozwoju muzyki jako sztuki, ale początkowo było to naturalnie różne w różnych krajach. W procesie rozprzestrzeniania się cywilizowanego ludu na ziemi, pisarstwo muzyczne osiągnęło pewien standard. Jednak pismo, którego używamy teraz, nadaje się do nagrywania muzyki, której korzenie tkwią całkowicie w klasycznej muzyce europejskiej. Trudno jest im nagrać np. muzykę chińską, indyjską czy afrykańską.

W procesie kształtowania się muzyki jako sztuki pojawiła się potrzeba doskonalszej niż nuty metody zapisu dźwięku. W końcu nie każdy, kto kochał muzykę, wiedział, jak coś zagrać. Oczywiście bogaci mogli sobie pozwolić na utrzymanie nadwornego muzykanta, czy chodzenie do teatru na koncerty niektórych znany muzyk. A co z biednymi, których nie stać ani na jedno, ani na drugie? To oni wynaleźli pierwsze urządzenia, które umożliwiły odtwarzanie muzyki bez możliwości grania czegokolwiek. To były liry korbowe. W rzeczywistości, aby grać na organach beczkowych, nie jest wymagana żadna wiedza muzyczna ani umiejętności, wystarczy przekręcić rączkę.

Mechaniczna metoda zapisu dźwięku była stosowana w ciągu ostatnich kilku stuleci. Mogli na przykład nagrać utwór na organy. Na zwoju papieru w pewnych miejscach robiono nacięcia, następnie zwój ten przewijano między piszczałkami organowymi a miechami. Tam, gdzie były szczeliny, powietrze przedostawało się do rur i wydobywał się dźwięk. Jednak ta metoda nagrywania dźwięku miała wiele wad, w szczególności złożoność wykonania takiej rolki, nierówność jej ruchu powodowała nierówny dźwięk. Ta metoda nie jest powszechnie stosowana.

Pod koniec XIX wieku Amerykanin Thomas Edison wynalazł fonograf. Wynalazek ten uważany jest za punkt zwrotny w historii nagrań dźwiękowych. Zastosowano nową metodę rejestracji dźwięków - falową, czyli z uwagi na to, że dźwięk jest falą mechaniczną, powoduje drgania membrany, które są rejestrowane na dowolnym nośniku. Podczas odtwarzania zarejestrowane drgania z nośnika przenoszone są na membranę, która oscyluje i wprawia w drgania powietrze, w którym powstają fale.

Wynalazek nagrywania dźwięku na fali umożliwił nagranie dowolnego instrumentu, ale jaki jest instrument, w ogóle, teraz można nagrać dowolny dźwięk. Jednak od wynalezienia fonografu do wynalezienia wysokiej jakości odtwarzaczy i magnetofonów minęło dużo czasu. Początkowo fonograf nie znalazł uznania ze względu na fatalną jakość dźwięku. Jednak dalsze udoskonalanie tej metody zapisu dźwięku oraz wynalezienie wysokiej jakości odtwarzaczy elektrycznych i magnetofonów położyło kropkę nad i. Pojawiły się w latach czterdziestych i pięćdziesiątych ubiegłego wieku.

W takich warunkach powstała muzyka rockowa - pierwsza prawdziwie masowa muzyka. Stał się masowy właśnie dzięki wynalezieniu prostych, wysokiej jakości i tanich urządzeń rejestrujących dźwięk. Nie myl rocka z popem. Popsom, także wytworom nowych technologii, poświęciłem osobny rozdział. Muzyka rockowa to przede wszystkim sztuka. Stworzenie wysokiej jakości dzieła w tym gatunku wymaga nie mniej umiejętności i talentu, jak również innej formy sztuki.

Rozwój muzyki rockowej jest najściślej związany z wprowadzaniem nowych technologii w zakresie instrumentów i rejestracji dźwięku. Jeden pierwszorzędny przykład Już cytowałem – to udoskonalenie gitary solo do poziomu Fendera Stratocastera czy Gibsona Les Paul. Innym imponującym przykładem jest wynalezienie odtwarzaczy stereofonicznych i magnetofonów stereofonicznych. Monofoniczne odtwarzacze nie pozwoliły na osiągnięcie takiej jakości dźwięku, nawet jeśli zespół rockowy stworzył coś naprawdę imponującego, nie można było tego przekazać masom, wiele zostało utracone.

Mniej więcej natychmiast po wynalezieniu odtwarzacza stereo pojawiły się takie arcydzieła rocka, jak album Beatlesi„Sierżant Pepper’s Lonely Hearts Club Band”, opera rockowa Jesus Christ Superstar to pierwszy i jak dotąd jedyny udany projekt łączący rock z klasyką. Również w tym czasie (koniec lat sześćdziesiątych) pojawiły się tzw. „gadżety” do gitar elektrycznych, które sprawiły, że ich brzmienie było naprawdę fantastyczne jak na tamte czasy iw pewnym stopniu przyczyniło się do powstania nowych stylów, takich jak heavy metal. W zasadzie heavy metal to ta sama skała, tylko bardzo głośna i szybsza.

Czasami rock jest niesłusznie nazywany muzyką pokolenia lat sześćdziesiątych i siedemdziesiątych, złe języki mówią, że już nie żyje. Właściwie tak nie jest. W przypadku naprawdę wielkich utworów rockowych stanie się mniej więcej to samo, co w przypadku czterdziestej symfonii Mozarta, sonaty księżycowej Beethovena czy jezioro łabędzie» Czajkowski - nigdy nie zostaną zapomniane. Ze względu na to, że okres rozkwitu rocka nie trwał długo, ponownie częściowo winne są nowe technologie. Mniej więcej w połowie lat siedemdziesiątych rozpoczęła się nowa generacja instrumentów muzycznych: mikroprocesorowe - w zasadzie były to różnego rodzaju syntezatory, a nieco później komputery. Następne pokolenie młodzieży się zmieniło, a jak wiecie, młodość jest motorem wszystkiego, co nowe i zaprzecza wszystkiemu, co stare. Rock stał się muzyką ojców, a przez to niemodną. Jednak to nowe pokolenie nie wniosło nic nowego, tylko uparcie twierdziło, że „rock and roll umarł, ale ja jeszcze nie jestem” (B.B. Grebenshchikov). Łatwość obsługi syntezatorów i komputerów sprawiła, że ​​stały się one dostępne dla każdego głupca, a teraz, być może, jeśli za około pięćdziesiąt lat spojrzymy na dzisiejszą muzykę, to może uda się znaleźć jakieś arcydzieła, które są teraz mocno zapchane popem.

3. Perspektywy rozwoju technologii informacyjnych w muzyce

Niemniej jednak postaramy się „przewidzieć” kierunki, które wydają się najbardziej obiecujące z punktu widzenia przyszłego zastosowania komputera muzycznego. Najbardziej realistyczne jest dla nas założenie, że technologia edukacji muzycznej na odległość będzie powszechnie stosowana. A więc przede wszystkim historia i teoria muzyki, ale po części praktyczne porady, stanie się dostępny w dowolnym oddaleniu od renomowanych instytucje edukacyjne punkt geograficzny. Dlatego możemy liczyć na to, że rzetelną naukowo i praktyczną wiedzę muzyczną będzie posiadało wielu jeszcze ludzi pasjonujących się muzyką, tą piękną i potężną sztuką. Komputer już dziś jest gotowy do zaoferowania wielu rzeczy, które w końcu umożliwią realizację dojrzałego historycznie i społecznie hasła „Muzyka dla każdego!”.

Wszyscy ludzie łatwo i ekscytująco opanują umiejętności muzyczne, jakby ucząc się języka ojczystego, jakby przejmując melodie swoich ulubionych piosenek od matki, a komputer muzyczny stanie się niezawodnym przewodnikiem dla każdego dociekliwego podróżnika po Świecie Dźwięków. Dzięki komputerowi wyposażonemu w muzyczne programy szkoleniowe, oparte na metodach medycznych i pedagogicznych, np. głuchoniemi będą słyszeć muzykę, aw końcu nawet mówić (już dziś obserwuje się postęp metodologiczny w tym kierunku).

Dzięki komputerowi wyposażonemu w muzyczne programy szkoleniowe, oparte na metodach medycznych i pedagogicznych, np. głuchoniemi będą słyszeć muzykę, aw końcu nawet mówić (już dziś obserwuje się postęp metodologiczny w tym kierunku). Całkiem możliwe, że pewien kod barwowo-rytmiczny muzyki komputerowej pomoże wyleczyć niektóre choroby.

Dostępność technologii komputerowej i wygoda oprogramowania stworzą bezprecedensowe warunki dla twórczości muzycznej (muzyczne „robótki ręczne”), porównywalne po części z obecnym lawinowym rozprzestrzenianiem się amatorskiego tworzenia muzyki w stylu pop i rock. Wyrażenia: „moja muzyka”, „moje domowe studio”, „moje płyty”, „moje wideoklipy”, „moja strona muzyczna” (wszędzie „mój” oznacza „stworzony przeze mnie”) również staną się masowymi pojęciami. Każdy będzie mógł spróbować swoich sił w roli kompozytora, aranżera, realizatora dźwięku, kompozytora nowych brzmień, efektów dźwiękowych.

Na tle tak masowego entuzjazmu wielokrotnie wzrośnie prestiż i jakość edukacji muzycznej, której treść dzięki komputerowi znacznie się zmieni, stanie się bardziej zaawansowana technologicznie i intensywna, elastycznie dostosowywana do konkretnych zadań . Każdy nauczyciel muzyki w liceum specjalnym lub szkole ogólnokształcącej (nie ma znaczenia) będzie biegle posługiwał się muzyką i technologiami komputerowymi. Oczywiście będzie w stanie poprowadzić swój przedmiot w ciekawy i pasjonujący sposób, nie będzie mu trudno skomponować piosenkę lub zatańczyć, zrobić w pełni brzmiące aranżacje, ułożyć jasny szkolny koncert, nagrać to na płytę cyfrową wysokiej jakości, a następnie dać swoim wychowankom taką płytę jako wspomnienie wspaniałego czasu dzieciństwa i młodości.

Możliwe, że technologie muzyczno-komputerowe jeszcze bardziej wycisną pracochłonne zawody muzyczne, przez co pod przymusem rodziców niezbyt pracowici chłopcy i dziewczęta są często pozbawieni dziecięcego szczęścia przez 10-15 lat z rzędu . Radość z chwilowego, bezpośredniego muzykowania przyniosą im jeszcze bardziej pomysłowo zaprojektowane syntezatory i muzyczne komputery. A tylko prawdziwie utalentowani, entuzjastyczni i cierpliwi muzycy staną się wirtuozami (skrzypkowie, pianiści, klarneciści, trębacze).


Bibliografia

1. Informatyka i inteligencja komputerowa / A.V. Timofiejew. - M. Pedagogika, 1991.

2. Technologia informacyjna. Yu.A. Szafir. - M. Lab. wiedza podstawowa, 1998.

3. Informatyka: podręcznik. dla studentów technikum. kierunki i specjalności uczelni wyższych / V.A. Ostreikowski. - Ed. 2 miejsce, sr. - M.: Wyżej. szkoła, 2004r.

4. Ciągły kurs informatyki / S.A. Bieszenkow. - M. BINOM. Laboratorium. wiedza, 2008.

5. S. Kastalsky. Encyklopedia rocka / M. Peer, 1997.

„…Muzyka powinna uczyć swobodnego i bezpośredniego wyrażania swoich uczuć dźwiękami i sympatyzowania ze wszystkimi głosami i wszystkimi wezwaniami, jakie tylko na świecie brzmią… Sztuka powinna podchodzić do każdego wieku w formie odpowiadającej jego pojmowaniu i umiejętnościom , bo każdy powinien się przyzwyczaić do swobodnego mówienia, poruszania się, słyszenia, patrzenia, działania, dziecko w jego życiu będzie bez skrępowania, łatwo będzie wykorzystywać te umiejętności do spełniania swojej woli twórczej, będzie wiedziało, jak dawać wynik tej woli.. Poprzez sztukę należy pielęgnować twórczą wolę dzieci, ich wolę działania; gdzie słuchasz, oglądasz lub występujesz dzieła sztuki wykonane przez innych, dzieci powinny je niejako odtworzyć, wewnętrznie tego doświadczyć silna wola i silne poczucie, jakie ta praca stworzyła… Ten kierunek edukacji estetycznej w niczym nie przypomina nauczania plastyki w starej szkole, gdzie dzieci uczono tylko słuchać, patrzeć i wykonywać to, co było zaplanowane, zgadzać się z tym, co było zrobione wcześniej ich, przyzwyczaić własny gust do starych, uwarunkowanych wzorców…”. Wiedza teoretyczna i metody charakteryzujące nowe technologie w edukacji muzycznej, na przykładzie modelowania procesu artystycznego i twórczego, pozwalają kierownikowi muzycznemu osiągnąć główny cel – ukształtowanie u ucznia wyobrażenia o działalności Muzyku – kompozytora , performer, słuchacz – jako wzniosły przejaw ludzkiej twórczości, jako wielkie dzieło dusz jako najwyższa potrzeba przemiany człowieka i świata.

Ściągnij:


Zapowiedź:

MURMAŃSKI REGIONALNY INSTYTUT DOSKONALENIA ZAWODOWEGO PRACOWNIKÓW EDUKACYJNYCH I KULTURY

NOWE TECHNOLOGIE W EDUKACJI MUZYCZNEJ

(modelowanie procesu artystycznego i twórczego)

Wykonane:

Dyrektor muzyczny

MBDOU " Przedszkole Nr 1 „Yakorek” typu kombinowanego, miasto Gadzhiyevo, obwód murmański.

Iwanowa Yu.P.

W kratę:

Golovina BG

Murmańsk 2012

Wstęp

Część I. Teoretyczna. Aspekt psychologiczno-pedagogiczny.

1.1. Termin „technologia” w pedagogice.

1.2. Modelowanie procesu artystycznego i twórczego.

Część druga. Praktyczny. Formy i metody pracy z dziećmi.

2.2. „Wybierz muzykę”

2.4. „Komponuję muzykę”.

2.5. „Dziecko i muzyka”.

Wniosek

Bibliografia

Wstęp

Jedną z nowych koncepcji dla pedagogiki jest koncepcja technologii, która często pojawia się w literatura pedagogiczna(naukowy, publicystyczny, edukacyjny). Heterogeniczność treści zawartych w tej koncepcji przez różnych autorów sugeruje, że nie doszła ona jeszcze do potrzeby uprawnionego użycia stopnia formacji.

Nowość podejścia do badania procesu kształtowania się kultury muzycznej polega głównie na interpretacji uzyskanych danych. Na pierwszy plan wysuwają się nie indywidualne wskaźniki według poszczególnych metod (i dają one pewne wyobrażenie o stanie i poziomie rozwoju kultury muzycznej), ale zrozumienie takiego czy innego konkretnego wyniku jako formy wyrażenia pewnych aspekty rozwoju duchowego dziecka, jako forma rozwoju duchowego.odpowiedź emocjonalna na wysokie walory duchowe sztuki. Idea takiej interpretacji danych staje się „kluczem” do wszystkich metod, w których duchowość jest koniecznie obecna i musi być „odczytana” przez pedagoga-badacza (i kierownika muzycznego, badającego proces kształtowania się kultury muzycznej). dzieci, jakby „automatycznie” nabywa ten status) we wszystkich poszczególnych składowych formowania się kultury muzycznej. Dlatego badanie obejmuje specjalną technikę mającą na celu metaforyczne wyrażenie oceny dziecka na temat jego związku z duchową istotą muzyki.

Celem tego eseju jest eksplikacja zakresu pojęć, wiedzy teoretycznej i metod charakteryzujących nowe technologie w edukacji muzycznej na przykładziemodelowanie procesu artystycznego i twórczego.

W związku z celem można wyróżnić następujące zadania:

  1. Rozważ aspekt psychologiczno-pedagogiczny związany z wykorzystaniem nowych technologii w pedagogice.
  2. Poznaj modelowanie procesu artystycznego i twórczego.
  3. W części praktycznej omów formy i metody pracy z dziećmi.
  4. Wyciągaj wnioski zgodnie z celem.

Metody badawcze to badanie literatury metodologicznej i zasobów internetowych.

Część I. Teoretyczna.

Aspekt psychologiczno-pedagogiczny.

  1. Termin „technologia” w pedagogice.

Rozwój nauka pedagogiczna pokazuje, że pojawienie się terminu technologia i kierunek badań w pedagogice nie jest przypadkowe. Dlaczego „przypadkowe” przejście terminu „technologia” z dziedziny informatyki do pedagogiki nie jest w rzeczywistości przypadkowe i ma poważne podstawy. Definicję technologii można sformułować w następujący sposób: przez technologię należy rozumieć zespół i sekwencję metod i procesów przetwarzania surowców, które umożliwiają uzyskanie produktów o określonych parametrach. Jeśli przeniesiemy to znaczenie terminu „technologia” na pedagogikę, to technologia uczenia się będzie oznaczać pewien sposób uczenia się, w którym główny ciężar realizacji funkcji uczenia się spoczywa na narzędziu uczenia się pod kontrolą osoba. Dzięki technologii dyrektor muzyczny pełni funkcję zarządzania narzędziem edukacyjnym, a także funkcje stymulujące i koordynujące działania. W związku z tym, że technologia polega na wstępnym określeniu celu diagnostycznego, należy najpierw zastanowić się, czy możliwe jest postawienie celu diagnostycznego w edukacji muzycznej. Może to być określona kwota materiał muzyczny. Tak więc głównym celem kierownika muzycznego jest kształtowanie podstaw wychowania duchowego i moralnego poprzez zapoznawanie z kulturą muzyczną z wykorzystaniem nowych technologii, jako najważniejszego składnika harmonijnego rozwoju jednostki. Możesz także wyróżnić następujące zadania:

  1. zaszczepić miłość i szacunek do muzyki jako przedmiotu sztuki;
  2. uczyć postrzegania muzyki jako ważnej części życia każdego człowieka;
  3. przyczyniać się do kształtowania wrażliwości emocjonalnej, miłości do otaczającego świata;
  4. zaszczepić podstawy artystycznego smaku;
  5. uczyć dostrzegania związków między muzyką a innymi formami sztuki;
  6. uczyć podstaw umiejętności muzycznych;
  7. wytworzyć potrzebę obcowania z muzyką;
  8. symulować proces artystyczny i twórczy.
  1. Modelowanie procesu artystycznego i twórczego.

Głównym stanowiskiem metodycznym zapewniającym realizację idei rozwoju edukacji muzycznej (ogólnie na zajęciach plastycznych) powinno być modelowanie procesu artystyczno-twórczego, polegające na postawieniu ucznia w pozycji twórcy-kompozytora, twórcy-artysty, jakby odtwarzali dzieła sztuki dla siebie i dla innych ludzi. Modelowanie procesu artystycznego i twórczego jest w istocie przejściem drogi narodzin muzyki, odtworzeniem jej niejako „od środka” i przeżywaniem samego momentu odtworzenia. Jest to szczególnie ważne, gdy dzieci opanowują kompozycje, które zawsze były przeznaczone tylko „do słuchania”; ma to również znaczenie dla opanowania warstwy muzyki ludowej – folkloru, kiedy przedszkolaki zanurzają się w żywiole narodzin i naturalnego istnienia muzyki, same komponują i wypowiadają w języku muzycznym przysłowia, powiedzonka, zagadki, eposy; jest to ważne zarówno przy masteringu (uczeniu się) dowolnej piosenki, jak i przy tworzeniu muzyki instrumentalnej. Ta uniwersalna i powszechna metoda sztuki wymaga: samodzielności w zdobywaniu i przyswajaniu wiedzy (która nie jest dziecku wyobcowana na drodze kompozytora), kreatywności (kiedy dziecko, opierając się na doświadczeniu muzycznym i wyobraźni, fantazji, intuicji, porównuje porównuje, przetwarza, wybiera, tworzy itp.), rozwijając umiejętność indywidualnego słuchania i twórczej interpretacji.

Czy trudno jest odróżnić muzykę „ludową” od „kompozytorskiej”? Okazuje się, że dzieci niemal bezbłędnie odczuwają tę różnicę już… od czwartego roku życia!

Cel takich pytań jest jasny: zanim cokolwiek zrobi, dziecko musi zrozumieć sens swojej działalności. Dlatego konieczne jest takie modelowanie procesu twórczego, aby dziecko wejrzało w siebie, ujrzało siebie z pozycji innej osoby, tj. mówiąc naukowo, badałby swoje orientacje na wartości w tym świecie: co jest dla niego ważne, co może stać się znaczące dla wszystkich ludzi. I ta ważna rzecz, zwana w sztuce „ideą artystyczną”, zadecyduje wówczas o wyborze wszelkich środków muzycznych. Dopiero po przejściu ścieżki twórcy dziecko może zrozumieć, co to znaczy, jak układać melodię, jak grać muzykę, jak jej słuchać. Być może po takich doświadczeniach dzieci przestaną mówić, że śpiewają w chórze, „aby rozwinąć głos, bo razem jest ciekawie”; chcą być artystami, żeby „występować na scenie, będą mnie klaskać”; dobra gra na instrumencie oznacza „poprawne zagranie wszystkich nut i stosowanie się do wskazówek nauczyciela” i wiele więcej. Oczywiste jest, że ta uniwersalna metoda ma całkowicie organiczne zastosowanie na lekcjach muzyki. Czy można zastosować metodę modelowania procesu artystycznego i twórczego na lekcjach rytmiki, ruchu plastycznego, teatru muzycznego i ogólnie w swobodnym działalność muzyczna? Jak to zrobić?

W związku ze sposobem modelowania procesu artystycznego i twórczego zasadne jest postawienie pytania o rewizję podejścia do twórczości muzycznej dzieci. Tradycyjnie w edukacji muzycznej kreatywność postrzegano jako osobny widok działania związane przede wszystkim z improwizacją. Jednak ta „twórczość” w praktyce sprowadzała się do przyswajania przez dzieci tradycyjnych „ogólnomuzycznych” formuł rytmicznych i melodycznych, schematów intonacyjnych, gdy myślenie, wewnętrzne słyszenie muzyki przez dzieci porusza się po z góry określonej ścieżce. Takie podejście do twórczości jest niezgodne z prawem, gdyż jakakolwiek forma obcowania ze sztuką, będąca czynnością samą w sobie, a nie pracą na wzór, musi być właśnie twórcza w prawdziwym tego słowa znaczeniu.

Kryterium twórczości niekoniecznie jest coś kompletnego (na przykład końcowa fraza utworu, która jest „ukończona”, ale nie wymaga niczego poza poszukiwaniem „melodycznych znaczków” w swoim doświadczeniu), ale ta gotowość do twórczości , gdy uczeń chce i jest gotowy do zrozumienia sensu swojej działalności, kiedy ma poczucie potrzeby porównania, korelacji, wyboru i znalezienia czegoś, co najlepiej oddaje jego słuch i wizję określonego zjawiska, zdarzenia, faktu, jego własną postawę artystyczną jako całość. Rezultat może być czasem wyrażony tylko w jednej intonacji, w jednej poetyckiej frazie, ruchu, wersie, a na początku może nawet wcale się nie pojawić. Znaczenie gotowości do kreatywności polega na tym, że muzyka może brzmieć w dziecku, że może mieć jasne wyobrażenie, jaka to powinna być muzyka, ale jego muzyczne myśli mogą się jeszcze nie zmaterializować w wyraźnej formie, w określonej melodii . To właśnie ta wewnętrzna praca - proces mentalnego eksperymentowania środkami wyrazu, jest o wiele ważniejszy niż efekt końcowy, zwłaszcza na wczesne stadia wejście w muzykę.

Niezrozumienie natury i warunków kreatywność dzieci, nieodzowne dążenie kierownika muzycznego do ostatecznego uzyskania rezultatu może prowadzić do urazu psychiki dziecka oraz naruszenia naturalności i swobody procesu twórczego. Wynikają z tego dwie ważne implikacje.

Po pierwsze, najważniejszy jest nie tyle rozwój dzieci (edukacja w „czystej formie”!), ile obserwacja ich rozwoju w kontakcie z muzyką i światem zewnętrznym. Po drugie, skupienie się na rozwoju muzycznym dziecka wymaga odrzucenia wielu klisz i stereotypów myślenia pedagogicznego. Przede wszystkim trzeba zrozumieć, że procesu wkraczania w sztukę nie można wymusić, co oznacza, że ​​nie ma potrzeby „wciągania” dziecka w muzykę. Innymi słowy, jeśli chodzi o rozwój muzyczny, nie należy angażować się w samooszukiwanie się poprzez fałszowanie szybkich wyników. Potrzebna jest naturalność procesu, gdy dyrektor muzyczny idzie drogą do muzyki razem z dzieckiem, zgodnie z naturą dziecka i naturą sztuki. Aby to zrobić, musisz być pewien: w prawidłowym wyborze celu - rozwój osobowości ucznia, jego talentów, indywidualności; w muzyce wybranej dla dzieci i szczerze odczuwanej przez samego dyrektora muzycznego; w metodach i technikach, które mogą zainteresować dzieci muzyką; i oczywiście, że każde dziecko jest artystą iz konieczności utalentowanym. Umiejętność dostrzeżenia u dziecka możliwości, których ono samo może nie być świadoma, i przekonania go o tym jest najwyższą, jaką może być tylko w edukacji muzycznej i edukacji w ogóle.

Oczywiście są to kryteria ogólne. Zostaną one zidentyfikowane bezpośrednio w metodach badawczych za pomocą bardziej szczegółowych, „technologicznych” kryteriów, w których poziom manifestacji ogółu w szczegółach pozwoli ocenić kształtowanie się tego lub innego parametru (składnika, elementu) umiejętności muzycznych i kultury muzycznej jako całości.

Część druga. Praktyczny.

Formy i metody pracy z dziećmi.

2.1. „Stowarzyszenia życia muzycznego”.

Pierwszą metodę można warunkowo nazwać „Stowarzyszeniami Życia Muzycznego”. Ujawnia poziom percepcji muzyki przez uczniów: pozwala ocenić kierunek skojarzeń muzyczno-życiowych, stopień ich zgodności z treściami życia muzycznego, ujawnia wrażliwość emocjonalną na słuchaną muzykę i poleganie na percepcji na wzorach muzycznych. Wybrana do tego celu muzyka musi zawierać kilka obrazów, których stopień kontrastu może być różny, ale kontrast musi być „odczytany” z wypukłości. Jednocześnie przestrzegany jest jeden warunek: muzyka musi być nieznana dzieciom. Możesz polecić np.: "Humoresque" P.I. Czajkowskiego (grupa przygotowawcza, październik).

Dźwięki muzyki poprzedzone są poufną rozmową kierownika muzycznego z dziećmi w celu dostosowania percepcji. To rozmowa o tym, że muzyka towarzyszy człowiekowi przez całe życie, może przywoływać wydarzenia, które miały miejsce wcześniej, budzić uczucia, których już doświadczyliśmy, pomagać osobie w sytuacji życiowej - uspokoić, wesprzeć, dodać otuchy. Następnie proponuje się posłuchać muzyki i odpowiedzieć na następujące pytania:

1. Jakie wspomnienia wywołała w Tobie ta muzyka, z jakimi wydarzeniami w Twoim życiu mogła się wiązać?

2. Gdzie w życiu może brzmieć ta muzyka i jak może wpływać na ludzi?

3. Co w muzyce pozwoliło Ci dojść do takich wniosków (czyli o czym i jak opowiada muzyka, jakie są jej środki wyrazu w poszczególnych utworach)?

W przypadku badań owocne jest oferowanie dzieciom Różne wieki ta sama muzyka: to dodatkowo pozwala określić, czego każda epoka szuka w muzyce, na czym opiera się w swoich skojarzeniach. W zależności od sformułowania procesu edukacyjnego, trzecie pytanie może mieć różny stopień złożoności, profesjonalną treść: ile obrazów, jakie gatunki przypisujemy, w jakiej formie napisana jest muzyka, w jaki sposób realizowana jest jedność środków wizualnych i wyrazowych itp. Po wysłuchaniu muzyki prowadzona jest indywidualna rozmowa z każdym dzieckiem, w przypadku trudności z odpowiedziami przypominane są fragmenty muzyczne. Odpowiedzi najlepiej utrwalić na piśmie (do „historii”: ciekawe jest porównanie odpowiedzi dzieci za kilka lat, aby prześledzić dynamikę rozwoju muzycznego). Wyniki są przetwarzane zgodnie z następującymi parametrami: dokładność cecha muzyczna, rozwijające się i artystyczne skojarzenia, emocjonalne zabarwienie odpowiedzi. Szczególną uwagę zwraca się na kierunek myślenia dzieci: od ogółu do szczegółu: od treści figuratywnej muzyki do środków wyrazowych, elementów języka, gatunku, stylu itp. Jeżeli z odpowiedzi dzieci wynika, że ​​rozumieją formę utworu jako zjawisko wtórne, zdeterminowane treścią, wówczas możemy mówić o rozwijającym się postrzeganie holistyczne obraz muzyczny.

2.2. „Wybierz muzykę”

Druga technika „Wybierz muzykę”poświęcona jest definicji muzyki powiązanej treściowo: jak rozsądnie dzieci mogą, porównując 3-4 fragmenty, znaleźć spółgłoskę w treści. Proponowana muzyka powinna mieć podobny wygląd: podobieństwo faktury, dynamiki dźwięku, elementów mowy muzycznej, składu wykonawców, instrumentacji itp. Trudność techniki polega na tym, że utwory nie kontrastują ze sobą. Na przykład możesz zaoferować takie prace:

Opcja 1: „Marzec” DD Szostakowicz i „Marsz” D. Rossiniego (grupa środkowa, styczeń);

Opcja 2: „Deszcz” A. Lyadova i „Smutny deszcz” D.B. Kabalewskiego (grupa środkowa, marzec).

Po wysłuchaniu uczniowie muszą określić, które utwory są ze sobą powiązane w „duchu” muzyki i powiedzieć, na jakiej podstawie stwierdzili wspólność.

Technika ta pozwala na ujawnienie szczególnego „wyczucia muzyki”. Najważniejsze w tym: co oceniają dzieci: ich własne emocje spowodowane muzyką, czy po prostu środkami wyrazu, odciętymi od treści życia. Poleganie wyłącznie na środkach wskazuje na niski poziom percepcji; polegają tylko na swoich emocjach – poziom średni. Za najwyższy poziom należy uznać ustanowienie związku między swoimi emocjami a brzmiącą muzyką, kiedy dziecko potrafi wystarczająco szczegółowo powiedzieć, dlaczego ma takie, a nie inne emocje.

2.3. „Odkryj siebie poprzez muzykę”.

Trzecia metoda, „Otwórz się przez muzykę”, ma na celu wniknięcie w głąb osobistej relacji i postrzegania dzieci przez muzykę. W pewnym stopniu pozwala odsłonić bardzo ważną rzecz: na ile dzieci „odkrywają siebie” poprzez muzykę, na ile są świadome swoich odczuć i przeżyć, czy czują swoje zaangażowanie w treść muzyki, jej obrazy , wydarzenia.

W tym celu oferowana jest jedna praca, na przykład fragment „Tańca elfów” E. Griega, „Dance of the Dragee Fairy” P.I. Czajkowskiego i „W jaskini króla gór” E. Griega i innych, z którymi wiążą się trzy zadania ( grupa seniorów, Kwiecień). W pierwszym zadaniu dzieci są stawiane w pozycji „rozmówcy muzyki”. Ona „opowiada” im o czymś, a potem oni muszą opowiedzieć o swoich uczuciach, o tym, co się w nich narodziło podczas „dialogu”. Drugie zadanie polega na odkrywaniu przez dziecko treści muzycznych w plastyce, w ruchu (może to być plastyczna miniaturowa improwizacja pantomimiczna lub w skrajnych przypadkach można po prostu „oddychać” rękoma). Trzecie zadanie związane jest z ucieleśnieniem „siebie” na rysunku. Podkreślmy w szczególności: uczeń nie rysuje muzyki, którą słyszy, ale siebie, jak się czuł podczas jej brzmienia. Warunek ten dotyczy wszystkich trzech zadań metodyki, gdyż w niej nie interesuje nas sama muzyka, ale dziecko, jego świat duchowy w ocenie siebie, tj. poczucie własnej wartości, muzyka jest tu jego źródłem, znaczącym wydarzeniem.

2.4. „Komponuję muzykę”.

Czwarta technika „Komponuję muzykę”- jest przeprowadzana z każdym dzieckiem indywidualnie i pomaga określić stopień rozwoju przedstawień figuratywnych, fantazji, wyobraźni, myślenia w ramach zadań plastycznych, słuchu figuratywnego, wzroku itp. Procedura prowadzenia techniki przypomina proces twórczy. Podawane jest wstępne zadanie twórcze, które jest pierwszym bodźcem dla dziecka do zorganizowania samodzielnej działalności artystycznej. Możesz zaproponować kilka sytuacji, z których uczniowie wybierają te, które najbardziej im się podobają. Mogą to być np. takie sytuacje: „Wiosenne głosy”, „Letni dzień”, „Dźwięki wielkiego miasta”, „Zimowa droga”, bajkowe wydarzenia itp. Po wybraniu sytuacji dzieci wraz z dyrektor muzyczny (jego udział, jeśli to możliwe, powinien być jak najbardziej ograniczony) zastanowić się nad logiką i oryginalnością rozwoju treści figuratywnej przyszłego dzieła sztuki. Na przykład, jak budzi się życie na wiosnę: śnieg topnieje, słońce pali, spadają krople, spadają sople lodu, szum strumieni - jak to wszystko usłyszeć i wyrazić, a także swój stosunek do tego? ... Lub: „Zimowa droga”: cicho, ponuro, spadają rzadkie płatki śniegu, „przezroczysty las sam czernieje”… Możesz urzeczywistnić swój pomysł na fortepianie, na innych instrumentach (dziecięcych i ludowych), głosem, plastycznością. Pierwszy szkic pejzażowy staje się „tłem”, na którym stopniowo pojawiające się postacie (z reguły dzieci wybierają postacie z bajek i zwierzęta) odgrywają wymyślone akcje, reżyser muzyczny tradycyjnie monitoruje, jaki charakter mają bohaterowie, jakie są ich relacje, jak się pojawiają , jakie nawyki itp. .d. Organizując jak najbardziej samodzielną działalność twórczą, obserwuje proces urzeczywistniania idei artystycznej: jak dzieci szukają środków wyrazu, dobierają narzędzia, włączają głos, plastyczność - za tymi wszystkimi działaniami łatwo „rozszyfrować” myślenie dziecka, gdy tworzenie artystycznych obrazów, których treść opowiada o sobie (lub za pomocą ostrożnych pytań naprowadzających).

Bardzo trudno jest analizować kreatywność dzieci, ponieważ z reguły „umiejętności techniczne” wcielenia są na niskim poziomie, a sama kreatywność dzieci często pozostaje tylko na poziomie pomysłu i szkiców do niego . Jako parametry oceny można jednak wyróżnić następujące parametry:

Stopień świadomości intencji. Tutaj ujawnia się niezależność pomysłu, jego logika, poczucie w nim czasu i przestrzeni (co oceniamy po stronie treściowej twórczości);

Pomysłowość, oryginalność, indywidualność w doborze środków wykonania. Tutaj ważna rola gra niestandardowo, nietradycyjnie, ale pożądane jest, aby się kłócić;

W jakim stopniu dziecko pociąga doświadczenie muzyczne, które już ma. Na przykład, czy instruuje bohaterów, aby wykonali znane mu piosenki, czy opiera się na wiedzy i wyobrażeniach o zjawiskach i faktach muzycznych.

Główną uwagę w analizie kreatywności dzieci należy skierować na badanie, w jaki sposób dziecko planuje swoją aktywność, zaczynając od motywu kreatywności, a kończąc na prawdziwym wcieleniu idei. Głównym kryterium jest tutaj, jak już wspomniano, stopień harmonii atrybutów aktywności muzycznej i twórczej: harmonia między „słyszę-myślę-czuję-działam”.

Tak więc każdemu wybranemu składnikowi kultury muzycznej odpowiadają określone metody. Część z nich (kwestionariusze, pytania, obserwacje) ma charakter tradycyjny, inne powstały specjalnie na potrzeby programu studiów nad kulturą muzyczną, mają charakter autorski (ale też bliskie są motywom tradycyjnym).

2.5. „Dziecko i muzyka”.

Piąta technika „Dziecko i muzyka”. Dyrektor muzyczny pyta dzieci: „Wyobraźcie sobie, że muzyka to żywa istota. Spróbuj narysować tę istotę, tę osobowość tak, jak ją czujesz, rozumiesz, kiedy jej słuchasz lub wykonujesz. I nie zapomnij przedstawić się na swoim rysunku”. Różnica między tą techniką polega na tym, że dzieci nie rysują konkretnej muzyki (wrażenia z pracy) - ich rysunek nie jest w ogóle związany z żywym dźwiękiem. Cel metodyki: dowiedzieć się, na ile dziecko identyfikuje się z muzyką jako ogromnym i ważnym zjawiskiem na świecie. Ogólnie rysuje muzykę. Z rysunku widać, czy czuje się przy niej mały, czy czuje się jej częścią, identyfikuje się z nią; jak holistycznie postrzega „obraz muzyki” (na przykład wyrażając go w czymś jednolitym - kolorze, impulsie, ruchu itp.) lub przedstawia go jako zbyt szczegółowy. Na tę procedurę przeznacza się nie więcej niż 15 minut, po czym w indywidualnej rozmowie z każdym dzieckiem można wyjaśnić, dlaczego przedstawił siebie i muzykę jako taką. Zauważono, że poprzez bogactwo emocjonalne i próbę wyrażenia „obrazu muzyki” u dzieci przejawia się autentyczny (czasem nieświadomy) stosunek do niej. Metoda ta staje się „ostatnim akordem programu diagnozy kultury muzycznej przedszkolaków.

Wniosek

„...Muzyka powinna uczyć swobodnego i bezpośredniego wyrażania swoich uczuć dźwiękami i sympatyzowania ze wszystkimi głosami i wszystkimi nawoływaniami, jakie tylko na świecie brzmią... Sztuka powinna podchodzić do każdego wieku w formie odpowiadającej jego pojmowaniu i umiejętnościom , dla każdego powinien stać się jego własnością, jego własnym językiem... Przyzwyczajając się do swobodnego mówienia, poruszania się, słyszenia, widzenia, działania, dziecko w jego życiu będzie bez skrępowania, łatwo będzie wykorzystać te umiejętności do wypełniać swoją wolę twórczą, będzie wiedział, jak dać wynik tej woli… Poprzez sztukę trzeba wychować twórczą wolę dzieci, ich wolę działania; gdzie dzieci, słuchając, oglądając czy wykonując cudze dzieła sztuki, powinny je niejako tworzyć na nowo, wewnętrznie doświadczać tej silnej woli i tego silnego uczucia, które ta praca stworzyła… Ten kierunek edukacji estetycznej nie jest na miejscu wszystko jak nauczanie sztuki w starej szkole, gdzie dzieci uczono tylko słuchać, patrzeć i realizować to, co było zaplanowane, zgadzać się z tym, co było przed nimi zrobione, przyzwyczajać swój gust do starych, konwencjonalnych wzorców…”.

Wiedza teoretyczna i metody charakteryzujące nowe technologie w edukacji muzycznej na przykładziesymulacje procesu artystycznego i twórczego pozwalają kierownikowi muzycznemu osiągnąć główny cel – ukształtować u ucznia wyobrażenie o działalności Muzyku – kompozytora, wykonawcy, słuchacza – jako wysokiego przejawu twórczości ludzkiej, jako wielkiego dzieła duszę, jako najwyższą potrzebę przemiany człowieka i świata.

Bibliografia

  1. Burenina AI Świat ekscytujących zajęć. Wydanie 1: Świat dźwięków, obrazów i nastrojów. SPb., 1999
  2. Zimina A.N. Podstawy edukacji muzycznej i rozwoju dziecka młodszy wiek. M., 2000
  3. Kabalewski D.B. Piękno budzi dobro. M.: Oświecenie, 1973
  4. Linchenko N.M., Kirillova O.A. Poważna muzyka dla dzieci: poradnik dla pedagogów i dyrektorów muzycznych przedszkolnych placówek oświatowych. Murmańsk, 2000
  5. Minaeva V.M. Rozwój emocji u przedszkolaków. Lekcje. Gry: podręcznik dla praktyków placówek przedszkolnych. M., Arkti. 2001
  6. Nowikowa G.P. Edukacja muzyczna dzieci w wieku przedszkolnym. M., 2000
  7. Radynova OP, Gruzdova IV, Komissarova L.N. Warsztaty dotyczące metodyki edukacji muzycznej przedszkolaków. M., 1999
  8. Radynova OP, Katenene A.I., Palandishvili M.L. Edukacja muzyczna dzieci w wieku przedszkolnym. M., 2000

Opracowanie metodologiczne „Wykorzystanie technologii muzycznych i komputerowych w działalności dyrektora muzycznego”

Nowoczesna instytucja edukacyjna potrzebuje nauczyciela, który posiada wszystkie możliwości nowoczesnego komputerowego „płótna” dźwiękowego. Dyrektor muzyczny, który zna się na informatyce jak na klawiaturze fortepianu, potrafi zauroczyć dzieci różnymi formami pracy z repertuar muzyczny nie tylko ze względu na swoje zdolności wokalne, wiedzę akademicką, ale także technologię komputerową. Oczywiście zasada techniczna nie powinna tłumić ani nauczyciela, ani ucznia artysty-twórcy z delikatnym uchem muzycznym i nieokiełznaną wyobraźnią.
Nie każdy nauczyciel korzystający w swojej praktyce z gotowych narzędzi multimedialnych jest zadowolony z ich jakości, konstrukcji, zarządzania, poziomu merytorycznego itp. proces edukacyjny jest w wysoki stopień indywidualny, wymagający zróżnicowane podejście w zależności od dużej liczby zmiennych.
Dlatego w miarę swobodnie i kreatywnie myślący nauczyciel przedszkolny, dyrektor muzyczny, powinien umieć samodzielnie przygotować materiał multimedialny na zajęcia, wakacje itp.
Wraz z tradycyjnymi instrumentami muzycznymi, na których koncentruje się edukacja muzyczna, upowszechniają się technologie muzyczno-komputerowe (MCT) o szerokim wachlarzu możliwości. Komputer muzyczny staje się nieodzowny w działalności kompozytora, aranżera, projektanta muzycznego, redaktora muzycznego i coraz częściej wykorzystywany jest w nauczaniu. Technologie te otwierają nowe możliwości twórczego eksperymentowania, poszerzania muzycznych horyzontów, artystycznego tezaurusa uczniów, a to sprawia, że ​​nauka ich opanowania jest szczególnie istotna.
Nowe technologie informacyjne ukierunkowane na nowoczesną edukację muzyczną stwarzają warunki do kształcenia postaci muzycznej, która oprócz tradycyjnych dyscyplin muzycznych posiada komputer muzyczny jako nowy instrument muzyczny.
Najważniejszymi obszarami zastosowań i rozwoju ICT są dziś:
MCT w profesjonalnej edukacji muzycznej (jako sposób na poszerzenie możliwości twórczych);
ICT w kształceniu ogólnym (jako jeden ze środków kształcenia);
ICT jako środek rehabilitacji osób niepełnosprawnych;
ICT jako sekcja dyscypliny „Informatyka”, „Informatyka”;
MCT jako nowy kierunek w kształceniu specjalistów technicznych, związany w szczególności z modelowaniem elementów twórczości muzycznej, programowaniem dźwiękowo-brzmieniowym, co prowadzi do powstania nowych twórczych specjalności technicznych.

Zastosowanie MCT w edukacji muzycznej organizacji przedszkolnej rozwiązuje następujące zadania:
1. Znacząco intensyfikują rozwój słuchu muzycznego i myślenia, co wynika z ich intensywnych zdolności uczenia się opartych na integracji logiczno-percepcyjnej form aktywności. Rozumienie elementów języka muzycznego odbywa się za pomocą doznań i reprezentacji wizualnych, co uzupełnia możliwości komunikacji werbalnej. Nietwórcze formy pracy nauczyciela są przenoszone do komputera, co umożliwia demonstrację
2. ekspresyjne możliwości harmonii (przede wszystkim logiki konstruktywnej), obserwowania wzorców morfologii i składni muzycznej, ułatwia nabywanie umiejętności orientacji w płaszczyźnie intonacyjno-semantycznej, słyszenia i rozumienia planu treściowo-figuratywnego, przyczynia się do zbieżności materiału edukacyjnego z praktyką artystyczną, wreszcie wzbogaca słuch barwowy uczniów, ich wyobrażenia o barwno-wielowymiarowej jakości dźwięku;
3. Muzyczne programy szkoleniowe mogą być szeroko stosowane w przypadkach, gdy wymagane jest intensywne przywracanie umiejętności po dłuższej przerwie w szkoleniu lub gdy konieczne jest szybkie i trwałe ukształtowanie specjalnych umiejętności muzycznych.

WYKORZYSTANIE PROGRAMÓW MULTIMEDIALNYCH W PROCESIE EDUKACYJNYM

Tworząc program multimedialny, trzeba jasno wyobrazić sobie, dla kogo i po co jest tworzony. Treść slajdów informacyjnych może być zestawiona na dowolny temat programu nauczania danego przedmiotu lub mieć charakter rozwojowy dla zajęć lekcyjnych i/lub pozalekcyjnych.
Program multimedialny to połączenie dynamiki z rozsądną ilością przekazywanych informacji. Jest to synteza technologii komputerowych łącząca dźwięk, klipy wideo, informacje, obrazy nieruchome i ruchome. W przeciwieństwie do filmów wideo, do przesłania potrzebują znacznie mniejszej ilości informacji.
Tworzenie programów multimedialnych, projektów telekomunikacyjnych polega na opracowaniu scenariusza, koncepcji, reżyserii, montażu, montażu, udźwiękowieniu (w razie potrzeby).
Aby stworzyć program multimedialny, w pierwszej kolejności opracowywany jest scenariusz i ustalana jest kolejność prezentacji materiału z uwzględnieniem procentowego wykorzystania zakresu tekstowego, wizualnego i dźwiękowego. Jest całkiem oczywiste, że tworzenie programu multimedialnego zawierającego wyłącznie informacje tekstowe jest niepraktyczne. Taki materiał można przygotować w programie Microsoft Word. Podczas wyszukiwania informacji możesz korzystać z linków do kolekcji witryn edukacyjnych, witryn z wyborem obrazów.
Wybierając materiał do programu multimedialnego, należy o tym pamiętać rozmawiamy o tworzeniu takich informacji, które będą przepływać i dynamicznie rosnąć w miarę postępów ucznia w proponowanym materiale. Jest to szczególnie ważne, gdy szkolenie indywidualne, kiedy użytkownik może się zatrzymać, zapisz dla niego najważniejsze, wróć do wyjaśnienia pojęć i przejdź dalej (takie opcje są zapewnione).
Należy pamiętać, że prezentowany materiał jest pojemną prezentacją zgromadzonego materiału, gdzie prezentacja tekstowa jest często zastępowana symbolami, tabelami, schematami, rysunkami, fotografiami, reprodukcjami.
Wybrane wideo i dźwięk do Twojego programu.
Wszystko to zapewnia użytkownikowi najbardziej komfortowe warunki odbioru materiału. Elementy multimedialne tworzą dodatkowe struktury psychologiczne, które przyczyniają się do percepcji i zapamiętywania materiału.
Zalety lekcje muzyki korzystanie z prezentacji multimedialnych w Power Point:
- wykorzystanie animacji i momentów zaskoczenia sprawia proces poznawczy ciekawy i wyrazisty;
- dzieci otrzymują akceptację nie tylko od nauczyciela, ale także od komputera w postaci obrazków-nagród, którym towarzyszy udźwiękowienie;
- harmonijne połączenie tradycyjnych środków z wykorzystaniem prezentacji w programie Power Point może znacznie zwiększyć motywację dzieci do nauki.

Projektowanie zajęć z wykorzystaniem technologii multimedialnych to zupełnie nowy kierunek w działalności nauczyciela i to tutaj można zastosować całe zgromadzone doświadczenie, wiedzę i umiejętności oraz kreatywne podejście. Zajęcia prowadzone w szkołach z wykorzystaniem publikacje elektroniczne kierunek wychowawczy, na długo zapadnie w pamięć dzieci. Jednocześnie oczywiście pozostaje to w kwestii edukacji gust muzyczny Najważniejszą rolą pozostaje rola nauczyciela, której nie zastąpi żaden komputer.
Podsumowując powyższe, można stwierdzić, że tworzenie i wykorzystywanie multimedialnych scenariuszy lekcji jest jednym z obiecujących obszarów wykorzystania technologii informacyjno-komunikacyjnych w szkołach. Nie należy jednak zapominać o naukowym charakterze, celowości, logice prezentacji informacji multimedialnych.

Edukacyjne gry interaktywne z wyzwalaczami

Co to jest wyzwalacz? Wyzwalacz to narzędzie do animacji, które pozwala ustawić akcję na wybranym elemencie, animacja rozpoczyna się po kliknięciu.
To użycie wyzwalaczy w edukacyjnych grach prezentacyjnych czyni je interaktywnymi.
Rozważ algorytm rejestrowania czasu animacji za pomocą wyzwalacza.
1. Wybierzemy niezbędne zdjęcia i zastanowimy się nad ewentualnymi pytaniami. Lepiej zmienić nazwy obrazków na wygodne przed umieszczeniem ich w prezentacji. Obiektem animacji i wyzwalaczy mogą być zarówno obrazki, jak i obiekty tekstowe, za pomocą których zgodnie z planem odbędzie się akcja.
2. Umieść na slajdzie obiekty, do których zostanie zastosowana animacja i wyzwalacz. Pomyśl o treści użycia animacji, na przykład:
Wybór: Obróć lub Zmień rozmiar;
Ścieżki podróży: Kierunek podróży lub Narysuj własną ścieżkę. (Rys. 1)
Ważny: Nie bierz animacji Wejście


3. Powiąż efekt animacji z obiektem, tak aby po kliknięciu rozpoczynał się na slajdzie. Chcemy, aby obiekt znikał np. po kliknięciu na błędną odpowiedź, a po kliknięciu na poprawną odpowiedź powiększył się wraz z sygnałem dźwiękowym. Aby to zrobić, zaznacz obiekt lub „kliknij” strzałkę obok efektu w panelu zadań (prostokąt w kółku), aby otworzyć menu rozwijane i wybrać polecenie Czas (rys. 2).

W otwartym oknie aktywujemy przycisk Switches, odpowiada on za działanie spustu. Wybierz - Uruchom efekt po kliknięciu. Uwaga! Wybierz z listy po prawej stronie wymagany element z proponowanych przez nas opcji efektów animacji. (Rys. 3).
Po tej akcji nad obiektem w obszarze zadań Ustawienia animacji (Rys. 4) zobaczymy słowo „wyzwalacz”. Wyzwalacz został utworzony.


Podczas wyświetlania prezentacji kursor strzałki na obiekcie ze spustem zmienia się w kursor dłoni.
4. Powtórz wszystkie czynności z pozostałymi obiektami.
5. Możesz sprawdzić się w Ustawieniach animacji: każdy obiekt o tej samej nazwie ma animację, wyzwalacz i plik muzyczny (jeśli istnieje).
6. Teraz ustawmy obiekty pod kątem pojawienia się dźwięku. Uwaga! Plik dźwiękowy musi być mały! Wstaw dźwięk (oklaski itp.) poprzez menu Wstaw - Dźwięk - wybierz żądany plik (z pliku, z organizatora klipów, własne nagranie) i odtwórz dźwięk po kliknięciu (Rys. 5).


Przeciągnij dźwięk do żądanego obiektu. Ustawiliśmy ikonę mikrofonu na tryb niewidoczny (Rys. 2) (Parametry efektów - Parametry dźwięków - Ukryj ikonę podczas pokazu, ustaw V).
7. Dostosuj dźwięk: wybierz obiekt „dźwięk” lub „kliknij” strzałkę obok dźwięku w obszarze animacji (zakreślony prostokąt), aby otworzyć menu rozwijane i wybierz polecenie Czas (rys. 2).
8. Uwaga! (Rys. 6)


Początek - po poprzednim.
Uruchom efekt na kliknięcie - znajdź przedmiot, z którym zabrzmi muzyka.
9. Dodaj przycisk, aby przejść do następnego slajdu. Wybieramy w menu Wstaw - Kształty - Przyciski sterujące (ryc. 7). Rysujemy poniżej (kursor zmienił się w +) wybraną figurę. Zostanie otwarte okno Ustawienia akcji.


10. Wykonaj ustawienia akcji (Rys. 8): Po kliknięciu myszką - Podążaj za hiperłączem - Wybierz slajd, do którego chcesz przejść w oknie, które zostanie otwarte - OK.
11. Po wyświetleniu prezentacji kursor strzałki na przycisku sterowania zmienia się w kursor dłoni, tak jak na obiekcie ze spustem.
Stosowanie wyzwalaczy nie zawsze jest wygodne, na przykład w przypadku obiektów WordArt. W nich aktywna jest tylko powierzchnia liter i trudno wejść w nią kursorem. W takich przypadkach stosuje się metodę przezroczystych wyzwalaczy, gdy wyzwalacz jest przypisany nie do samego obiektu, ale do nałożonej na ten obiekt przezroczystej figury.
1. Menu Wstaw - Kształty - wybierz np. prostokąt i narysuj go na obiekcie WordArt. Wybierz go, kliknij prawym przyciskiem myszy i wybierz linię „Format kształtu”: Wypełnienie - Kolor biały, przezroczystość 100%; Kolor linii — Brak linii.
2. Stosujemy animację do obiektu WordArt, aw nim - wyzwalacz do obiektu. Powierzchnia prostokąta jest aktywna, co oznacza, że ​​łatwiej trafić w nią kursorem.
W przypadku niektórych gier wygodnie jest używać ruchomych wyzwalaczy, na przykład „strzelanie” do ruchomego celu, „Bubble Pop” itp.
- Obiekty zaczynają się poruszać automatycznie podczas zmiany slajdów: Animacja Ścieżki ruchu - Start pierwszego obiektu Po kliknięciu, kolejne - Z poprzednim.
- Dodaj animację do obiektów. Szybkość ruchu obiektu w Animacji ustawia się (Rys.3) w zakładce Czas.
- Aby zapobiec niezamierzonym przejściom slajdów, gdy przypadkowo klikniesz w przeszłość podczas gry, usuń zaznaczenie zmiany slajdu „Po kliknięciu” i ustaw przycisk sterujący lub obiekt z hiperłączem do następnego slajdu.


Hiperłącze to podświetlony obiekt (tekst lub obraz), który jest połączony z innym dokumentem lub lokalizacją w tym dokumencie i reaguje na kliknięcie myszą.
Najpierw tworzymy wymaganą liczbę slajdów: zalecamy użycie motywów lub układów „Tylko tytuł” ​​lub „Pusty slajd”.
Do stworzenia jednego poziomu gry interaktywnej potrzebujemy trzech slajdów (jeden - z zadaniem; drugi - z wartością błędnej odpowiedzi i powrotu do slajdu z zadaniem; trzeci - z wartością poprawnej odpowiedzi i przejście do następnego poziomu) (rys. 9).


Na slajdzie z zadaniem umieszczamy obiekty, które połączymy hiperłączem do innego slajdu (umieść w dokumencie)
Wybierz obiekt, przejdź do zakładki „Wstaw”, wybierz polecenie „Hiperłącze” (ryc. 10)


W oknie, które się pojawi (rys. 11), w polu „Link do” wybierz „Umieść w dokumencie”. W polu „Wybierz miejsce w dokumencie”, kliknij „Tytuł slajdu”, znajdź slajd, którego chcesz użyć jako celu hiperłącza (możesz go zobaczyć w oknie „Wyświetl slajd”). Kliknij OK".


Jeśli istnieje potrzeba usunięcia hiperłącza, w tym samym oknie (ryc. 11) znajduje się przycisk „Usuń hiperłącze”, kliknij „OK”.
Każdy obiekt na slajdzie łączymy z zadaniem za pomocą niezbędnego znaczeniowo hiperłącza do slajdu.
Aby powrócić do slajdu z zadaniem lub przejść do następnego poziomu gry, możesz utworzyć hiperłącze tekstowe, jak na rys. 9, lub użyć przycisków Control. Wybierz menu Wstaw - Kształty - Przyciski sterujące (ryc. 12).


Rysujemy poniżej (kursor zmienił się w +) wybraną figurę. Zostanie otwarte okno Ustawienia akcji. Ustawienia akcji wykonujemy (Rys. 13): Klikając myszką - Przejdź do hiperłącza - Wybierz slajd, do którego chcesz przejść w oknie, które zostanie otwarte (zalecamy SLAJD) - otworzy się okno, w którym możesz zobaczyć slajd, który chcesz zamierzamy - ok.


Możemy przeciągnąć przycisk sterujący w dowolne miejsce na slajdzie, zmniejszyć lub zwiększyć jego rozmiar, użyć Narzędzi do rysowania do zmiany koloru, wypełnienia, napisania tekstu itp.
W podobny sposób tworzymy potrzebną nam liczbę poziomów gry i możemy rozpocząć grę. Dodatkowo możesz dołączyć pliki dźwiękowe.

NAGRYWANIE I PRZYCINANIE DŹWIĘKU

Możesz nagrać i edytować plik audio w profesjonalnym studiu za pomocą specjalnych programów lub użyć improwizowanych narzędzi - standardowych programów i narzędzi systemu operacyjnego Windows. Oprócz tego potrzebujemy gotowych plików w różnych rozdzielczościach, mikrofonu do nagrywania głosu i pewnych umiejętności.

nagrywanie dźwięku

Możesz nagrać mały plik dźwiękowy za pomocą programu Sound Recorder, który jest programem systemu Windows przeznaczonym do nagrywania, miksowania, odtwarzania i edycji nagrań dźwiękowych. Ponadto program Sound Recorder umożliwia łączenie dźwięków z innym dokumentem lub wstawianie ich do niego. Źródło dźwięku - mikrofon, napęd CD-ROM lub urządzenie zewnętrzne.
Otwórz program: Menu Start - Wszystkie programy - Akcesoria - Rozrywka - Rejestrator dźwięku. Aby nagrać dźwięk, wybierz polecenie Nowy z menu Plik. Aby rozpocząć nagrywanie, kliknij przycisk Nagraj. Aby zatrzymać nagrywanie, kliknij przycisk Zatrzymaj. Otrzymujemy plik w rozdzielczości WAV, czas trwania dźwięku nie przekracza 60 sekund.


Aby zamontować kilka plików dźwiękowych w jednym lub wkleić jeden plik do drugiego, wybierz Plik - Otwórz. Znajdź plik, który chcesz edytować, przesuń suwak do miejsca, w którym chcesz wkleić drugi plik. W menu Edycja wybierz polecenie Wstaw plik i kliknij dwukrotnie plik, który chcesz otworzyć. W ten sposób można wydłużyć czas trwania dźwięku.
Plik można odtwarzać w odwrotnej kolejności, w tym celu wchodzimy do menu Efekty - Odwróć i klikamy przycisk Odtwórz, w menu Efekty zmieniamy plik - polecenie Dodaj echo.
Możesz nadpisać plik muzyczny za pomocą odtwarzacza karaoke. Plik KAR lub midi ustawiamy w żądanym tempie i tonacji, następnie włączamy Odtwarzanie całego pliku lub jego fragmentu na odtwarzaczu i jednocześnie Nagrywamy w programie Sound Recorder. Otrzymujemy dane wyjściowe i zapisujemy plik w rozdzielczości WAV.

Windows Movie Maker

Kolejna opcja do nagrywania i edycji plików (dźwiękowych i wideo) za pomocą programy Windowsa twórca filmów.


Dźwięk nagrany za pomocą mikrofonu jest zapisywany jako plik audio w formacie Windows Media z rozszerzeniem .wma. Domyślnie plik notatki dźwiękowej jest zapisywany w folderze „Komentarz” znajdującym się w folderze „Moje wideo” na dysku twardym. Program umożliwia dodawanie efektów dźwiękowych: głośność dźwięku stopniowo wzrasta do końcowego poziomu odtwarzania lub stopniowo maleje, aż do całkowitego zaniku dźwięku.
Aby edytować dźwięk, otwórz plik przez Nagraj wideo - Importuj dźwięk lub muzykę, w środkowym polu pojawi się notatka, którą przeciągamy na oś czasu poniżej.
Po prawej stronie w oknie włącz Play, użyj przycisku Podziel klip na części (ryc. 3) podczas słuchania. Zbędne fragmenty usuwamy Del na klawiaturze, podciągamy pozostałe fragmenty i otrzymujemy potpourri, które następnie zapisujemy na komputerze w formacie Windows Media Audio File.


To samo dzieje się z plikiem wideo, tylko przez Importuj wideo.

Przytnij plik mp3 online

Twoja uwaga jest skierowana na cięcie muzyki online w Internecie. (http://mp3cut.foxcom.su/) . W przeszłości szukaliśmy zaawansowanych programów do edycji plików audio. Dzięki bezpłatnej usłudze serwisu mp3cut.ru cięcie stało się łatwiejsze, szybsze i wygodniejsze (ryc. 4).


Krok 1. Kliknij przycisk „Pobierz mp3”, wybierz żądany plik ze swojego komputera i poczekaj, aż się załaduje. Gdy plik będzie można edytować, ścieżka zmieni kolor na różowy, a przycisk odtwarzania zmieni kolor na czerwony.
Krok 2. Teraz możesz wyciąć plik mp3. Bieżniki-nożyce odsłaniają pożądany fragment kompozycji.
Krok 3. Kliknij przycisk „Przytnij”, pobieranie rozpocznie się natychmiast.

Funkcje programu on-line do cięcia muzyki

Wycinarka muzyki obsługuje większość formatów audio: mp3, wav, wma, flac, ogg, aac, ac3, ra, gsm, al, ul, voc, vox, umożliwiając korzystanie z serwis internetowy jako konwerter plików audio do mp3: wav do mp3, wma do mp3, ogg do mp3, flac do mp3 itp.
Obecność funkcji wzmacniania / tłumienia dźwięku na początku i na końcu wybranego segmentu. Dzięki tej opcji możesz samodzielnie stworzyć dzwonek, który nie przestraszy Cię nagłym początkiem lub nagłym zakończeniem na końcu.
Podwój objętość cięcia. Funkcja pozwala zwiększyć głośność cięcia, co często jest konieczne, zwłaszcza przy tworzeniu dzwonka.
Czas cięcia nie ma ograniczeń. Segment jest wybierany z dokładnością do milisekund. Za pomocą klawiatury (strzałki lewo/prawo) można bardzo precyzyjnie ustawić początek i koniec segmentu muzycznego.
Możliwość wielokrotnego przycinania jednego pliku audio bez dodatkowego pobierania. tych. możliwe jest stworzenie kilku dzwonków z jednego utworu, melodii, kompozycji muzycznej.
Rozmiar pliku jest prawie nieograniczony

BIBLIOGRAFIA:
1. Altszuller, GS Kreatywność jako nauka ścisła: Teoria rozwiązywania problemów wynalazczych / G.S. Altszuller. - M., 2008. - 84 s.
2. Gorbunowa I.B. Fenomen muzyki i technologii komputerowych jako nowe kreatywne środowisko edukacyjne // Izwiestija RGPU im. sztuczna inteligencja Hercena. 2004. nr 4 (9). s. 123–138.
3. Edytor graficzny Paint. Edytor prezentacji programu PowerPoint (+ dysk CD) /pod. wyd. Żytkowa O.A. i Kudryavtseva E.K. - M.: Centrum Intelektu. 2003 - 80 str.
4. Ermolaeva-Tomina, L.B. Problem rozwoju zdolności twórczych dzieci / L.B. Ermolaeva-Tomina // Pytania z psychologii. - 2009. - Nr 5. - P.166-175.
5. Krasilnikow I.M. Elektroniczna twórczość muzyczna w systemie edukacji artystycznej / I.M. Krasilnikow. - Dubna, 2009. - 496 s.
6. Płotnikow K.Yu. Metodyczny system nauczania informatyki z wykorzystaniem technologii muzyczno-komputerowych: monografia. SPb., 2013. 268 s.
7. Tarasowa K.V. Muzykalność i jej składowe zdolności muzyczne // Kierownik muzyczny. - 2009. - Nr 5.
8. Tepłow B.M. "Psychologia zdolność muzyczna"- M., 1978.
9. Uljanowicz, V.S. Notatki o muzyce komputerowej / V.S. Uljanicz // Życie muzyczne. - 2008. nr 15.
10. Tworzenie prezentacji w Power Point - [Zasób elektroniczny]

Wydawać by się mogło, że nie minęło wiele lat od czasu, gdy pierwsze komputery, które zajmowały całe pokoje i jednocześnie absolutnie nie były przeznaczone do pisania muzyki, zamieniły się w małe komputery osobiste, łączące w sobie możliwości pracy nie tylko z obliczeniami , ale także z grafiką, wideo, dźwiękiem i nie tylko. W kontekście rozwoju we wszystkich obszarach działalności, absolutnie logiczne wydaje się wprowadzenie komputera do procesu edukacyjnego, nie tylko jako takiego, ale również jako pomoc w nauce.

Zróbmy krótką dygresję do historii pierwszych prób łączenia bezdusznych maszyn ze sztuką.

Dawno temu, od czasów Pitagorasa, a może nawet wcześniej, matematycy zwracali uwagę na formalną stronę organizacji muzyki – na skale czasu i częstotliwości. Jednak mechanizmy odtwarzające muzykę zgodnie z programem pojawiły się przed mechanizmami kalkulatora, więc zaryzykowalibyśmy nazwanie muzyków pierwszymi programistami. Jednak w spisanym dziedzictwie starożytnych kultur być może notacja muzyczna jako opis procesu tymczasowego, najbliższy tekstom programów. Istnieją bloki, warunki, pętle i etykiety w obu formach, ale nie wszyscy programiści i muzycy są świadomi tych podobieństw. Ale jeśli je pamiętasz, nie możesz się już dziwić, że tworząc pierwsze komputery, inżynierowie zmusili je do odtwarzania melodii. To prawda, że ​​muzycy nie mogli przypisać muzyki maszynowej prawdziwej muzyce, być może dlatego, że nie było w niej nic poza „martwymi” dźwiękami lub planem. A samo brzmienie maszyny, które na początku było prostym meandrem, było niezwykle dalekie od brzmienia instrumentów akustycznych. Jednak liczne eksperymenty z maszynami elektronicznymi zdolnymi do wydobycia dźwięku doprowadziły do ​​powstania różnych sposobów pisania muzyki, a co za tym idzie do powstania różnych stylów i kierunków. Nowy dźwięk, niezwykły i nieprzyzwyczajony do ucha, stał się innowacją w muzyce. Wielu znanych współczesnych kompozytorów, na przykład K. Stockhausen, O. Messiaen, A. Schnittke, pomimo złożoności pracy z technologią, tworzyło utwory przy użyciu nowych instrumentów elektronicznych lub tylko na nich.

Kolejnym etapem rozwoju muzycznych technologii komputerowych były badania i rozwój metod syntezy dźwięku.

Inżynierowie zwrócili się ku analizie widm instrumentów akustycznych i algorytmom syntezy brzmień elektronicznych. Początkowo obliczenia drgań dźwiękowych były wykonywane przez centralny procesor, ale z reguły nie w czasie rzeczywistym. Dlatego na pierwszych komputerach tworzenie utworu muzycznego było bardzo żmudnym procesem. Trzeba było zakodować nuty i przypisać barwy, a następnie uruchomić program do obliczenia fali dźwiękowej i odczekać kilka godzin na odsłuchanie wyniku. Jeśli muzyk, a raczej programista-operator, dokonał jakiejś zmiany w partyturze, znowu musiał czekać kilka godzin przed odsłuchem. Oczywiste jest, że taka praktyka muzyczna nie mogła być masowa, ale badacze fenomenu muzyki chcieli pójść dalej niż zwykłe użycie maszyny jako elektronicznej pozytywki. Tak powstał kolejny - całkiem naturalny - kierunek muzycznego wykorzystania komputerów: generowanie, generowanie samego tekstu muzycznego.

Już w latach 50., używając pierwszych komputerów, naukowcy podejmowali próby syntezy muzyki: skomponowania melodii lub ułożenia jej sztucznymi barwami. Tak powstała muzyka algorytmiczna, której zasadę zaproponował już w 1206 roku Guido Marzano, a później zastosował W. Mozart do automatyzacji komponowania menuetów – pisania muzyki według utraty liczb losowych.

Kompozycje algorytmiczne tworzyli P. Boulez, J. Xenakis, K. Shannon itp. Autorem słynnej „Illiac Suite” (1957) był przede wszystkim komputer, a współautorami kompozytor Leyaren Hiller oraz programista Leonard Isaacson. Trzy części są bliskie muzyce stricte, a czwarta wykorzystuje matematyczne wzory, które nie mają nic wspólnego ze stylami muzycznymi. P. Boulez i J. Xenakis stworzyli specjalne programy do swoich utworów, każdy dla określonej kompozycji. Pierwszym dziełem J. Xenakisa, demonstrującym stochastyczną (lub algorytmiczną) metodę komponowania muzyki, był „Metastasis” (1954) – utwór, w którym J. Xenakis obliczył algorytm, który następnie zastosował do realizacji projektu architektonicznego Corbusiera w forma pawilonu Philipsa na Wystawie Światowej w 1958 roku.

Historia rozwoju muzycznych technologii komputerowych jest w dużej mierze związana z rosyjskimi naukowcami i badaczami. L. Theremin, E. Murzin, A. Volodin stworzyli unikalne środki syntezy dźwięku nie „po”, ale „przed” swoimi zachodnimi kolegami. Problemami rozpoznawania i autonotacji zajmował się A. Tangyan. R. Zaripov, który „komponował” utwory muzyczne na maszynie Ural, poświęcił swoje badania analizie i generowaniu tekstów muzycznych, tworzeniu kompozycji algorytmicznych. Podstawą takich algorytmów był szczegółowy proces dla różnych elementów tekstura muzyczna(kształt, rytm, wysokość itp.). Zaripow wydedukował cały zestaw matematycznych reguł komponowania takich melodii. „Uralskie melodie”, jak nazywał te melodie, były monofoniczne i były albo walcem, albo marszem.

Co więcej, są to tylko nazwiska tych badaczy, których praca jest uznawana poza Rosją. Było jednak wiele innych, lokalnych wydarzeń. Nie jedyna, ale jedna z godnych uwagi to pierwsza domowa karta dźwiękowa i interfejs MIDI dla komputera PC Agat-7 (analogicznie do Apple II) z własnym oprogramowaniem muzycznym. Wszystko to działo się w połowie lat 80. XX wieku, kiedy IBM-XT był jeszcze daleko od wszystkich uczelni technicznych, a przeciętny użytkownik nie miał pojęcia o znakach towarowych Sound Blaster (Creative Labs, http://www.creat.com) i Voyetra (Voyetra Technologies, http://www.voyetra.com).

Podobnie jak w innych obszarach (na przykład w grafice i animacji), w muzycznej technologii komputerowej opracowano dwa zasadniczo różne podejścia. Pierwsza związana jest z kontrolą parametrycznego modelu dźwięku, partii, pracy, druga z działaniem analogu obiektu rzeczywistego. Oba podejścia mają zarówno zalety, jak i wady i stale ewoluują. Podczas gdy niektórzy inżynierowie starali się osiągnąć maksymalną wiarygodność w syntezie barw akustycznych, inni opracowywali metody operowania prawdziwym dźwiękiem. Jeśli pierwsi rozwiązywali problemy optymalizacji parametrów syntezy i kontroli wykonania, to drudzy zajmowali się kompresją i dekompresją danych, czyli zagadnieniami fal dźwiękowych. Ale parametryczne modele obiektów są zawsze bardziej atrakcyjne dla inżyniera, znacznie lepiej nadają się do eksploatacji i transformacji. Cała kwestia polega na tym, jak dokładnie modele opisują rzeczywisty obiekt, jeśli celem jest osiągnięcie wiarygodności. Z badań z zakresu psychologii percepcji wiadomo, że progi rzetelności i mechanizmy przywracania obrazów odgrywają szczególną rolę w procesie rozpoznawania wzorców. Nieprofesjonalista nie będzie już w stanie odróżnić zsyntetyzowanej barwy fortepianu od rzeczywistej, właśnie dlatego, że nie ma ona wysokiego progu niezawodności. I jest całkiem możliwe, że przyszłość muzycznych technologii komputerowych leży w modelowaniu parametrycznym.

Ogromna liczba istniejących obecnie programów/środowisk opiera się na trzech podstawowych metodach: stochastycznej, pewnym ustalonym algorytmie oraz systemach ze sztuczną inteligencją.

Metoda stochastyczna opiera się na generowaniu dowolnych serii dźwięków lub pasaży muzycznych i może być prezentowana zarówno z komputerem, jak i bez niego, jak na przykład w pracy Stockhausena.

Sama metoda algorytmiczna jest zbiorem pewnych algorytmów, które realizują intencję kompozytora. Algorytm można przedstawić jako technikę kompozytorską lub jako model generujący dźwięk. Możliwe jest również połączenie tych dwóch funkcji. Unikalnym systemem programowania dźwięku jest program CSound, który jest głównym instrumentem muzyków elektroakustycznych. Program wykorzystuje prawie każdy rodzaj syntezy, w tym FM, AM, subtraktywną i addytywną, modelowanie fizyczne, resyntezę, granularną, a także każdą inną metodę cyfrową. W oparciu o CSound powstało wiele innych systemów (AC Toolbox, CYBIL, Silence itp.). Dla muzyka tworzenie kompozycji w takim środowisku jest dość trudne, gdyż wymaga umiejętności i znajomości programowania (choć twórcy twierdzą inaczej). Kompozytor zapisuje polecenia do dwóch plików tekstowych, z których jeden odpowiada za opis samego brzmienia/instrumentu, drugi powinien zawierać właściwą partyturę. W programie jest niezliczona ilość operatorów, tych cegiełek, które składają się na przestrzeń dźwiękową, którą programujemy.

Nie mniej popularnym środowiskiem do programowania instrumentów wirtualnych i tworzenia algorytmów do interaktywnego wykonania jest program MAX/MSP opracowany przez Paryski Instytut Muzyki Elektronicznej (IRCAM). Jest zaimplementowany jako aplikacja z obiektowym interfejsem użytkownika. Możliwości takiego środowiska to przede wszystkim tworzenie muzyki interaktywnej (podczas występu wstępnie napisany moduł oprogramowania wchodzi w interakcję z odtwarzaną muzyką za pośrednictwem interfejsu MIDI). Praca w takim środowisku to przyjemność, ponieważ daje pełną swobodę działania zarówno kompozytorowi, jak i wykonawcy. Program ten jest szeroko stosowany podczas koncertów na żywo – brzmienie tego samego utworu na różnych koncertach będzie inne, jedynie algorytm interakcji między komputerem a wykonawcą pozostaje niezmieniony. Program jest używany przez wielu głównych kompozytorów takich jak Richard Boulanger i Dror Feiler.

Wreszcie możliwe jest wykorzystanie systemów wykorzystujących sztuczną inteligencję. Są to również systemy oparte na regułach, ale ich główną cechą jest zdolność uczenia się. Celem jest stworzenie kompozycji, które mają uczucie, subtelność i intelektualny urok. Powstały w rezultacie algorytm może być albo autonomicznym, ale sztucznie stworzonym systemem muzycznym, albo opartym na analizie twórczości kompozytora. Analizując tę ​​lub inną kompozycję, uzyskuje się pewien zestaw reguł kompozycyjnych, instrukcje dotyczące rozwoju tematycznego, barwy, faktury. I tu dochodzi do paradoksalnego przypadku, z jednej strony mamy maszynę zdolną do wytworzenia produktu mniej więcej zbliżonego do ludzkiego standardu, ale z drugiej strony noszącego piętno warsztatu kompozytora. To samo można powiedzieć o kompozytorach, którzy stworzyli własne programy algorytmiczne. W takich kompozycjach funkcje kompozytora i właściwy „proces komponowania” programu są wyraźnie rozdzielone.

Dziś maszyna nie jest jeszcze w stanie prześcignąć ludzkiej inteligencji i przekuć swój produkt w sztukę. Ten lub inny system nie jest w stanie samodzielnie generować myśli, uczuć. Przy jakimkolwiek stopniu doskonałości nigdy nie stanie się nie tylko „genialną”, ale i „utalentowaną” kompozytorką. Nawet idealna maszyna nie będzie w stanie uzyskać tej nieuchwytnej rzeczy, która zawsze rozróżnia przyrodę ożywioną od nieożywionej (aczkolwiek doprowadzonej do idealnego stopnia doskonałości). Stała się jednak dobrą pomocą w rękach mistrza, kompozytora, ratując go przed marnowaniem ogromnej ilości czasu na obliczenia technologiczne i konstrukcje, które w miarę rozszerzania się sfery wyrazowych środków muzycznych stają się coraz bardziej skomplikowane.

Tak więc dzisiaj dla muzyków komputer otwiera szerokie możliwości twórczego poszukiwania. W tak specyficznej działalności, jaką jest sztuka muzyczna, komputer jest nie tylko doskonałym pomocnikiem, ale w niektórych przypadkach doradcą i nauczycielem. Można wymienić tylko niektóre z możliwości komputera muzycznego: nagrywanie, edycja i drukowanie partytur; nagrywanie, edycja i dalsze wykonywanie partytur za pomocą komputerowych kart dźwiękowych lub zewnętrznych syntezatorów podłączonych przez interfejs MIDI; digitalizacja dźwięków, szumów o różnym charakterze oraz ich dalsza obróbka i transformacja za pomocą programów sekwencerowych; harmonizację i aranżację gotowej melodii z wykorzystaniem wybranych stylów muzycznych oraz możliwość ich edycji aż do wymyślenia własnych (stylów); komponowanie melodii w sposób losowy poprzez sekwencyjny wybór dźwięków muzycznych; kontrolować brzmienie instrumentów elektronicznych poprzez wprowadzenie określonych parametrów przed rozpoczęciem występu; nagrywanie partii instrumentów akustycznych i akompaniamentu głosowego w formacie cyfrowym z ich późniejszym przechowywaniem i przetwarzaniem w programach do edycji dźwięku; programowa synteza nowych dźwięków z wykorzystaniem algorytmów matematycznych; nagrywanie płyt audio CD.

Wszystkie te różnorodne możliwości komputera sprawiają, że można go wykorzystywać zarówno w dziedzinie edukacji muzycznej, jak iw dziedzinie twórczości zawodowej kompozytorów, realizatorów dźwięku i aranżerów.

Postanowiłem opublikować streszczenie przebiegu wykładów prowadzonych przez Andrieja Smirnowa w Centrum Theremin przy Konserwatorium pod hasłem „Muzyka i technologia”. Wiek XX rozpatrywany jest zarówno z punktu widzenia historii sztuki, jak iz punktu widzenia postępu technicznego. Wszystkie zajęcia podzielone są według tej samej zasady – koncepcji estetycznych oraz podstawowych informacji fizycznych i technicznych. Oprócz tego oczywiście przykłady muzyczne i praktyka posługiwania się instrumentami elektronicznymi i pokrewnymi oprogramowanie. Program jest bardzo obszerny i przewidziany jest na rok cotygodniowych zajęć. Przedstawiłem tylko główne punkty w bardzo zwięzłej, niemalże tezowej formie, ponieważ każdy temat zawiera ogromną ilość materiału, którego nie jestem w stanie usystematyzować. Mam nadzieję, że znaczna jego część pojawi się wkrótce na serwerze Theremin Center. Tymczasem proponuję zapoznać się z tym, co sam najbardziej zapamiętałem.

PSYCHOAKUSTYKA

Od razu zrobię rezerwację - ten temat nie ma nic wspólnego z eksperymentami z ultra/infradźwiękami, naciskiem na podświadomość i innymi ekstremalnymi eksperymentami - chodzi tylko o fizyczną budowę aparatu słuchowego i zasady jego interakcji z człowiekiem wyższy układ nerwowy. nie będę w najbardziej szczegółowy sposób rozwodzić się nad strukturą wszystkich trzech części ucha, chociaż jest to bardzo interesujące. Szczególnie procesy zachodzące w ślimaku - okazuje się, że na powierzchni błony znajdującej się w jego wnętrzu dźwięk ma postać fali stojącej, przez co występuje bezwładność słuchowa. Pamiętaj - jeśli słuchasz muzyki głośno, wydaje się, że głośność z czasem maleje. Jeśli wyłączysz głośną muzykę, zatrzymasz ją, a następnie włączysz ponownie, w pierwszych sekundach będzie ona bardziej uderzać w twoje uszy niż przed jej wyłączeniem. Okazuje się, że przewód słuchowy zewnętrzny jest rezonatorem dostrojonym do określonej częstotliwości - gdzieś w okolicach 2,5-3,5 kHz. Dlatego przy średnich częstotliwościach pojawiają się dźwięki, które swędzą - wchodzą w rezonans. Inna częstotliwość rezonansowa to 10 kHz. Czułość ucha ma oczywiście częstotliwość o charakterystyce logarytmicznej. Głośność też. Wzięli cechy, wybierając spośród 1000 18-letnich chłopców trzech z najlepszymi plotkami. Dlatego, aby regulacja głośności we wzmacniaczu była płynna, należy ją zmieniać wykładniczo. Nie wiedziałem tego! Za pomocą prostego generatora przebiegów sinusoidalnych, takiego jak ten w SoundForge, możesz sprawdzić swój słuch. Zadanie jest następujące: określić, z ilu okresów sygnału słuch jest w stanie rozpoznać wysokość dźwięku? Teoretycy mówią, że gdzieś w 5-7 okresach. Okazuje się jednak, że niektórym wystarczą 3 okresy. „Odgadłem melodię” z 5 tercji. Nawiasem mówiąc, wszystkie badania potwierdziły - pod względem fizjologicznym wszyscy ludzie mają równe szanse na aparaty słuchowe. O tym, który z nich ma najlepsze ucho do muzyki, decyduje poziom zdolności analitycznych mózgu.

DŹWIĘK PRZESTRZENNY

Lokalizacja źródeł dźwięku jest bardzo interesującą cechą ludzkiego słuchu, która daje człowiekowi znacznie więcej w zakresie orientacji w przestrzeni niż, powiedzmy, wzroku. Ogromną rolę odgrywa w tym budowa małżowiny usznej – mimo że jest różna dla wszystkich ludzi, to właśnie ona zapewnia dość dużą dokładność w określaniu lokalizacji źródeł. W płaszczyźnie poziomej najlepiej potrafimy naprawić źródło - błąd to tylko 2 stopnie z przodu, 7-8 z tyłu. A po bokach jest tak zwany stożek niepewności (sferyczny wycinek o kącie bryłowym 30 stopni), w którym błąd wzrasta do 10-12 stopni. W płaszczyźnie pionowej błąd jest średnio wyższy - 15-17 stopni. Oczywiście cechy te wskazują, że słuch działa w ścisłej interakcji z innymi zmysłami, a także podlega stereotypom (na przykład fałszywej zależności między wysokością dźwięku a lokalizacją jego źródła). Interesująca jest również zależność lokalizacji od częstotliwości dźwięku. Znając liniowe wymiary głowy (średnio 20 na 25 cm) i prędkość dźwięku (340 m/s) możemy obliczyć, że przy częstotliwości 2,5 kHz dźwięk dotrze do jednego ucha okres później niż do drugiego . A przy częstotliwości 1,2 kHz opóźnienie wyniesie pół okresu. W związku z tym wszystkie dźwięki o częstotliwości mniejszej niż 1,2 kHz będą lokalizowane przez przesunięcie fazowe w obrębie półcyklu. Dla częstotliwości od 1,2 do 2,5 kHz przesunięcie fazowe nie działa, ponieważ mózg nie rozumie - czy wyprzedzają fazę tego okresu, czy za poprzednią. Ale z drugiej strony dla nich (podobnie jak dla innych wysokich częstotliwości) działa lokalizacja częstotliwości - dla nich przeszkodą jest głowa (tzw. cień akustyczny), czyli zachodzi zjawisko dyfrakcji, w wyniku którego słyszymy zarówno falę bezpośrednią, jak i odbitą i porównując ich intensywność określamy lokalizację źródła. A niskie częstotliwości, których długość fali jest większa niż odległość między uszami (tj. Mniejsza niż 150 Hz), w ogóle nie są zlokalizowane (dlatego emiter niskiej częstotliwości, tak zwany subwoofer, jest tylko jeden i jest zlokalizowana w dowolnym miejscu). Dobrze znany system Dolby Surround jest zbudowany z uwzględnieniem tych schematów - dwa promienniki z przodu, wysokotonowe z tyłu oraz subwoofer. Stosunkowo nowy system I-Max stosowany jest w niektórych kinach, w których pierścień z przymocowanymi do niego głośnikami zakładany jest na głowę widza w pewnej ustalonej odległości od uszu, co nie daje mu możliwości zmiany dźwięku panoramę, obracając głowę, podczas gdy film wyświetlany jest na ultraszerokim (prawie półokrągłym) ekranie. Centrum Theremin ma Maca z oktofoniczną kartą dźwiękową i 8-kanałowym DAT, ale głośniki nie zostały jeszcze zmontowane, więc egzemplarze okto- i kwadrofoniczne trzeba odsłuchać w normalnych warunkach.

ANALOGOWA SYNTEZA I SPEKTRA

Historia syntezatorów analogowych sięga czasów pojawienia się urządzeń elektrycznych. Na początku były instrumenty mechaniczne, w szczególności pianola, która była bardzo popularna wśród futurystów (fortepian mechaniczny, prototyp sekwencera - dane zapisywane były na szeroko dziurkowanej taśmie, którą też nam pokazywano) . Niezapomniane dzieła futurystów - "Serenata" i "Choral" Russolo, a także duży zestaw jego "intonarumori" - oddzielnie szumowe instrumenty membranowe - to klasyka muzyki elektroakustycznej. Wyróżnia się pierwszy oficjalnie uznany instrument elektroniczny, theremin autorstwa Leva Theremina, jedyny, który łączy elektroniczne brzmienie i gra na żywo. Dziwaczne instrumenty o jeszcze dziwniejszych nazwach pojawiały się jeden po drugim. Na przykład mel lotron (instrument klawiszowy, którego każdy klawisz odpowiadał zapętlonemu filmowi z nagraniem jakiegoś pięknego dźwięku - chóru lub tutti skrzypiec). Obecność silnika ze skrzynią biegów umożliwiła zmianę prędkości napędu taśmowego, co dało efekt podobny do zasady działania samplera (nawiasem mówiąc, nasi ludzie oferowali podobną technologię jeszcze przed nabyciem magnetofonu w 1935 r. - na kliszy. Jak zawsze zostało to zignorowane, a zatem patent otrzymany przez Amerykanów). Zainteresowanie syntezatorami mowy, voderem i vocoderem, sięga tego samego okresu.Pierwszy model wokodera, zmontowany przez Bowda w 1935 roku, składał się z klawiatury, za pomocą której lewą ręką wydobywano samogłoski (widmo niskich częstotliwości), oraz syczących spółgłosek (wysoka częstotliwość) prawą ręką. Do artykułowania spółgłosek dźwięcznych wpisz v, w, h był pedał, który sterował „mikserem” generatora tonów i szumów. Spółgłoski bezdźwięczne wpisz p, k, t wyrażane były pauzami, kontrolowanymi pierścieniem na palcu wskazującym. Okazuje się, że ludzka mowa (NIE głos!) bardzo łatwo poddaje się syntezie. Max Matthews, korzystając ze swojego programu MUSIC II (1957), nagrał piosenkę z syntetyzowanym wokalem, którą następnie kupiło MGM do jakiegoś filmu, w którym śpiewał ją robot. Również całkowicie elementarnym, podręcznikowym przykładem syntezy komputerowej jest dźwięk śpiewu ptaków. Trutonium to pierwszy instrument polifoniczny wynaleziony w USA w 1928 roku. Oprócz klawiatury Trutonium posiadało również gryf, który umożliwiał wykonywanie glissando w dużym zakresie. Było też wiele barw, które wraz z pojawieniem się tranzystora w 1937 roku, późniejsze modele (te ostatnie pochodzą z lat 70.) były już tworzone przy użyciu syntezy analogowej. Nawiasem mówiąc, Robert Moog wcale nie był wynalazcą syntezatora analogowego, jak niektórzy błędnie sądzą - był Donaldem Buckla. Moog był po prostu pierwszym, który skomercjalizował je i zaoferował jako instrumenty rockowo-popowe.

Jak wiesz, synteza analogowa jest podzielona na dwa duże obszary. Pierwszy rodzaj syntezy analogowej jest addytywny, to znaczy polega na kolejnym nakładaniu się na siebie najprostszych sinusoid, czyli harmonicznych w paśmie widmowym. Bardzo trudna, żmudna metoda, która oprócz ogromnej cierpliwości wymaga również dużo czasu i środków. Utwór Jean-Claude'a Risseta "Suite for a little boy" (nie mogę ręczyć za pierwsze słowo w tytule, ale mały chłopiec to nazwa bomby atomowej zrzuconej na Nagasaki) był nagrywany przez około rok ze względu na niską szybkość obliczeń komputerowych, które posłużyły do ​​modelowania dźwięku metodą syntezy addytywnej. Bardzo zabawny trzyczęściowy kawałek, przypominający trochę Hafler Trio z wstawkami rytmicznymi a la Kraftwerk. To właśnie z widmami wiąże się większość zjawisk akustycznych, w szczególności fakt, że gdy dodamy do siebie dwie sinusoidy o częstotliwościach, które mają najmniejszą wspólną wielokrotność, powstają nieistniejące dźwięki, które są słyszalne w oddalonych od siebie punktach przestrzeni o odpowiadającą mu wartość. Ciekawy jest też efekt nieskończonego narastania tonu przy okresowym powtarzaniu glis sando (jako przykład podano zupełnie nieludzki utwór Jamesa Tenneya, wykorzystujący pierwszy program komputerowy do syntezy dźwięku, stworzony przez Maxa Matthewsa pod koniec lat 50.). Nawiasem mówiąc, byłem zaskoczony, gdy dowiedziałem się, że pierwszy syntezator jest zasadniczo organem - wykorzystuje syntezę addytywną do generowania dźwięku o różnych barwach. Druga metoda syntezy jest subtraktywna. Jak sama nazwa wskazuje, jest z natury przeciwieństwem addytywnego i polega na tym, że wszystko, co zbędne jest po prostu wycinane (filtrowane) z szerokopasmowego białego szumu, dzięki czemu można natychmiast uzyskać pożądane widmo. Przy okazji ważna uwaga – okazuje się, że o barwie dźwięku nie decyduje wcale kształt fali, jak mi się wcześniej wydawało, a kształt widma. Dlatego synteza subtraktywna od razu zyskała pozycję lidera w pierwszych modelach syntezatorów analogowych i utrzymała ją do czasu wynalezienia przez Johna Chowninga syntezy z modulacją częstotliwości (synteza FM), która polega na zmianie częstotliwości sygnału dźwiękowego w wyniku jednoczesnego wybrzmiewania dwóch lub więcej generatorów sygnału o różne częstotliwości ułożone w określony sposób.

CYFROWA SYNTEZA

Za początek ery syntezy cyfrowej tradycyjnie uważa się początek lat 80. O czym to było? Trzy powody, dla których technologia analogowa była niewygodna: po pierwsze głośność i niekonstrukcyjność (syntezator Mooga był wielkości szafki i miał kilka oscylatorów i filtrów. Jeśli trzeba było przeprowadzić dalszą obróbkę otrzymanego dźwięku, trzeba było kupić inny drogi moduł). Drugi to niedogodności w obsłudze. Każdy dźwięk był przedstawiany jako ogromny system połączeń między gniazdami, którego złożenie wymagało wiele czasu i nerwów. A trzecia to niestabilność sprzętu elektrycznego, głównie temperatury. Dzięki temu dźwięki zmieniły się w coś bardzo odbiegającego od oryginału. Zaproponowane przez twórców rozwiązanie - podgrzanie całego układu do 50-80 stopni, doprowadziło do szybkiego zużycia części, ale zostało przyjęte do eksploatacji jako jedyne możliwe. Pierwszy syntezator cyfrowy został zaprojektowany przez dwóch amerykańskich techników(programista i inżynier - nie pamiętam nazwisk) i kompozytor John Appleton. Nazywał się Synclavier i został wprowadzony do obiegu w 1981 roku. Nawiasem mówiąc, John Appleton jest raczej tajemniczą osobą. Nikt nie brał go za poważnego kompozytora elektroakustycznego, bo. jego muzyka zawsze balansowała na granicy atonalnej, hałaśliwej i sugestywnie wzruszającej, melodyjnej kompozycji. Nie przeszkodziło mu to jednak zasiadać w jury najbardziej wpływowego konkursu muzyki elektroakustycznej w Bourges (jako pionier we wdrażaniu systemów syntezy cyfrowej). Mamy oczywiście podobny przypadek - Eduard Artemiev. W krótkim czasie Synclavier miał konkurenta - Fairlight. Oba instrumenty były zasadniczo samplerami cyfrowymi (Synclavier 100%, Fairlight 50%). W ten sam sposób, w jaki kupiono od Mooga nazwisko (Moog nie mógł pod nim publikować swoich osiągnięć), Hollywood kupił Synclavier i firmę, która go wyprodukowała (wszystkie ścieżki dźwiękowe do amerykańskich filmów z orkiestrą w napisach końcowych zostały faktycznie wykonane na Synclavier ). Ze względu na swoje niewielkie rozmiary i wygodną obsługę odniosły duży sukces i są produkowane do dziś (oczywiście już bardziej jako relikt). W syntezie komputerowej prym zawsze prowadził Macintosh, który został specjalnie zaprojektowany do pracy z dźwiękiem i grafiką, w przeciwieństwie do PC. Później opatentowano jego rozszerzenie - system STEP, który mimo bankructwa projektu w 1993 roku jest nadal używany w centrach komputerowych IRCAM i CCRMA. Atari 1040 stanowił niewielką konkurencję cenową dla komputerów Mac, ale rynek oprogramowania dla tego systemu był bliski zeru. Tak samo było z Amigą, chociaż Amiga wciąż jest w fazie rozwoju i są fani tego komputera. Jako ilustrację pierwszych doświadczeń z muzyką synchroniczną posłuchaliśmy kilku utworów Appletona (bardzo podobał mi się „Brush Cany on”, choć szczerze mówiąc sentymentalny nastrój utrudniał skupienie się na barwie dźwięku). I jeszcze parę rzeczy - duety żywych instrumentów i ich synchroniczne kopie. Wszyscy starali się ze słuchu określić, ile instrumentów grało jednocześnie.

MUZYKA ALGORYTMICZNA

Rozpoczynając rozmowę o muzyce algorytmicznej, należy zauważyć, że idea ta jest stara jak świat – już w 1206 roku Guido Marzano zaproponował, aby każdej samogłosce przeciwstawić określoną wysokość i w ten sposób tworzyć muzykę. Mozart wpadł na pomysł wykorzystania kostka do gry zautomatyzować pisanie menuetów: każda kombinacja kości odpowiadała numerowi na liście typowych taktów menueta, których kompozytor naliczył około 10 tysięcy! Menuet o długości 50 batonów - 50 rzutów kostką. To samo zaproponowano później, aby zrobić z walcami. Pierwsze poważne próby zajęcia się muzyką algorytmiczną sięgają oczywiście czasów pojawienia się komputerów, których moc wystarczała do przetwarzania najprostszych algorytmów. Na Uniwersytecie Illinois taki komputer pojawił się w 1953 roku, miał niesamowicie dużą ilość pamięci i - 1 kilobajt (szafy pamięci zajmowały całe pomieszczenie). Jednocześnie trzeba zrozumieć, że komputer nie tworzył niczego, co przypominałoby muzykę – były to po prostu kolumny liczb, które kompozytor musiał przerobić na partyturę, a dopiero potem przekazać muzykowi. Oczywiście takie podejście interesowało przede wszystkim kompozytorów stosujących techniki seryjne, więc przez jakiś czas muzyka serialna i algorytmiczna szły ręka w rękę. Serie można by tworzyć z tonacji, barw, czasów trwania itp. Cóż może być prostszego niż napisanie programu, który wytwarza dźwięki nie powtarzające się (powtórzenia w serii są zabronione, podobnie jak współbrzmienia interwałowe - tercje, kwinty). Za twórców muzyki algorytmicznej uważa się kilku kompozytorów, z których najbardziej znani to oczywiście Pierre Boulez i Janis Xenakis. Wielu z nich pisało własne programy, ale tylko pod konkretny utwór i korzystało z nich, jak również z instrumentów. Wyróżnia się tylko Xenakis, którego SMP (stochastyczny program muzyczny) był używany przez innych muzyków. Mówiono, że na koncercie w Moskwie Xenakis wymachiwał swoim Talmudem formułami na znak powitania, z którym nigdy się nie rozstawał, bojąc się, że ktoś go zawładnie i stworzy coś ważniejszego niż on sam… W muzyce algorytmicznej jako punkt startowy, często stosuje się fluktuację pewnej wartości w pewnym przedziale zgodnie z prawem losowym. Teraz, gdy technologia szeregowa nie jest już modna, algorytmy są wykorzystywane na przykład do syntezy granularnej. Oznacza to, że te same dźwięki o mikroskopijnym czasie trwania, następujące po sobie z dużą częstotliwością (zwane granulkami), są w stanie uformować nową barwę. Liczba granulek wynosi od 100 do 2500 na sekundę. Jako przykład możemy polecić kompozycje Barry'ego Truaxa "Wave Edge" i "River Run", których konceptem jest spojrzenie na otaczający świat oczami ziarnka piasku na dnie rzeki. Zostały one nagrane w 1986 roku i są zbliżone strukturą do industrialnej muzyki trzeciej fali – Cranioclast, Illusion Of Safety itp. Paul Lansky (jeden z pionierów muzyki algorytmicznej, ostatnio pisze coś w rodzaju alternatywnej muzyki pop) zrealizowany algorytm przekształcania mowy angielskiej i chińskiej. Oznacza to, że program generował dźwięk, kontrolowany przez intonację głosu i artykulację mowy.

W Theremin Center jest ciekawy film na temat muzyki algorytmicznej, a dokładniej na temat tej części jej ewolucji, która nazywa się syntezą fraktalną. W naszym kraju jakoś utarło się przekonanie, że wizualna jest realistyczna, a muzyczna abstrakcyjna, więc algorytmy fraktalne w muzyce, które do niedawna bardzo lubili wielu, nie są wyraźnie śledzone w samym dźwięku. Cóż, niech Bóg go błogosławi Grafika komputerowa również zabawny widok. Wynalazcami geometrii fraktalnej są Benoit Mandelbrot (nie mylić z niemiecką grupą o tej samej nazwie ze środowiska Ars Moriendi!) oraz Lorenz, który zaproponował dwie różne sposoby wyjaśnić naturę fraktali. Na wszelki wypadek wyjaśnię, że fraktal (od „ułamek” – część) jest strukturą rekurencyjną, której każda część zawiera informacje o forma ogólna. Mandelbrot zaproponował rozważenie dowolnej formacji naturalnej (chmur, gór, roślin), której nie można opisać w klasycznej teorii geometrii w ramach geometrii fraktalnej. W wywiadzie wziął główkę kalafiora, odłamał z niej kawałek i powiedział, że wygląda jak główka kapusty, zredukowana forma e. Potem zrobił to samo z fragmentem i tak dalej. Powierzchnia gór, bez względu na to, jak powiększymy obraz, zawsze będzie miała podobną nierówną powierzchnię ze szczytami i dolinami. Klasycznym tego przykładem jest próba zmierzenia długości linii brzegowej Wielkiej Brytanii. Wraz ze zmniejszaniem się długości wzorca użytego do pomiaru okazuje się, że długość stale rośnie, tworząc szereg niezbieżny! Lorentz, słynny matematyk, zaproponował rozważenie zwykłego wahadła jako fizycznego modelu fraktala, ale nie w zwykłym polu grawitacyjnym, ale w polu trzech magnesów równo oddalonych od jego punktu mocowania. Okazało się, że na pierwszy rzut oka przypadkowe wyhamowanie wahadła w pobliżu jednego z magnesów w rzeczywistości zależy od początkowego położenia wahadła. Kiedy za pomocą komputera udało się eksperymentalnie znaleźć tę zależność, okazało się, że pole (funkcja dwuwymiarowa) pomalowane trzema kolorami odpowiadającymi magnesom jest fraktalem oszałamiającej urody! Dlaczego ostatnio zapomniano o syntezie fraktali, nie rozumiem. Najwyraźniej, jak wszystko inne, musi zostać na nowo odkryta przez kompozytorów przyszłości!

KONCEPTALIŚCI

Każdy z tych kompozytorów jest wyjątkowy sam w sobie, nie tylko jako osoba twórcza, ale także jako wynalazca własnego kierunku poszukiwań w muzyce, tak mocno związanego z jego doświadczeniem życiowym i światopoglądem, że rozważanie go poza biografią wydaje się zupełnie pozbawione sensu. konkretnej osoby.

Alwyna Luciera - amerykański kompozytor Z Francuskie nazwisko, jeden z najwybitniejszych innowatorów muzyki elektroakustycznej, który ściśle współpracował z Martinem Tetro i innymi kompozytorami związanymi z awangardowym polem jazzowym. Wiele jego utworów zostało wznowionych na płytach CD przez Les Ambiances Magnetiques i Lovely Music. Najciekawszy w swojej koncepcji i realizacji jest oczywiście rzecz o nazwie „Siedzę w pokoju”, polegająca na wielokrotnym nagraniu jednej pojedynczej frazy. W jednym pokoju zainstalowano mikrofon, a w drugim magnetofon. Najpierw Lucier nagrał swój głos , potem zamiast tego odtworzył nagranie i tak dalej, około 40 razy. Fraza brzmiała mniej więcej tak: „Siedzę w pokoju innym niż ten, w którym teraz jesteś i nagrywam dźwięki mojej mowy. Potem odtwarzam je i nagrywam ponownie, i będę to robić, dopóki częstotliwości rezonansowe samego pomieszczenia całkowicie nie zniszczą brzmienia mojego głosu. Nie robię tego, aby zilustrować dobrze znany fakt fizyczny, jestem tam tylko po to, aby posłuchać tych bardzo rezonansowych częstotliwości." I rzeczywiście, dźwięk został zniekształcony i przekształcony, aż stał się płynnie wibrujący, stłumiony, ale ostry buczenie wyartykułowane rytmem głosu, prawie jak Tajemne Urządzenie!

Jan Kuzyn Kompozytor z Nowej Zelandii. Ogólnie rzecz biorąc, należy zauważyć, że ta część świata, najmniej opanowana przez cywilizację, jest jednak bardzo bogata w utalentowanych kompozytorów elektroakustycznych, o których niewiele wiadomo w Rosji, a nawet w Europie. Australia i Nowa Zelandia budują między sobą relacje w podobny sposób jak Rosja i Ukraina, czyli konkurują ze sobą we wszystkim! John Cousins ​​nie jest programistą, nie jest inżynierem i przez długi czas uczył muzyki w zwykłym konserwatorium na Uniwersytecie w Wellington. Ale w ciągu ostatnich 15 lat całkowicie porzucił tradycyjne metody i woli nie uczyć studentów kompozycji, ale próbować dostrzec, utrwalić, utrwalić i rozwinąć indywidualne postrzeganie muzyki w każdym z nich. Studenci pierwszych dwóch lat (którzy wychodzą prosto z liceum, a nie studiów) są zdani na siebie, w tym czasie staje się jasne, kto ile jest wart i jak powinien być traktowany w przyszłości. Osobiste doświadczenie muzyczne Cousinsa jest bardzo specyficzne - nie wywodzi się z teorii, umiejętności i trendów, ale z własnych odczuć wynikających z obcowania z naturą. Na przykład przyjeżdża na bezludne wybrzeże oceanu i mieszka tam przez dwa miesiące, nie rozstając się z magnetofonem. Nawet chodzenie za własnym cieniem może przynieść niezwykłe doznania – na przykład indywidualizacja napotkanego na drodze cienia kamienia, czyli ustawienie go w nienaturalnej pozycji pionowej. Generalnie sama zasada dziewictwa przyrody, która z każdym nowym przypływem/przypływem zmienia krajobraz nie do poznania, przybliża nas do realizacji naszej przynależności/celu. John przeciągnął kamienie z miejsca, gdzie ocean je niósł do innego i słuchał - jak świat zareagował na jego wtargnięcie. Oczywiście takie eksperymenty wymagają pełnej koncentracji na Twoim wewnętrzny świat. Zwieńczeniem eksperymentów Kuzynów była budowa tzw. harfy eolskie, czyli konstrukcje ze stałą struną i rezonatorem. Ustawiona na brzegu oceanu harfa eolska pod wpływem wiatru zaczyna brzmieć - niesamowity śpiew. Kuzyni zbudowali około 50 takich harf, w których wysokość (naciąg strun) regulowano ciężarkami. A w największej harfie, oprócz polifonicznej (15 metrów wysokości), powiesił się jak ładunek! Prawdziwie mistyczny obraz - czyste niebo, jasne słońce, opustoszałe wybrzeże, zespół harf eolskich i związanego człowieka, kołyszącego się na wietrze do niekończącego się śpiewu wiatru!

Paweł Dolden- mieszkający w Kanadzie, ale nieposiadający obywatelstwa kompozytor, swego czasu był ulubieńcem międzynarodowych konkursów w Bourges. W szczególności jego kompozycja „Under The Walls Of Jericho” zdobyła pierwsze miejsce w 1990 roku. Z pozoru najgłośniejszy w elektroakustyce, jednak trudno to z nim utożsamić, gdyż jedynym rodzajem manipulacji dźwiękiem jest transponowanie brzmienia instrumentów dętych, których jest około 300 - zebranych z całego świata, brzmią one jednocześnie na 330 kanały (pozostałe 30 przypada na perkusję) o temperamencie 48 kroków na oktawę. Prawie akustyczna muzyka, ale z niesamowicie silnym uderzeniem. Zmuszanie, napięcie, udręka w każdej chwili!

ROLA ROSJI W HISTORII MUZYKI ELEKTRONICZNEJ

W 1995 roku powstał film o pierwszych Rosjanach eksperymentujących z dźwiękiem elektronicznym, zebrany z nagrań archiwalnych. Czytałem już o jednym z nich, Arseniju Awramowie. Ale przede wszystkim uderzyło mnie to, że okazuje się, że ojczyzną samplera jest też Rosja! Okazuje się, że niejaki Jankowski na początku lat 30. (jeszcze przed pojawieniem się zapisu magnetycznego w 35 r.) z powodzeniem zastosował graficzną reprezentację dźwięku (w szczególności muzyki orkiestrowej) do rozkładu na harmoniczne za pomocą transformaty Fouriera, a następnie zsyntetyzował go w dowolne częstotliwości dźwięku. Awramow osobiście zwrócił się do Łunaczarskiego z propozycją zniszczenia lub przerobienia wszystkich instrumentów klawiszowych z jednakowym temperamentem, ponieważ jego zdaniem wypaczają one właściwy obraz odbioru muzyki. Na przykład Chopina należało wykonać zupełnie inaczej, a nie tak, jak sugerowały jego zapiski – w jego czasach po prostu nie było to technicznie wykonalne. Oczywiście odmówiono mu, ale nie odmówił swoich eksperymentów. Chwyciłem pomysły i narzędzia w naręcze i pojechałem do Szwajcarii na staż międzynarodowy Festiwal Muzyczny gdzie zajął pierwsze miejsce! Gwałtowny rozwój idei muzycznych w Rosji Sowieckiej odbywał się na fali entuzjazmu dla konstruktywizmu, a nawet miał pewne wsparcie ze strony państwa. W szczególności powstał HYMN (Państwowy Instytut Nauk Muzycznych), z którym związane są nazwiska wielu rosyjskich badaczy dźwięku elektronicznego. W połowie XX wieku pojawiło się wiele opracowań, ale z oczywistych względów historycznych nie dano im ruchu, więc większość z nich pozostała na papierze. Najbliżej rozpoznania były ekwodiny Wołodina (dwugłosowy syntezator analogowy, który pojawił się pod koniec lat 30.). Volodin nie był muzykiem i przy tworzeniu swoich instrumentów korzystał z rad znajomych. W ogóle realizował zupełnie inny cel niż tworzenie muzyki, a mianowicie analizę poprzez syntezę. To znaczy, zajmując się psychoakustyką, potrzebował materiału źródłowego do eksperymentów - różnych dźwięków, na których można było badać cechy ludzkiej percepcji. Volodin pracował w skrzynce pocztowej (chyba nazywała się TsNIIARTI - automatyzacja dla przemysłu obronnego). Okazuje się, że wszystkie wynalazki w muzyce elektronicznej, których odsetek jest bardzo wysoki w porównaniu z innymi krajami, pojawiły się w Rosji jako produkt uboczny badań wojskowych. I w rezultacie – żaden z wynalazków nie mógł czekać na wykorzystanie zgodnie z jego przeznaczeniem – twórcy po prostu nie mieli dość zdrowia, aby doprowadzić go do tego etapu (jedynym wyjątkiem był ANS – wielu kompozytorów studiowało i nagrywało utwory na to powstało studio muzyki elektronicznej w Muzeum Skriabina - obiecują nas tam zabrać). A więc - okazuje się, że nasze cierpienie z Wami z magazynem to nie tylko pech czy niesprawiedliwość, ale echo starej, dobrej tradycji. Volodin zmarł w laboratorium w 1982 roku. Jego dziewiąty Aquodyne prawie wszedł do produkcji - to był prawie sukces! Legendarny syntezator ANS, zbudowany przez Jewgienija Murzina pod koniec lat 50. i nazwany na cześć inicjałów Skriabina, a także studio muzyki elektronicznej w Muzeum Skriabina zawsze cieszyły się dużym zainteresowaniem kompozytorów różnych pokoleń. Istniejące w jednym egzemplarzu, to wyjątkowe urządzenie zostało specjalnie zmontowane na międzynarodową wystawę we Włoszech (przeznaczono na to wymaganą kwotę pieniędzy), a po triumfie władz po prostu o nim zapomnieli. W 1982 roku firma fonograficzna Melodiya, jako największy ze współzałożycieli studia, zgłosiła roszczenie do ANS i umieściła je na kilka lat w zawilgoconej piwnicy, w wyniku czego popadło w opłakany stan. Obecnie częściowo odrestaurowany (niektóre barwy bezpowrotnie zaginęły) i znajduje się na Wydziale Dziennikarstwa Moskiewskiego Uniwersytetu Państwowego. W ANS jako barwę stosowano płyty (bardzo podobne do płyt CD) z koncentrycznymi ścieżkami wypełnionymi ryzykiem (coś koło 140 kółek, jedna płyta na dwie oktawy, czyli o temperamencie 1/12 tonu!!). szkło pokryte czarnym mastyksem, dowolnie w układzie współrzędnych częstotliwość-czas. Robert Moog, który odwiedził Centrum Theremin, był bardzo zainspirowany ANS i przyglądał mu się przez długi czas. Wszyscy znani artyści awangardowi tamtych czasów próbowali pracować w ANS - Schnittke, Denisov, Gubaidulina... Słuchaliśmy sztuki Schnittkego "Flow" - bardzo ciekawej, głębokiej ambient-noisowej muzyki, która jakoś przypominała mi Maeror Tri. Nawiasem mówiąc, po nagraniu jednej rzeczy dla ANS wielu odmówiło elektroniki. W szczególności Schnittke motywował to faktem, że w instrumentach akustycznych interwał jest ścieżką, aw instrumentach elektronicznych odległością. Jednak Schnittke później, jak wiadomo, napisał dużo muzyki elektronicznej do filmów, ale nigdy nie traktował tego poważnie.

TECHNOLOGIA MUZYCZNA

Oczywiście można długo argumentować, że przy nadmiernym entuzjazmie dla teorii syntezy dźwięku zaciera się granica między sztuką a nauką. Przeciwnicy podejścia naukowego tłumaczą swoje stanowisko niezgodą na naśladownictwo podejścia twórczego za pomocą niespotykanych dotąd, a więc początkowo niezrozumiałych metod naukowych. Oczywiście tylko nielicznym udaje się zakwalifikować swoją działalność jako sztukę, cała reszta to asystenci laboratoryjni. Ta pozycja w dużej mierze odzwierciedla problem konfrontacji w mojej duszy dwóch bytów: jako słuchacza najważniejszy jest dla mnie impuls twórczy, który może rozwinąć percepcję estetyczną i sprawić, że doznaję podniecenia, uczucia, ekstazy itp. Ale jako dziennikarz muzyczny muszę znać historię, konceptologię i teorię technologii elektronicznej w zastosowaniu do muzyki, aby przynajmniej uniknąć amatorstwa i haniebnych błędów w publikacjach. A w pierwszym i drugim przypadku trzeba iść na datki. Dla słuchacza kuchnia muzyczna – obojętnie z czego się składa, od zapisu nutowego i wyczerpujących prób, czy od wzory fizyczne, sinusoidy i splot drutów - to zejście z nieba na ziemię, odkrycie tajemnicy tworzenia arcydzieła. Jednocześnie nie każdy dziennikarz może zmusić się do słuchania tej samej frazy przez 45 minut lub słuchania monotonnego szumu przez 12 minut.

Zbliżenie nauki i sztuki tylko na pierwszy rzut oka wydaje się luką w przeciętności. To właśnie genialna intuicja naukowca-fizyka pozwoliła Jean-Claude Rissetowi uzyskać cudowną i złożoną barwę, którą nazwał „elektronicznymi chmurami cirrus”. Gdyby był tylko kompozytorem, zajęłoby mu to lata ślepych poszukiwań i pustych kalkulacji. Pomimo tego, że możemy być zdumieni dziełem stworzonym dzięki niewiarygodnym wysiłkom w latach 50., nadal uwzględniamy warunki pracy. Ale co roku rosną wymagania jakościowe. Mam na myśli nie tylko jakość dźwięku, ale także jakość wszystkiego innego. Przeciętnemu muzykowi coraz trudniej zrobić coś wartościowego przy „minimum środków”. Im wyższy poziom rozwoju technologii, tym łatwiej dostrzec przeciętność. I tym bardziej staje się - być może rozwiązanie tego paradoksu nie zostało jeszcze rozwiązane.

Inny druga strona komplikacją technologii jest wzrost stopnia abstrakcji muzyki elektronicznej, który komplikuje i rozgałęzia procesy percepcji. Ci, których przede wszystkim interesuje to, co muzyk myślał podczas swojej pracy, co nim kierowało, co go inspirowało, powinni zauważyć, że kompozytora i słuchacza nie zawsze można uważać za dwa równe i kompatybilne ogniwa jednej sieci komunikacyjnej. Jeśli przeanalizujemy akt ich interakcji z punktu widzenia psychologii formalnej (czyli po prostu nie zapominajmy, że są to przede wszystkim ludzie, a potem wszystko inne), to okazuje się, że złożoność, o której mówimy, jest przede wszystkim z powodu rozbieżności między nimi osobiste doświadczenie. Oznacza to, że jeśli doświadczenie muzyka pochłania jakąś część twojego osobistego doświadczenia, masz tendencję do ufania mu. Jeśli jest odwrotnie, może lepiej nie znać jego motywów. W końcu oprócz czynnika ludzkiego, w proces twórczy ważna jest rola nieświadomości, jakiejś siły wyższej (która, moim zdaniem, jest również podatna na badania, ale o wiele trudniejsza). Być może jest to bardzo prymitywne wyjaśnienie, ale zostało przeze mnie wielokrotnie zweryfikowane i daje podstawy do wyciągnięcia kilku wniosków na temat mechanizmów percepcji i przewidywalności reakcji. Po pierwsze, mistyfikacja w muzyce jest bardzo ważna. Nic nie jest w stanie bardziej wzbudzić zainteresowania słuchacza niż gruba zasłona tajemnicy. I to jest całkiem naturalne – na sukces muzyków składa się tu wszystko: wrodzona ciekawość, potrzeba niecodziennych doznań, a wokół tego wszystkiego mnóstwo plotek itp. Zdarzyło mi się sto razy, że tak długo chciałem usłyszeć jakiś album i poświęciłem tyle czasu i wysiłku na jego poszukiwanie i zgadywanie, że kiedy w końcu do mnie dotrze, to już mi się podoba z góry. A rozczarowanie, nawet jeśli jest nieuniknione, to i tak nic w porównaniu z radością ze spełnienia marzeń. A przykład odwrotny - ile istnieje albumów nagranych z niebywałym poświęceniem i pod wrażeniem świetnych pomysłów i dzieł, zawierających kilka lat pracy, domagających się uznania ze strony autora w bardzo poważnym podejściu do pracy, ale... zero odzewu w serce słuchacza nie dostało. Po drugie, jakie jest znaczenie kreatywności? Uważam, że akt twórczy można uznać za dokonany, jeśli jest w stanie obudzić w duszy ludzi, do których jest adresowany, bodziec do własnej twórczości. Nieważne jakiego rodzaju - muzyka, plastyka, wreszcie sama refleksja i komunikacja - jednym słowem chęć życia i doskonalenia się. Należy przy tym zauważyć, że ani na temat twórczości, ani na obszary, z którymi się ona wiąże, nie stawia się żadnych konkretnych wymagań. Wszystko powyższe zostało powiedziane przeze mnie wyłącznie z punktu widzenia słuchacza. Dziennikarstwo to zupełnie inna sprawa. Dziennikarstwo muzyczne jest postrzegane przez wielu (i niestety często zasłużenie) jako środek propagandy. Bardzo staram się w swojej dziennikarskiej dziedzinie dawać wiodącą rolę intuicji słuchacza, dlatego też moje materiały konstruowane są w taki sposób, aby skłonić człowieka do zastanowienia się nad stosowanymi obszarami twórczości, z wykorzystaniem muzyki jako elementu kluczowego. Poznaj strukturę świata własnymi uszami.

Dmitrij Wasiliew



Podobne artykuły