di Giovanni Mori
La serata del 2 dicembre si preannunciava molto interessante già a partire dalla location, la Palazzina Reale di Santa Maria Novella a Firenze. Questa costruzione fu realizzata negli anni ’30 per accogliere il Re d’Italia durante la sua permanenza nella città del Giglio. Il concerto si è svolto nella suggestiva Sala dei Ricevimenti, posta al centro della costruzione e decorata con mosaici e arazzi, che rendevano l’atmosfera del concerto molto solenne. Anche il programma della serata non era da meno. Nella calda sala l’oboista inglese Christopher Redgate ha suonato per il pubblico fiorentino quattro brani: uno per oboe solo, la Sequenza VII di Luciano Berio, e gli altri per oboe ed elettronica ovvero oboe_prosthesis di Michael Young, Zamyatin di Ollie Bown e On Junitaki Falls di Craig Vear. Redgate, durante il concerto, ha utilizzato l’oboe da lui sviluppato, in collaborazione con la Royal Academy of Music e il costruttore Hogwart. Questa particolare versione gode di aumentate capacità espressive e si presta allo sviluppo di nuove tecniche esecutive. In particolare, come sottolinea lo stesso musicista nel sito dedicato, questo “21st Century Oboe” è capace di riprodurre quarti di tono, di raggiungere frequenze più acute e ha alcune chiavi riposizionate per facilitare l’esecuzione di rapide successioni di note e adattandosi meglio al repertorio della musica contemporanea.
La performance di apertura del concerto è stata la Sequenza VII di Luciano Berio che, come detto sopra, era anche l’unico pezzo per oboe solo. Redgate ha mostrato tutto il suo virtuosismo esecutivo e anche dimostrato che questa nuova versione dello strumento da lui sviluppato non ha niente da invidiare agli strumenti “normali”. A parte qualche incertezza sui frullati, che non sempre sono usciti udibili e nitidi, gli armonici hanno risuonato con grande chiarezza e si notava la facilità esecutiva a cui ha probabilmente contribuito il riposizionamento più razionale delle chiavi.
Il secondo brano eseguito è stato Oboe_prosthesis di Michael Young (2008). Questa opera è una delle possibili versioni previste dal compositore, perché il sistema chiamato _prosthesis può in realtà interagire con numerosi strumenti. In sintesi, Young ha sviluppato un software che si relaziona con il musicista per mezzo della registrazione e processamento del suono emesso dallo strumento, che viene successivamente catalogato in una libreria apposita. Da qui poi il software pesca autonomamente dei pattern che vengono rielaborati in maniera stocastica e convertiti in suono. Durante la performance fiorentina, Redgate ha iniziato suonando figure musicali molto lente e staccate, incrementando via via l’intensità sonora. Il software ha iniziato a seguirlo soltanto dopo circa un minuto dall’inizio, riproducendo una cascata di suoni cristallini, simili a quello ottenuto dallo scuotimento di campane tubolari. Qui e là nella cascata si potevano ascoltare note con un timbro simile a un pianoforte distorto. Il musicista ha successivamente iniziato a intrecciare la trama sonora emessa dal software eseguendo elaborati glissando, ai quali il programma sembrava rispondere aumentando la complessità e l’intensità del proprio intervento. Quindi l’esecuzione ha visto il susseguirsi di momenti di distensione, più riflessivi e rarefatti, a momenti più energetici e rumorosi. Tuttavia, l’azione del software non è mai risultata invasiva o preponderante e sembrava che quest’ultimo fosse programmato per seguire e sottolineare il suono emesso dal musicista umano.
Il terzo brano della serie è stato Zamyatin composto da Ollie Bown nel 2010. Zamyatin è il nome di un sistema interattivo sviluppato dal compositore australiano a partire dal 2009. Zamyatin è pensato per l’improvvisazione dal vivo e si basa su due livelli: uno è composto da algoritmi che riproducono delle reti neurali che “improvvisano” insieme al musicista; l’altro è invece “composto” direttamente dall’utente al computer. Quindi, possiamo dire che si tratta di una sorta di improvvisazione a tre tra musicista sul palco, algoritmi neurali e musicista dietro al computer. Durante la performance fiorentina il silenzio iniziale è stato rotto dal suono elettronico, seguito successivamente da note tenute da parte dell’oboe. Dopo breve tempo l’atmosfera bucolica creata dall’interazione tra suono elettronico e acustico ha iniziato a incresparsi, con l’inserimento di pattern di batteria improvvisi e rotture del suono sempre più frequenti. Questo aumento della tensione sonora era dovuto anche all’esecuzione di movimenti sonori nervosi da parte dell’oboe. La fase transitoria è culminata in una sorta di climax centrale, in cui momenti di silenzio si alternavano ad altri in cui sembrava di essere catapultati in un videogioco distopico a 8 bit. Lo strumento di Redgate a volte riusciva ad avere la meglio sui suoni elettronici, silenziandoli, mentre altre volte era costretto a seguire e intrecciare le volute sonore emesse dal computer. In seguito, le interazioni tra le due parti si sono ammorbidite sempre più, andandosi a concludere con una ripresa dell’arpeggio elettronico iniziale, terminato con un suono secco dell’oboe.
Il brano conclusivo, On Junitaki Falls di Craig Vear, è stata una prima assoluta. Anche in questo caso siamo in presenza di un software di intelligenza artificiale che interagisce in tempo reale con il musicista umano. Il compositore, per quello che possiamo chiamare “l’addestramento” del software, si è ispirato a un famoso solo del jazzista Eric Dolphy: God Bless the Child. Durante tutta la performance, il software ha riprodotto cellule sonore, probabilmente prese dall’improvvisazione di Dolphy ma recuperando alcune formule suonate dall’oboe, in maniera iterativa e operando anche processi di trasformazione timbrica. L’oboista ha interagito con queste cellule sfruttando il proprio strumento anche in maniera non convenzionale, come per esempio riproducendo soltanto i rumori prodotti dalla meccanica dello strumento, o soffiando nervosamente nelle ance, creando un suono risucchiato o infine provocando suoni armonici. L’interazione tra oboista e software è stata continua durante tutta questa parte di concerto, con il programma spesso nel ruolo di supporto agli esperimenti timbrici dell’oboista. Atmosfere distese e riflessive si sono alternate con momenti più dinamici ed energetici, in cui l’elaborazione delle cellule melodiche da parte del computer si faceva più serrata. Tuttavia, il suono emesso dal computer ha sempre avuto un carattere piuttosto ipnotico e circolare ed è sempre toccato a Redgate il compito di portare avanti il discorso musicale.
Escludendo la prima, dove l’elettronica non aveva un ruolo centrale, le tre performance della serata hanno dimostrato come si sia andati piuttosto avanti nello sviluppo di software interattivi e capaci di prendere “decisioni” in maniera autonoma. Tuttavia, il risultato finale ci rassicura molto, in quanto siamo ancora ben lontani dal raggiungimento di una “musica improvvisata senza musicisti”, per parafrasare una famosa espressione di Pietro Grossi: l’apporto dell’uomo è ancora essenziale per portare avanti il discorso musicale e, senza la bravura di Redgate, probabilmente il prodotto finale sarebbe risultato decisamente molto meno interessante. A parte forse alcuni momenti abbastanza riusciti, come alcune parti della composizione di Bown per esempio in cui non per caso era coinvolta anche un’altra entità umana, ci rendiamo conto che quando il software è lasciato da solo, produce soluzioni poco interessanti musicalmente. Questo è forse dovuto alla nostra ancora primitiva comprensione dei meccanismi che caratterizzano l’interazione tra musicisti. È dall’interazione e dalla stimolazione del musicista umano che emergono i tratti davvero interessanti che ci toccano nel vivo.
L’iniziativa è stata realizzata con il sostegno di British Academy/ Leverhulme Trust
In collaborazione con Fondazione Architetti Firenze e con De Montfort University
Lascia una risposta