• logo

搜尋標籤音樂創作

已找到 2 則相關結果

AI與音樂創作:人機新互動-2

大多數生成式AI,不管是音樂還是其他方面,都是根據之前的內容來決定接下來要產生什麼,就像看後視鏡一樣。但是Anticipatory Music Transformer也可以預測未來:經由超過 17 萬首歌曲的資料庫訓練,它可以根據前面的內容接續一段音樂,並與之後的內容連結,還可以根據作曲家已經創作的內容添加和聲或伴奏。儘管運用這套程序目前仍需要對電腦編碼有所了解,但其開發者之一、史丹佛大學研究者John Thickstun表示,這主要是面向音樂家和作曲家的產品、是為優化他們的工作而生。 電子大提琴家 Dana Leong也曾將AI作為一種工具,並稱讚了Reiley、期待更進一步:「我不僅希望看到一部能夠創造令人驚嘆音樂的機器,還希望看到一個能夠表演音樂、創造視覺環境(全息投影、舞蹈、形狀變化)並與人類藝術家合作的機器」,Leong 在一封電子郵件中說道。他自己也曾使用AI創作了一首名為《iDragon》的多軌歌曲,結合了AI生成的聲音、數位合成的音樂和樂器錄音。 AI也正在進入舞蹈領域。舊金山芭蕾舞團以《凡人》的首演開啟2024年的節目,這是一部將AI問題與古代神話潘多拉和普羅米修斯相結合的新作品。演出包括模擬和AI生成的影像,以及電子音樂家Sam Shepherd的原創配樂,將在今年四月再次上演。 AI最有可能應用在錄音室和會議工作中。邁阿密 Animal Music Studios老闆 Alberto Farinas 在一個客戶提出不尋常要求時,開始研究一些Google的人工智能工具:一家洋芋片製造商聘請Farinas的工作室製作一組循環的樂句,如吉他旋律和鼓聲填充,以便用於廣告混音。Farinas 與一位工程師合作使用了一個名為 Nsynth的Google AI模型,將咬碎洋芋片和碎裂的聲音與一系列樂句結合起來,「最後使一切聽起來更爆脆」,Farinas 說。 手動剪輯需要很多時間,而這個軟件幾乎可以立即完成。卡內基美隆大學教授兼 Google音樂項目兼職研究員Chris Donahue說:「我認為技術的進步,很大程度上代表了非常深刻的、創造性的機會,可以讓人們創作音樂,或讓非音樂家表達自己,」Donahue曾參與Google一個名為SingSong的AI音樂計劃,該計劃允許人們對著應用程式唱歌,並讓 AI程式以他們的聲音生成不同的歌詞;他也曾參與開發類似Thickstun那樣的預測性程式。Google及其子公司YouTube推出了其他實驗性音樂產品,這些工具有助於藝術家創作、使製作過程更加簡單,例如允許哼唱的旋律轉化為小號。 由 Google DeepMind的AI 實驗室建造的Lyria模型還可以執行一些Thickstun模型擅長的「續篇」工作。 Google與Charli XCX、Charlie Puth等藝術家合作,讓他們使用這種技術創作短曲,使用簡單的文本提示,創作歌曲和聲音樣本。 Donahue 承認,純粹由AI生成的音樂浪潮,可能會污染創意空間,但到目前為止,他說:「我沒有看到任何跡象表明,人們想聽這些完全由機器生成而沒有任何人類參與的東西。」 原文出處

AI與音樂創作:人機新互動-1

嘻哈先驅 Nate Dogg 曾用一句座右銘概括自己與藝術的聯繫:「我的音樂和我。」簡單直白地凸顯了詞曲作者與其作品之間的深厚關係——這是一個如此個人化的過程,以至於機器除了作為產生新聲音的電子樂器或幫助作曲的苦工軟體,幾乎無處可以置喙。 前AI時期如是。 AI正以幾年前難以想像的方式改變音樂家的作曲和演奏,為創意表達開拓新的視野,挑戰對音樂技藝的傳統認知。有些程式像作曲家的學徒一樣工作:精煉鼓聲節奏循環、完善和聲,或根據之前的內容填補旋律中的空缺。其他程式可以從數千首現有歌曲學習,創造出全新的音樂和聲音。 今年一月,聖荷西交響樂團大提琴手Yves Dhar演奏了Adam Schoenberg的《自動化》(Automation),該作利用AI展示人與機器的極限:Dhar坐在舞臺上,身邊是一個虛擬他的藍綠色幽靈,兩者開始互相呼應。虛擬Dhar演奏的是從Schoenberg曲中衍生、由 AI生成的樂譜。真實的Dhar則以越來越複雜的演奏,企圖追上名為AGNES(Automatic Generator Network of Excellent Songs)的AI,直到人類無法企及的程度。 儘管 Dhar似乎在與他的幽靈自己「對抗」,但幽靈播放的AI生成樂譜是使用 Occidental College教授 Kathryn Leonard開發的演算法提前構建的,他使用Schoenberg的整個作品集以及他的一些音樂訓練了一個AI模型:「我喜歡把電腦看作是一個合作者,也是一個獨立的創作者」, Leonard 說道:「它可以促使人們做出他們本來不會創作的東西。」 Dhar和AGNES預訂將於 5 月 15 日在紐約的MATA節上再次演出《自動化》,James Blachly帶領的體驗管弦樂團(Experiential Orchestra)也將參與其中。Dhar 表示:「創意地使用AI,可能會推動藝術形式向前發展;如果懶惰地使用,它可能會創造出一堆可有可無的東西。我們只是不知道。」 舊金山交響樂團計劃在四月份舉辦一場活動,以一項新興的人工智能技術作為其 SoundBox系列的一部分——該系列過去十年一直以實驗媒體為特色,在有沙發和酒吧的休息室氛圍中進行——在這個活動中,一位鋼琴家演奏樂譜,伴隨著AI程式Anticipatory Music Transformer創作的小提琴曲,但由人類現場演奏。 這場演出由與交響樂團合作的機器人學家和技術人員Carol Reiley策劃:「我們試圖找到完全匹配或補充原始鋼琴樂譜的東西,而不是改變原始曲目。」同場還會演出其他作品,例如德布西的《幻想曲》,搭配 ChatGPT創作的歌詞,與AI生成的虛擬視覺。這將是該技術使用專業音樂家現場演奏生成的首次嘗試。 原文出處