·也許有一天,AI編舞師可以根據(jù)你的腦回路特征,為你量身定制一支最能打動你的舞蹈。
當我們欣賞一段舞蹈時,大腦如何將視覺上的動作與聽覺上的旋律融合成一種名為“美”的體驗?這是神經(jīng)科學中最具挑戰(zhàn)性的問題之一,原因在于科學家們?nèi)狈σ话涯芎饬俊八囆g感”的尺子。
隨著人工智能(AI)技術的發(fā)展,這個困境有望被一種新的方法論所突破。在一項新研究中,研究者另辟蹊徑,先構(gòu)建了一個“懂舞蹈”的人工智能,然后用這個AI作為“解碼器”,反向破譯了人腦的神經(jīng)活動。該研究于11月19日發(fā)表在《自然·通訊》(Nature Communications)雜志上,作者來自東京大學、大阪大學及日本信息通信研究機構(gòu)(NICT)。
研究團隊使用的這個名為“EDGE”的跨模態(tài)AI模型可以被想象成一位學習了海量數(shù)據(jù)的“編舞師”。它不僅能“看懂”舞者的動作,還能“聽懂”背景音樂的節(jié)奏和旋律。通過深度學習,這個AI的任務是根據(jù)過去的動作和當前的音樂,預測下一個最和諧、最自然的舞步。
研究者們提出了一個假設:如果這個AI為了生成優(yōu)美的舞蹈而形成的內(nèi)部表征(即它對“動作-音樂”關系的理解),恰好與人腦處理這些信息的方式不謀而合,那我們不就能用AI的“語言”來“翻譯”大腦的活動了嗎?
在實驗中,研究人員首先邀請了專業(yè)舞者和舞蹈新手,讓他們躺在功能性磁共振成像(fMRI)掃描儀中,觀看了長達五小時的涵蓋街舞、爵士舞等多種風格的真實舞蹈視頻。同時,研究人員提取了AI模型中負責整合音樂和動作的跨模態(tài)特征,并將這些數(shù)學參數(shù)與fMRI成像數(shù)據(jù)進行比對。
結(jié)果顯示,AI提取的“視聽融合”特征,比單純的“動作特征”或“音樂特征”能更準確地預測人類大腦的活動。這意味著我們的大腦在欣賞舞蹈時,不是把視覺和聽覺做簡單的加法,而是在高級視覺區(qū)和聯(lián)合皮層(如前額葉和頂葉)進行了一場復雜的跨感官神經(jīng)活動,將動作與音樂融合成了一個整體的體驗。
通過AI“讀心術”,研究還探究了哪些舞蹈概念與哪些區(qū)域的大腦活動相關。例如,充滿活力的舞蹈能顯著激活大腦中與自我意識相關的“默認模式網(wǎng)絡”,而被評價為“無聊”的舞蹈則會抑制這些區(qū)域的活動。這或許解釋了為何引人入勝的藝術能讓我們暫時忘記自我,而乏味的表演則讓思緒飄忽不定。
這項研究不僅加深了我們對藝術審美的神經(jīng)機制的理解,也為一種“神經(jīng)美學”應用提供了可能:也許有一天,AI編舞師可以根據(jù)你的腦回路特征,為你量身定制一支最能打動你的舞蹈。
參考文獻:
Yu Takagi, et al. Cross-modal deep generative models reveal the cortical representation of dancing. Nature Communications, 2025, 16 (9937).
本文鏈接:AI“編舞師”破譯人類大腦如何欣賞舞蹈http://m.sq15.cn/show-11-28418-0.html
聲明:本網(wǎng)站為非營利性網(wǎng)站,本網(wǎng)頁內(nèi)容由互聯(lián)網(wǎng)博主自發(fā)貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。