(SeaPRwire) –   試想一下,透過六個月大的嬰兒眼睛看世界。你沒有單字可以描述任何事物。當你聽到周圍的人發出各種聲音時,這些聲音可能有無限種可能意義,你怎麼有可能開始理解語言? 

這個問題讓許多科學家假設,人類一定具備某些語言能力,才能幫助我們開始習得語言。不過本週一篇發表在《科學》期刊的論文發現,一個相對簡單的人工智慧系統,餵入以嬰兒視角拍攝的資料,就能開始學習單字。

這篇論文是根據一位澳洲嬰兒在六個月大到 25 個月大之間,配戴頭盔攝影機拍攝的 18 個月影片片段。研究助理辛苦地費時翻閱並註解 61 小時的影片,揀選出 37,5000 句話語,例如父母在嬰兒玩積木時說出「你看見這個三角積木」,影片片段中可見嬰兒摸索積木組後,將注意力轉向一隻興味缺缺的貓。

Frames from head camera with text

紐約大學數據科學中心和心理學系的研究人員將這組資料集輸入多模態人工智慧系統,這個系統可同時吸收文字和影像。他們發現,人工智慧模型能夠辨識許多不同的物體,無論是使用頭盔攝影機資料集的測試,或是使用各種物體理想化影像資料集的測試,都能辨識,儘管其準確率略有侷限。

人工智慧系統比較擅長命名看過的物體,包括蘋果(常見於兒童讀物)和嬰兒床。它也比較擅長挑出在頭盔攝影機影像中沒有被遮擋的物體。這篇論文的作者之一王煒鈞表示,系統特別不擅長辨識刀子。

部分心理學家和語言學家認為,兒童若沒有天生的語言能力,無法將單字與物體聯想在一起。王煒鈞表示,人工智慧模型相對簡單,即可以這麼小的資料集開始學習單字聯想,這項結果挑戰了這個觀點。

不過,值得注意的是,攝影機拍攝的影片捕捉到嬰兒與世界的互動,及其父母對嬰兒的反應。麻省理工學院電腦科學與人工智慧實驗室的研究科學家安德烈·巴爾布表示,這表示人工智慧模型「擷取了嬰兒已知的資訊」,讓它在發展單字聯想時占有優勢。「如果你將這個模型應用在機器人上,讓它執行 61 個小時,你無法取得這裡獲得的資料,而這些資料才能用於更新類似這樣的模型。」

紐約大學的研究人員撰寫完結果後,又從頭盔攝影機影片片段中轉錄了四倍多的資料,準備輸入模型。王煒鈞表示,他們希望檢視人工智慧模型在獲得更多資料後可以學習到多少。他們也希望測試模型是否可以開始學習較難的單字和語言行為,這些行為通常會在孩子長大後才開始發展。

這些實驗可望進一步釐清嬰兒如何學會說話,也能幫助研究人員了解人類和人工智慧之間的差異。王煒鈞表示:「從研究人類如何習得語言中,可以學到很多東西,也能了解我們與目前機器相比可以有效率習得語言。」

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。