自動駕駛汽車和機器人領(lǐng)域的傳感器和攝像頭套件,已經(jīng)能夠?qū)χ車h(huán)境產(chǎn)生積極的識別檢測。 不過近日,佐治亞大學(xué)人工智能研究所的 Jagadish K. Mahendran 和他的研究團隊,還為視力障礙人士設(shè)計了一款“導(dǎo)航背包”。 其作為一款 AI 驅(qū)動、語音激活的低功耗交互式設(shè)備,它能夠幫助用戶應(yīng)付常見的出行挑戰(zhàn)。
(視頻截圖 viaIntel)
據(jù)悉,這套視覺輔助系統(tǒng)由一件背包(或背心)、以及一副耳機組成。 4K 攝像頭能夠采集外界顏色,而一對深度傳感器能夠采集 3D 信息。
在將視覺信息送入背包中的“大腦”之后(筆記本電腦或樹莓派計算機),系統(tǒng)可借助一個通過 USB 連接的 GPS 組件、OAK-D 接口、Open CV 軟件、以及神經(jīng)網(wǎng)絡(luò)來解析可視數(shù)據(jù)。
除了長達 8 小時的續(xù)航時間,“隱匿性”也是此設(shè)備的一個重要因素,從視頻演示畫面來看,它能夠讓穿戴者像常人一樣在大街上走動,而不會像一臺機器人那樣惹人注目。
處理完成后,系統(tǒng)可通過藍牙向用戶傳輸導(dǎo)航信息,以警告類型和大小不盡相同的障礙物,并使用簡潔的語言來描述該規(guī)避的相對方位(比如上、下、左、右、中心)。
Visual Assistance System for the Visually Impaired( via )
由視頻可知,這套背包 AI 導(dǎo)航系統(tǒng)能夠分辨垃圾桶、有較高落差的階梯等對象、以及一些重要的標(biāo)識牌(比如停車避讓)。此外在接近道路拐角時,系統(tǒng)也能夠及時發(fā)出語音提醒。
此外系統(tǒng)還支持更多的語音命令交互,比如描述 10 點鐘方向的汽車、12 點鐘方向的行人、1 點鐘方向的交通燈,或者要求保存當(dāng)前位置、以及導(dǎo)航至 咖啡 館等特定地點。
最后,盡管仍處于早期階段,研究團隊還是盡快將之推向開源和非商業(yè)化的應(yīng)用,以推動相關(guān)技術(shù)的快速發(fā)展。