谷歌今天寫下的解釋器上索利基于雷達的技術(shù),船舶其內(nèi)部像素4智能手機。盡管以前已經(jīng)知道許多硬件細節(jié),但該公司還是第一次拉開了Soli AI模型的帷幕,這些模型經(jīng)過訓練可以以低延遲檢測和識別運動手勢。盡管還處于初期,Pixel 4和Pixel 4 XL是首款采用Soli的消費類設(shè)備,但Google聲稱該技術(shù)可以在智能手表等設(shè)備上實現(xiàn)新形式的上下文和手勢識別,從而為更好地適應用戶需求鋪平了道路。殘疾。
Pixel 4中的Soli模塊是Google的高級技術(shù)和項目(ATAP)小組與Pixel和Android產(chǎn)品團隊之間的共同努力,其中包含60GHz雷達和天線接收器,它們具有組合的180度視野,可記錄位置信息。除了范圍和速度之類的信息。(在多次傳輸?shù)拇翱谏希瑢ο笪恢玫奈灰茣饡r間偏移,該偏移表現(xiàn)為與對象速度成比例的多普勒頻率。)電磁波將信息反射回天線和定制濾波器(包括用于解決音頻振動的濾波器)由音樂引起的噪聲)提高信噪比,同時衰減不必要的干擾,并區(qū)分噪聲和雜波的反射。
信號轉(zhuǎn)換被輸入到Soli的機器學習模型中,用于“亞毫米”手勢分類。谷歌認為,開發(fā)它們需要克服幾個主要挑戰(zhàn):
每個用戶甚至可以執(zhí)行多種簡單的動作,例如滑動。
傳感器范圍內(nèi)的多余動作有時看起來類似于手勢。
從傳感器的角度來看,當手機移動時,看起來整個世界都在移動。
Soli背后的團隊設(shè)計了一個系統(tǒng),該系統(tǒng)包含使用從數(shù)千名Google志愿者那里記錄的數(shù)百萬個手勢進行訓練的模型,并補充了數(shù)百小時的雷達記錄,其中包含來自其他Google志愿者的一般動作。這些AI模型是使用Google的TensorFlow機器學習框架進行訓練的,經(jīng)過優(yōu)化后可以直接在Pixel 4的低功耗數(shù)字信號處理器上運行,即使在主處理器掉電的情況下,它們也可以每秒追蹤18,000幀。