目前有不少芯片都可以實現(xiàn)語音控制功能,語音芯片實現(xiàn)語音控制功能的核心邏輯是通過本地硬件進(jìn)行一系列的流程化操作,不依賴云端大模型。其核心流程是聲音采集→信號處理→語義識別→發(fā)出指令→執(zhí)行指令的一個過程,下面小編就根據(jù)語音芯片的工作過程展開講解。

1.聲音的采集和識別
語音芯片通過麥克風(fēng)接受到人發(fā)出的聲音然后轉(zhuǎn)換成為電信號,ADC接著把電信號轉(zhuǎn)換成為數(shù)字信號,然后把這些數(shù)字信號發(fā)送到DSP進(jìn)行處理,最終通過語音芯片上的本地化ASR完成聲音的采集和識別。
2.單麥克風(fēng)和多麥克風(fēng)的區(qū)別
這其中麥克風(fēng)的的數(shù)量以及降噪算法會影響到語音芯片的識別精準(zhǔn)度,通過語音芯片上的ASR模型也會影響到識別的精準(zhǔn)度,在預(yù)算充足的情況下多麥克陣列優(yōu)于單麥。
3.識別以后怎么執(zhí)行指令
簡單的理解就是語音芯片上裝有一個TTS,可以把聲音轉(zhuǎn)換為文字,然后把提取到的聲音和本地的指令庫進(jìn)行匹配,識別出用戶的具體需求。芯片內(nèi)置輕量化 AI
模型(如 CNN、RNN 的簡化版,或?qū)iT優(yōu)化的 Transformer
模型),這些模型通過海量語音樣本(不同口音、語速、環(huán)境下的指令)預(yù)訓(xùn)練,具備泛化識別能力;以WT2606系列為例,可以最高支持300條本地指令,對于絕大多數(shù)離線語音芯片來說已經(jīng)夠用了,如果還不夠用的情況下WT2606還可以通過鏈接云端大模型實現(xiàn)無限指令。
在語音芯片識別指令以后,通過控制接口輸出芯片,驅(qū)動外設(shè)完成指令動作,實現(xiàn)語音控制功能。
4.離線語音芯片的選型
目前市場上離線語音芯片或模塊其實是有很多的,但是面向的場景有比較大的區(qū)別,即便都是離線語音芯片但是芯片的識別能力降噪能力還有指令條數(shù)都有蠻大的差別的,當(dāng)然拋開價格談性能是有點(diǎn)耍流氓了,因為本地算力越強(qiáng)的芯片其價格也必然是水漲船高。
總結(jié):離線語音芯片實現(xiàn)語音控制的核心,是 “硬件加速(NPU/DSP)+ 本地化算法(特征提取、識別模型)+ 場景化優(yōu)化(降噪、喚醒)”
的協(xié)同*。不同芯片的差異體現(xiàn)在:支持的指令數(shù)量(10-1000 條)、識別距離(1-10 米)、功耗(μA
級待機(jī))、抗噪能力等,需根據(jù)應(yīng)用場景(如智能家居、車載、穿戴設(shè)備)選擇適配產(chǎn)品。