智能音箱的硬件和一些生态内容,都已经搞定了,就差一个智能的软件了。
要说智能音箱,智能才是他的心脏部位。
但是智能这个词语,听起来很简单,无非就是两个字,但是做起来却是“蜀道难,难于上青天。”这种感觉。
就拿那个唤醒词来说吧,林奇决定要把那个唤醒词去掉,可是研究了很久,还没有研究到去掉唤醒词的地步。
因为在第一步的时候就被束缚了手脚,那就是语音识别。
近些年来人工智能里面的机器学习发展的很是厉害,尤其是机器学习中的深度学习。
深度学习利用的是大于3层的神经络来学习,有输入层,输出层,中间还有很多隐藏层。
只需要把大量的数据提供过来,输入给写好的程序,运行一段时间之后,就会计算出来一个模型。
输入的数据越多,运算的次数越多,一般情况下得出来的结果也越好。但是这里面还有一个需要注意的就是不能太依赖于输入的数据了,否则会出现过拟合的现象。
过拟合就是在给定的数据中,让程序来预测某些结果,它能达到很高的准确性,比如99999,但是到了通用的数据下,这个模型表现的就很差,可能只有的准确性。
林奇开始的时候也是利用了深度多层神经络来进行训练语音样本的,因为现在市面上最流行的就是种方法。
不过别的公司能采用这种是因为他们有很多的音频资料,并且都是用户自己上传的一些音频素材,比如深信,月活跃量一度超过10亿人,可想而知,每天用它发语音的有多少人,他能收集到多少的语音片段。
再比如寻她、搜猫和可大讯飞,他们三家公司都有自己的输入法,每一个人都说自己的语音识别准确率最高,在手机上用这三种输入法的大有人在,当然虽然在一些环境下用语音输入很是麻烦,但是有一些特定的环境还是很不错的。
所以他们收集到的来自真人的各种场景的语音片段,也是非常丰富的。
像上面的这些公司他们使用深度神经络来训练语音模型,没有任何问题。
但是第二智慧科技没有聊天工具,也没有语音输入法,林奇也想过去这些公司买一些数据,用来训练自己的语音识别库,但是思来想去,还是落了下乘。
第二智慧科技要推出的智能音箱,最主要的一个环节的原料却是从别人那里购买的,虽然没有什么问题,但是林奇总觉得很别扭。
后来林奇也想过去各大站上面爬一些数据,有生物计算机在后面给自己的大力支撑,爬别人的数据,应该很方便。
林奇也真的去这么做了,为了n频率,还特意的n了一些速度。就这样爬了一些数据,但是这些数据拿到手里,林奇发现有一个问题,那就是这些数据很多都是录音棚,或者加工后的数据。
与用户实际生活中,比如在地铁上发的语音,在公交车上发语音,或者在大街上发语音,在家里发语音都不太一样,爬出来的数据很多都没有环境音。
没有环境音本身其实是好的音频,但是对于做语音识别来说这个就非常不合适了,因为做出来的模型不符合人们正常生活,与实际使用场景不符。
那就很尴尬了,就好比你说一个人很厉害,可以用剑杀恶龙,在有恶龙的世界里面,他是当之无愧的英雄。
但是如果他来到了现实生活中,就一事无成。