科大讯飞智能汽车飞鱼OS高级产品总监,知你所想,这个是智能座舱所独特的

编辑:小狐 2021-01-19 13:54:54 互联网
浏览:940次
文章简介:12月1日-2日,由盖世汽车主办的“2020第二届车联网与智能座舱大会” 隆重召开。本次会议主要围绕车联网、座舱域控制器、车载操作OS、OTA、座舱显示等车联网及智能座舱领域热门话题展开探讨,共谋产业

12月1日-2日,由盖世汽车主办的“2020第二届车联网与智能座舱大会” 隆重召开。本次会议主要围绕车联网、座舱域控制器、车载操作OS、OTA、座舱显示等车联网及智能座舱领域热门话题展开探讨,共谋产业未来发展之路。下面是科大讯飞智能汽车飞鱼OS高级产品总监刘棨在本次大会上的演讲。

科大讯飞智能汽车飞鱼OS高级产品总监,知你所想,这个是智能座舱所独特的(图1)

科大讯飞智能汽车飞鱼OS高级产品总监 刘棨

先简单回顾一下智能座舱的发展历程。20世纪80年代, CAN总线的出现让汽车上各个割裂的ECU之间实现了通信,这是一个非常重要的里程碑。再往后,像2010年以后特斯拉推出的大屏,还有后续奥迪的数字仪表等等,座舱内一个个关键零部件、内饰都在朝着智能化发展。其实在18、19年的CES上就可以看出,很多的车企以及零部件供应商都在做整合。用户出行过程中,在座舱空间内他不应该是割裂的,而应该是各个智能化零部件产品在车载芯片以及有效协同下相互同步、协助,以给用户更好的空间体验,所以这个是智能座舱往后发展的一个趋势。

科大讯飞看到的智能座舱是一个非常重要的节点,因为它把人、车、路和云连接在一起。所以我们是怎么去思考这样新一代的座舱的?它应该是构建一种什么样的人车关系呢?接下来我就跟各位一下我们的思考。

当然脱开人的控制,它没有了缰绳的束缚,自己也是可以去奔跑的。它遇到一些障碍物会自发地去躲避的,当它快到悬崖的时候它也会停在悬崖边上,并不会直接冲下去,这些都是它的一些特性。所以我们在人跟底层逻辑关系上,构建出了一个原则,来比拟我们新一代的人车关系。

首先要建立双方的信任,其中最重要的是错误要少。比如说我们现在用一些最新款产品的时候,当你的一些命令执行错误比较多的时候,你在执行新的命令的时候,就会想它会不会按照你的意思去执行。其实这个信任是不利的,所以说错误越少越能够建立信任。当然了它完全能够通过自学习去逐步了解你的喜好,这是你的个性化需求,这也将使你们在一些互动上更加贴心。

还有一块是专业的赋能,刚刚说的,它自己会奔跑、遇到障碍物也会躲避。当我们在高速公路上长时间驾驶的时候,人是会疲劳的,但是机器不会,这个时候它是专业的,所以我们要把这件事情交给它去做,但是在做的过程当中,需要有效的反馈和磨合,以建立人与车间的信任感。是不是我现在做的是你希望的那样,这是有一个过程的。

第三个是心领神会的沟通,作为新型的人车关系,它是一个伙伴能够陪伴你,那你们之间沟通交流应该是没有障碍的,它应该是知道你喜欢什么,在什么场景下你应该需要什么样的服务,这个也是非常重要的。最后就是最基础的可靠的执行力

科大讯飞其实从事车这个行业挺长时间了,有19年了,在前装这个行业也有十多年的沉淀,我们为外资、合资以及国内主机厂都做了很多的项目,打造了非常多的语音助理,但是我们新型的人车关系提出的是虚拟伙伴,这两个有什么本质的区别呢?

所以我们想打造的是这样一个伙伴,那是一个什么样的伙伴呢?我们做过很多的用户调研,70%的用户他们希望车更聪明,还有30%是车更温暖。所以说我们期望它是一个伴你出行,聪明又温暖的伙伴,我们想通过座舱建立人与车的情感纽带,它可以有不同的形态,可以是人形的、非人形的、抽象的、emjoy的,可能还不止,它有很多的属性,可以告诉你哪里有你最喜欢吃的店、哪里有你最想听的新闻,这些都是它的属性。

那如何去构建呢?像我们可以看到它会说什么话、它说话表达的情感方式有哪些?它有没有一些小癖好?这些都完全可以做解构,解构成我们左边看到的这些一个个的组件。在自驾游、通勤、闲聊等不同场景下,我们可以将不同的组件进行组合,每个场景下都能给你一个温暖、聪明的伙伴。

当然,在背后支撑它的是非常多的核心技术,像AI、大数据、感知、融合决策等等,所以整个智能座舱它是AI、服务的大整合。

我们再宏观一点来看,舱内听、说、看、显。氛围还是比较重要的,因为座舱内营造这种氛围感能够给用户非常好的空间体验,像氛围灯还有车内一些其他智能化的内饰这一块能够跟整个交互去做联动,在场景下能够跟用户做进一步的交互,这个是智能座舱所独特的。车外有什么?车外有路,有你行驶的大交通环境,V2X这样去连接,那还有什么?有云,云上有什么?有你个性化的数据,有你想要的服务,所以说构建一个这样带引号的智能座舱,它是需要把车内跟车外的环境内容做深度的整合,才能就去呈现这样一个在用户面前是一个立体化的人设,它背后藏着的是非常多的支撑。

我们来看一下听,我们这边听出来听的更准确、说的更好听、看的更清楚、显的更生动。其实听这个事情我们已经解决了很长时间,现在的效果在行业内大家都是有目共睹,无论是前端降噪还是软件的核心算法到整个落地效果,无论是高噪还是静谧的环境下都能够让它准确地识别命令

现在像合成这一块我们加入了留声复刻,如果说你在一天工作疲惫的情况下来到地库上车能够提到你孩子的声音在车做一些播报,你的情感上是不是有一些共鸣?所以这是对于情感上的一个诉求,当然说不仅仅是满足于情感,这是更高级别的蛮干,还有最基础的结合了我们双音区、四音区,不同音区下通过音效这样的核心技术能力,可以让每个区都具备说不同内容的能力,所以我们让“说”这件事情在车上给用户带来不同的体验。

看的更清楚,讯飞的视觉在行业一直都是领先的,在看这一块我们去年重新捡起来,今年在10月19号发布的包括在整个车展现场大家都能够体验到,视觉加进来对于人在座舱里的交互真的是有非常大的变化。

我简单说一下,有4点,可“见”即可说,人的信息输入81%来自于视觉、11%来自于语音,所以说在车上加入摄像头做了很多单纯语音做不了的事情。比如说我看向副驾驶车窗那边直接说打开车窗,如果按照语音的话按照声音定位只能打开主驾的车窗,但是加入视觉之后就直接打开副驾驶的车窗,你能看到的它都能看到,你能感知到的它都能感知到,这是质的变化。

第二块,当你和你的伙伴在空间内做交互的时候我们想一下最自然的交互方式是什么?还会每次去跟它说一件事情都需要唤醒吗?应该不需要了吧?都不需要说话当你看向你的伙伴的时候,他应该就会抬起头来看你,你不说话他会问你有什么事吗?这是人与人之间最自然的交流方式,在车上我们能不能做到?加入视觉之后可以。

从DMS到OMS,如果说我们能够知道车上就只有驾驶员单用户的场景,我只要识别到他不是在打电话、他在说话,能够命中业务范围,那我就知道你是在跟我交互,完全不需要唤醒,最自然的交互方式。

其实这是有依赖的,整个多层次的算法、硬件支撑,车内广角摄像头,更低层次的,如果只有DMS那我们怎么做?也就是我们现在已经实现了根据DMS摄像头我们能看到当用户看向主机屏幕的时候,不需要唤醒,它直接就能够响应,这个是对于实现注视,他看向我的时候有交流的诉求,这我们已经实现了的。当然还有全场景的免唤醒,就是结合OMS我们完全可以还原人与人之间最自然的交流方式,这是用视觉之后对于交互这一块非常大的变革。

显,其实显对于拟人化的外在暴露,这只是一个外在的形象和动作而已。我们可以让他更生动,他的个性化合成,带不带情感,包括歌唱的合成,变声等等,包括讯飞还有一项根据合成的内容来驱动唇形,能够让拟人化这样的形象他的嘴动的时候和他的内容是一致的,我们可以看一下这个。大家应该看到他的唇形跟他表达的内容是贴合的,所以我们就想把拟人化的这个事情做到极致

刚刚说完车内这种空间的交互之后,其实还不够,还没把车外的个性化的、海量的服务内容做进来,它可以在每天早上告诉你今天天气怎么样,它也可以告诉你你最爱听的新闻今天有哪些实时的。出行的时候,它可以帮你规划路线,规划好路线之后比如说出游,它能够把酒店、景点门票一键全部搞定,你只要走就行,其他事情都交给它,这才是一个伙伴,而不仅仅是你说什么它执行什么。

行程上,因为的记忆是不足的,他忘,机器不会,所以说我们还是要专业赋能,把专业的事儿交给它来做,它会记住你所有的行程,包括跟手机端的联动,它在合适的时候能够提醒你,你该取快递了,有多少人在回家的时候本来想取快递,但是到家的时候忘了,它可以有效地提醒你。

我们出行会必备哪些东西呢?像手机、钱包、证件、私人物品和一些攻略对吧!这些都是我们认为智能座舱作为一个伙伴应该要为用户的。所以说从上面来看,结合不同的OEM车型、调性、品牌以及不同的用户群体,我们期望能够给每一位用户都选择到他想要的、合拍的伙伴,无论是听歌、出行、探索世界、行程,一定是高度的个性化、场景化,所以说我们讯飞对于新一代智能座舱的思考一定是知你所现想,懂你所需。当然,在这一块我们已经迈出了扎实的一步。

以上就是我们讯飞对于整个智能座舱面向新一代的无论是交互还是对于出行服务的思考,谢谢大家。

本文相关词条概念解析:

座舱

返回舱又称座舱,它是航天员的“驾驶室”。是航天员往返太空时乘坐的舱段,为密闭结构,前端有舱门。返回舱和推进舱脱离后,返回舱推进舱焚毁,而轨道舱相当于一颗对地观察卫星或太空实验室,它将继续留在轨道上工作一段时间。航天专家称,返回舱隔热功能好,舱内温度可保30度。2016年11月18日,神舟十一号返回舱在内蒙古四子王旗主着陆场区安全着陆。

网友评论