咱们来聊聊这次GAS 2026吧,听着还挺带劲的。3月25日,清听声学CTO匡正博士以双重身份深度参与了大会核心议程。这次大会在上海张江科学会堂举办,名字叫“2026中国国际音频产业大会”,吸引了90多位权威人士还有600多家企业,把差不多1000位精英都聚到了一块儿。大家都在琢磨着音频产业的未来到底会变成啥样。清听声学可是这行里的领头羊,匡正博士也没闲着,在好几场关键环节里都发了言。他和同行们一块儿聊AI声学这东西往后会咋走。 PART01咱们先说一下匡正博士的表现。这次大会一共两天时间,匡正博士也没闲着,把两个主要身份都发挥得淋漓尽致。3月25号晚上有个叫“围炉夜话”的高端对话活动,匡正博士当主持人,把华为、腾讯音乐、海菲曼这些大佬都请来了。大家围着桌子坐一块儿聊,主要就是说AI在音频里怎么用。有谈智能穿戴健康监测的,有说专业调音的,还有讲音乐流媒体推荐的。反正大家都觉得AI在渗透音频产业链的各个地方,说得挺透彻。匡正博士作为主持人,也用创业者的视角把大家的思路都给理顺了。 除了主持,匡正博士还在“电声元器件及芯片”专题论坛上发了演讲。他说现在人机交互这事儿正从GUI转向AUI,所以声学技术不光是处理信号了,还得是智能感知的入口。设备的“听力”能力也得变被动为主动。从主持对话到技术发言,清听声学这次在GAS舞台上算是把“参与者”升级成“定义者”了。 PART02再说说技术层面的事儿。匡正博士在演讲里提到现在智能终端的声学能力正处于一个关键关口。以前的技术是让声音更清楚更保真,现在要求更高了,得能听懂人的意思。清听声学靠着自己全球首创的定向发声技术搞出了一套AI声学体系。这体系主要分两块:一个是输出端的定向声技术,能把声音像聚光灯一样投准了;还有个是显示和发声合二为一的聚音屏Focusound Screen®技术。这玩意儿真神奇,让屏幕自己就能出声。 输入端那边用的是独家AI算法和硬件协同工作,在吵杂的环境里也能精准地听到人说话。这个创新方案把终端设备从被动响应变成了主动感知。目前这个技术在数字人、公共服务、金融服务这些场景里都试过了效果不错。清听声学现在就是想让智能终端不光听得清,还能听得懂。 GAS 2026给清听声学提供了一个跟顶尖力量聊天的机会。从思想碰撞到技术分享,清听声学一直在传递一个信号:在“声态+AI”的大潮下,声学技术的价值正在被重新定义。这既是技术能力的升级,也是人机交互体验的飞跃。以后他们还会接着推进AI声学技术的全场景落地呢。