搜索算法跑得更快了,科技公司现在得直接面对一个难题:怎么让那些自动生成的摘要准一点。随着网上的信息变得越来越杂,智能摘要成了各家搜索引擎为了讨好用户而重点开发的功能。可是最近好多媒体和用户都反应说,有些平台的自动摘要不靠谱,有时候会编瞎话、前后矛盾。特别是在医疗、科学这种需要特别小心的领域,要是传错了信息,那真的会害人。 这事儿不光耽误大家找信息的时间,还可能把公众给带歪了。造成这种问题的原因挺复杂的。从技术上讲,自然语言处理的模型在提炼信息的时候,可能因为训练数据有偏差、语义理解得不够好或者逻辑衔接不上,就开始自己乱编内容。从实际使用场景看,网上的东西又多又乱还天天变,系统根本不可能在所有领域都保证百分之百的准确性。再加上大家伙儿太信得过那些大品牌了,不太愿意去挑刺,这也帮着把错误的信息给传播得更开了。 好在有公司开始从内部动真格了。最近有家科技公司公开招了一批专门盯着回答质量的工程师,他们的活儿就是检查自动生成的东西对不对,改改算法,重点要在那些关键的地方把可靠性提上去。招聘启事里写了要“重新定义信息检索体验”,这就相当于公司主动承认这功能现在还有毛病,还要投钱去修。从行业大局看,这种做法也不稀奇。现在人工智能的技术用得越来越深了,大家都在琢磨怎么在效率和准确性之间找平衡、在创新和责任之间找个支点。有些国家已经开始定规矩了,逼着平台为自己发出来的东西负责。 企业设这个质量监督岗既说明技术升级是个大趋势,也能看出行业越来越看重用户的信任。以后想把这个功能做好肯定得花不少时间。一方面算法得不停往里加人工反馈和专业审核,弄成一个生成—评估—修改的闭环;另一方面行业还得抱团取暖,搞出一套跨平台的评价标准。特别是在医疗、法律这种高风险的地方,得弄个严格的过滤机制才行。咱们普通人也得学着长点本事,知道怎么跟机器配合着用脑子分辨真假信息。 技术往前走的时候总要看到自己哪儿不好得改改才行。智能摘要从以前只管快到现在要追求稳当、从只图好玩到现在要担责任的变化过程,正好反映了科技行业从追求速度到注重深度、从只管体验到牢记责任的大转向。在信息越来越值钱的今天,只有把技术的方向盘拨正了,让它老老实实给大家传递准确的知识,才能真正帮社会进步,把数字时代的信任这块地基给筑牢了。