Soul把AI当作了核心壁垒,准备在2025年让生态安全治理搞出不少新花样。前段时间,Soul App发了个《2025年度生态安全报告》,把平台用AI技术做核心、联合社会跟警察一起管事儿的成果全给展示了出来。为了实现这些,Soul往治理的各个环节都塞进了7个自家研发的AI模型,结果是骗钱的人少了20%,把未成年人假冒账号给抓了个准,准确率到了99%,给站内的用户围上了一圈社交防护墙。技术就成了Soul治理的“定海神针”,平台推出的“AI反诈计划”搭起了双重防线。那6个识别模型各显神通,图片和文本反作弊的模型能看穿黑产是怎么装腔作势的,杀猪盘前置识别模型能在刚开始骗人的时候就把人拦住,还有审核外链、查色情交易的模型把违规内容一网打尽。再配上一套AI提醒系统,这种反诈的防护效果更立体。针对有人造假身份、偷图这种事,Soul升级了治理体系,用AI技术一天能拦下5万条虚假内容,从根子上把黑产的滋生地给毁了。Soul明白安全治理不能光靠自己单打独斗,2025年一直跟浦东反诈中心这些部门加深合作,连成了一张网。平台这一年往公安局推了一百多个违法线索线索,帮着警察查案子、维护用户权益有三十多次。还参与了一百多次警企合作,用“站内堵+站外打”的办法,让违法分子没法躲起来。同时平台还打破了以前管网暴的老路子,用AI分析情感模型随时盯着有没有人说狠话,结合上下文去判断说话人的情绪意图。平均每天能提醒大家注意文明说话超过20万次。再加上搞了些专题活动跟科普宣传活动,让93.4万名用户签了友善互动的声明,让大家心里头都有了社交礼仪的规矩。保护未成年人是Soul坚守的底线。平台拉来了AI行为分析模型。通过分析用户是怎么互动的、说话的内容还有设备用得顺不顺手。这下好了,未成年人假冒账号的识别率干到了99%,准确率比以前还高了50%。2025年Soul搞了51条保护未成年人的策略,注册禁令必须执行到位。再自动给孩子用青少年模式。到了寒暑假还得把内容库动态调一下。让保护工作从“等着挨打”变成了“主动去帮忙”。除了这些,Soul还用人和机器一起干活清理那些质量不高的内容。全年拦下违规的东西有1642.5万条。处理了违规账号76.7万个。平均每天在广场上清理掉那些低质量的帖子超12万条。好让社区环境变得干净一点。这个报告发出来了,说明Soul的生态治理已经进到了智能成熟的新阶段。展望2026年,Soul会继续往人工智能里砸钱扩大社区大家一起管的体系。让每一个用户都变成生态安全的一份子。一直都想着把那个真实、温暖又有活力的线上空间给建起来。