虽然Soul的IPO进程仍在推进,双重安全底线构建的社交环境防护体系却一直没有松懈。就在大家都在关注Soul上市的时候,他们的AI伦理治理做法特别抢眼。平台首席技术官陶明反复强调,不管做什么,平台都要把用户和内容安全给当成不能碰的底线,还要给它们定好规矩。Soul从2016年刚上线就开始布好局,利用AI技术来优化社交连接和体验。 要知道早在2016年刚出来那会儿,Soul就盯上了人工智能这块儿。一开始主要用的是传统机器学习和深度学习,想帮用户更高效地找到聊得来的人,也让大家更好地表达自己和听别人说话。 随着时间过去,大家对社交的需求变得复杂了,光靠推荐算法根本满足不了了。到了2019年左右,Soul发现生成式AI有潜力能让社交体验更上一层楼,于是就开始慢慢布局了。 陶明说,社交其实是两个人或者一群人之间的事儿,想有好的体验关键看双方能不能把话说明白。所以Soul在用AI搞技术的时候,重点就是帮大家把话说得更清楚、更到位,促进人与人之间的关系。 这种探索不光丰富了平台上的玩法,还让AI成了提升体验的核心力量。从以前那种靠AI帮忙找人的旧路,变成了用生成式AI弄出更多新鲜花样。 不过AI发展太快也容易出问题,如果没了规矩,隐私泄露或者算法偏见这些事都可能出现。所以Soul一直对AI伦理治理很上心。 陶明表示:“AI的使用和伦理治理、安全治理都得抓好。”他说自从开始做社交业务起,平台就定下了两个不能打破的安全底线——用户安全和内容安全。为了守住这两条线,他们还慢慢建立起了一套管人的规矩和管内容的规矩。 等到进入AI社交的新阶段,Soul就把以前在管社区时积累的经验直接拿过来用。他们不用那种传统的层层过滤模式,而是直接把用户行为规范和内容安全规范装进自己的AI模型里。 在底层数据治理方面,他们也搞了一套健康绿色的机制。只要这些数据符合站内的规定,就能为聊天提供安全保障。 这就把伦理治理的精神融入了技术的最底层。这次IPO阶段的这种做法不光能提升防护能力,还为打造健康的社交圈子打下了基础。