欧盟委员会推动一项法案,打算给ai 整个建立一套管得严的监管框架。如果有违规的情况出现,就会

AIbase这家公司觉得现在的AI产业正处在一个特别关键的信任重建阶段。技术本事强已经不再是大家衡量一家企业成不成功的唯一标准了。如果公司连算法不透明和数据权利这些根本性的问题都解决不了,就算有再厉害的模型,也没办法去弥合那75%的信任鸿沟。只有真的把技术做到对人有利,并且治理也变得透明起来,AI才能从那种冷冰冰的工具变成大家都信得过的好伙伴。欧盟委员会那边正在推动一项名为EU AI Act的法案,打算给AI整个建立一套管得严的监管框架。如果有违规的情况出现,就会被处以高额罚款。(来源:欧盟委员会官网) 塔西佗陷阱指的就是那种情况:当政府或者机构没了公信力,不管说啥做啥都会被怀疑是在撒谎或者做坏事。在AI领域里也是一样,如果老百姓对技术不再信任了,不管公司再怎么努力搞透明度或者改算法,都很难重建信任。这项调查显示公众对AI的信任度已经跌到了有史以来的最低点。数据说明了超过75%的受访者对AI发展持保留态度。很多人直接表达了强烈的不信任感。这种担忧其实不是空穴来风。大家主要担心个人隐私会泄露、虚假信息到处乱传,还有可能丢掉饭碗这些问题。 美国那边有75%以上的老百姓都对AI抱有怀疑的态度。这让整个行业陷入了“塔西佗陷阱”。虽然科技巨头们还在拼命搞技术迭代升级,但在建立那种大家都认可的“负责任的AI”社会契约上面,他们还有很长的路要走。大多数受访者觉得AI生成出来的内容透明得不行,根本分不清信息是真是假还是带着偏向性的。这种认知上的困惑让大家面对用AI做的金融、医疗还有政府服务的时候,本能地就会产生抵触心理。 与此同时,老百姓对监管机构的不作为也表示非常不满。他们认为现在的法律根本跟不上算法跑得这么快的节奏。这种没有监管的真空地带不仅让社会变得不安定起来,也让那些卖AI的公司在推销产品的时候面临巨大的舆论压力和道德上的审视。负责任的AI主要是指在开发和用的时候多考虑考虑伦理、法律还有社会影响的问题。这就包括要解决算法带来的偏差问题、保护好个人隐私、防止坏人用AI去干坏事等等这些方面的内容。