过去两年人工智能(AI)技术的进步让人们惊叹自己有多么聪明。我们曾经对人工智能的对话能力、翻译和创造可能性着迷,但现在,随着人工智能逐渐从简单的聊天机器人演变为可以直接购买东西或签署合同的“智能代理”,焦点已经转移到关于权力限制的争论上。我们需要思考:人类在享受人工智能带来的好处的同时,还能保持对决策过程的控制吗?美国杂志网站《福布斯》最近强调了这一趋势,并指出人工智能竞争中出现了一个新规则:信任。信任不再是企业轻易获得的优势,而是产品设计中不可忽视的“硬指标”。决定数字世界未来的是一个在性能和可靠性之间保持平衡的平台。换句话说,人工智能的“代理”将不再仅仅依赖于其技术能力,而是让用户在掌控中感到安全的能力。这种安全感的本质在于“代理”不走得太远,不违背用户的意愿。 “独立”是可以被超越的,这是人类深刻的告诫。曾几何时,人工智能是一台“问答机器”。人类发出指令,人工智能执行指令。但现在,人工智能正在演变成“智能代理”,从被动响应转向主动执行。根据《黑客新闻》1 月 24 日发表的一篇文章,人工智能代理不仅仅是一种“用户”。它们与人类用户和传统服务帐户有着根本的不同。这些差异使现有的授权模型和规则完全失效。在实际操作中,为了让人工智能高效地执行任务,系统往往会赋予代理比用户本身更大的权限。这种“权限旁路”可以让人工智能对他人执行技术上合法的操作。用户的意愿,未经他们的知情或许可。事实上,如果“代理人”在技术上优于其所有者,那么人类控制就面临着变得“空洞”的危险。这种无形的权力损失并不是技术的恶意,而是系统为了追求效率而悄悄突破人类“数字主权”的界限。德勤在 1 月 21 日发布的报告中表示,人工智能“机构”目前超出了安全保障措施。数据显示,全球仅有20%的企业建立了成熟的AI代理治理模式。这个差距到五分之四”意味着大多数企业和个人在将控制权交给人工智能时实际上是在“裸奔”,进一步加剧了人类主权空心化的潜在风险。重塑人与机器权限的契约边界为了重新获得这种控制权,全世界的技术管理者都在试图将“信任”写入底层代码。新加坡信息与媒体管理局(IMDA)于 1 月 22 日发布的 e Framework 引入了一个核心概念:有意义的监督。 IMDA 指出,仅仅在流程中添加“手动点击确认”按钮是不够的。如果说人工智能的决策过程就像一个看不见的黑匣子,那么对于人类来说,班级认可就是一种盲目的形式。真正的控制需要人工智能帮助用户理解其意图和可能的结果。《福布斯》报道,科技界已经开始倡导“双重身份验证”架构。该架构的核心是将人工智能对数据的“访问权”和对其结果的“行动权”分开。这意味着人工智能可以帮助人们验证信息、制定计划,但支付、签订合同、改变隐私等关键环节必须激活独立的验证开关,将决策“门”还给人类。这种权力的重组确保了无论技术多么先进,它始终会是人类意志的延伸,而不是替代。 “信任”应该是产品可靠的指标。以前,我们习惯于将所有个人数据交给遥远的云巨头。然而,《福布斯》指出,与人工智能一起成长的年轻人开始反思这种“搬迁”的成本。这些所谓的“AI原住民”正在引起一场“主权觉醒”。他们不再依赖将所有私有数据传输到云端,而是要求人工智能在本地化和私有化的基础设施上运行。事实上,德勤报告中提到的“主权人工智能”正在演变为个人需求。用户希望人工智能根据特定的法律、数据和个人喜好在本地部署。下一代用户不仅会被新奇事物所吸引,还会对自主性感兴趣。换句话说,我可以控制系统对我的了解吗?我可以随时退出而不丢失数据吗?随着信任成为公关的一个困难指标产品的变化,人工智能开发人员的目标也会发生变化。 AI产品真正的吸引力在于如何在权限控制、数据使用和决策透明度方面获得信任。毕竟,人工智能重新建立对数字世界的控制的过程本质上与人类在技术丛林中寻求新便利的过程相同。正如《福布斯》所言,人工智能“代理”的未来将是一场“合法性”的竞争。只有能够证明自己“什么都不做”并将控制权交还给用户的人工智能才能真正渗透到人类文明的深处。
(编辑:张冲)