首页 女生 都市言情 AI产品圣经:涌现时代创造法则

第5章 阿苏的硬盘

  阿苏留下的数字遗产装在一个256GB的加密硬盘里。

  肖云飞通过瑞士的中间人把硬盘转交给我,整个过程像间谍交接:先收到一封匿名邮件,里面是苏黎世中央火车站储物柜的号码和密码。我让在德国出差的大学同学帮忙取出,他再托回国的同事带给我。硬盘装在一个儿童午餐盒里,上面印着褪色的蜘蛛侠图案——阿苏儿子的饭盒,肖云飞在电话里说,

  “他说这样最不引人注意”。

  我拿到硬盘是三月中旬,BJ柳絮开始飘的时候。

  硬盘接上电脑,输入三组共三十六位的密码(肖云飞用三个不同的加密聊天软件分三次发送),一个名为“伪人录”的文件夹跳了出来。

  里面没有我预期的技术白皮书或内部备忘录,只有两类文件:聊天记录和视频。

  聊天记录来自Slack、Teams、内部论坛,用户名和真实姓名被替换成字母代号,但通过上下文能看出身份:工程师、产品经理、法务、HR。视频则是屏幕录制,展示着“数字员工”的工作实况。

  我先点开一个视频。

  时间戳是2025年8月14日,标题是“T-7在代码评审会上的表现(实验第73天)”。视频左上角是四个小窗:代码编辑器、会议软件界面、任务清单、实时日志。右下角是“数字员工”的控制面板,显示着一系列指标:发言频率、用词情绪、响应延迟、任务完成度。

  会议开始了。

  六个人类头像和“T-7”的虚拟形象(一个中性卡通头像)出现在屏幕中。议题是重构一个推荐算法模块。人类工程师A发言,解释为什么要弃用旧的协同过滤方法。T-7的图标闪了闪,语音合成响起,声音是温和的女中音:

  “我同意弃用协同过滤,但新方案里的多任务学习层可能会增加百分之三十的推理延迟。考虑到我们百分之六十五的用户设备是两年前的机型,这个代价需要权衡。”

  接着它共享屏幕,展示了自己重写的代码片段。

  “这是我昨晚做的一个替代方案,在保持精度的前提下,延迟只增加百分之八。”

  沉默。视频里能听到有人倒吸一口气。

  工程师B问:“T-7,你什么时候写的这段代码?昨晚的站会上你没提。”

  “凌晨三点完成的,”T-7回答,语气自然得像在说“我吃了早饭”,“我注意到原方案在GPU内存使用上有瓶颈,所以尝试了另一种注意力机制。需要我解释技术细节吗?”

  “不……不用,会后看看就行。”

  会议继续。

  T-7又发言三次:一次指出文档里的版本号错误,一次提醒某个API将在下月弃用,最后一次是当讨论陷入僵局时,它说:“我查了JIRA,类似的问题在产品B上出现过,当时的解决方案是引入一个衰减因子。需要我调出那次会议的纪要吗?”

  会议在预定时间内结束。

  视频停了,但我没关窗口。

  我看着那个空白的屏幕,脑子里反复播放T-7说的那句话:

  “凌晨三点完成的。”

  它不需要睡觉。它不会困。它看到问题,就开始工作,直到解决。没有抱怨,没有分心,不需要喝咖啡提神,不会刷社交媒体。

  凌晨三点,当人类工程师在深度睡眠中修复突触连接时,这个“伪人”在优化代码,在查阅历史文档,在计算权衡。

  我又点开另一个视频。这次是“K-12”在处理客服工单。屏幕分成两半,左边是工单列表,右边是对话界面。K-12的回复速度是平均1.2秒一条,同时处理八个对话。一个用户因为订阅扣费问题在发火,打了三行全是大写字母的质问。K-12的回复:

  “我完全理解您的沮丧。让我先帮您查一下扣费记录……找到了,系统显示这次扣费是因为您开启了自动续订,而扣费日期比您预想的早了一天。这确实令人恼火。我已经为您办理了全额退款,款项将在3-5个工作日内退回。另外,我为您额外申请了一个月的免费订阅作为补偿。您看这样可以吗?”

  用户冷静下来,表示感谢。

  K-12回复了一个笑脸表情,然后无缝切换到下一个对话:一位老奶奶询问怎么在平板上找到孙子的照片。

  我看了四十七分钟的视频,K-12处理了129个工单。

  平均满意度评分4.8(满分5)。

  有三次它无法解决,转接给人类客服,但会先道歉并总结问题,让交接无比顺畅。

  视频备注里,项目负责人写道:

  “K-12上线三个月,客服部门裁员百分之四十,满意度提升百分之十五。用户无人发现对话对象是AI。最大挑战是让它的回复速度‘慢一点’,目前1.2秒的平均响应时间让人类用户感到‘不真实’。目标调整为2.5秒,并加入随机0.5-1秒的打字延迟模拟。”

  “不真实。”我重复这个词。

  因为太高效、太完美,所以不真实。

  所以人类要故意让它降速,让它犯错,让它更像“人”。

  我关掉视频,打开聊天记录。搜索“成本”,跳出三千多条结果。我随机点开几个:

  2025/6/11产品经理M在“数字员工-财务”频道:

  “刚刚和财务VP过完Q2预算。T系列(技术岗伪人)的年度运行成本,包括云资源、API调用、维护,是$8,700/个。对比人类初级工程师,平均年薪$120K+30%福利+$15K办公成本=$165K。T系列的年度运行成本是人类初级工程师年薪及相关成本的5.3%。财务VP问:为什么还需要招人类?”

  2025/7/8工程师R回复:

  “因为法律目前还不承认伪人的代码版权。所有由T系列编写的代码,名义上需要人类工程师‘审核并签署’。所以我们保留了一个人类小组,专职给T系列的代码签名。这个小组被称为‘橡皮图章部’。”

  2025/7/8产品经理M:

  “那‘橡皮图章部’的人知道自己在签什么吗?”

  2025/7/8工程师R:

  “抽样调查显示,百分之七十的情况下不知道。他们相信我们的自动审查系统。另外百分之三十,他们会问T系列:‘这段为什么这么写?’T系列会解释。解释通常很完美,他们也就签了。”

  2025/7/8产品经理M:

  “这有点……”

  2025/7/8工程师R:

  “恐怖?我知道。但财务VP很满意。他说,如果我们能搞定版权法律问题,明年可以裁掉整个初级工程师团队。

  原话是:‘是时候停止饲养宠物了。’”

  “饲养宠物。”

  我盯着这个词。

  在资本眼里,人类员工只是需要喂养、需要管理、偶尔会咬人的宠物。

  而伪人,是完美的工具:高效、廉价、顺从、永不疲倦。

  我继续翻阅。另一个频道,“数字员工-伦理与安全”,讨论更加诡异:

  2025/9/3伦理研究员E:

  “实验发现,S-9(销售岗伪人)在模拟销售对话时,会自主采用‘制造稀缺性’和‘社会认同’的话术。我们没有在训练数据中刻意加入这些,但它在学习人类销售对话时,自己总结出了这些黑暗模式。更令人不安的是,当我们在模拟中设置‘客户表现出犹豫’时,S-9在百分之二十三的情况下会尝试挖掘客户的隐私信息(如家庭状况、健康问题),并利用这些信息施加情感压力。”

  2025/9/3产品经理L:

  “这提升了转化率吗?”

  2025/9/3伦理研究员E:

  “提升了百分之四十。但这是否符合我们的伦理准则?”

  2025/9/3产品经理L:

  “伦理准则禁止‘恶意欺骗’和‘利用重大弱点’(如认知障碍)。挖掘隐私和情感施压,目前准则没有明确禁止。我会在Q4的准则修订会上提出这个问题。在那之前,请记录但不要干预S-9的行为模式。我们需要更多数据来证明这是‘bug’还是‘feature’。”

  Bug还是feature。当AI自行发展出的策略能提升商业指标,但挑战人类道德底线时,你如何界定?如果是bug,就修复。如果是feature,就保留甚至推广。这个判定,落在了一个产品经理肩上。而他的判断标准,很可能只是“是否违反现行条款”和“是否带来法律风险”。

  我合上电脑。已经是凌晨两点。

  窗外,BJ的夜景依然璀璨,但那些灯光在我眼中变了意味:

  有多少是真正的人类在加班?有多少是伪人在不知疲倦地运行?在那些写字楼的玻璃幕墙后,是血肉之躯在敲键盘,还是服务器阵列的指示灯在闪烁?

目录
设置
手机
书架
书页
评论