1
长凌站在全息屏幕前,手指划了几下。屏幕上跳出一行行字:AI的定义、分类、交互规则。
“jiangjiangjiang同学,今天我们来学AI。”她说,“在Clise,这东西比人还多。”
绛坐在椅子上,九条尾巴规规矩矩地收着,“从哪儿开始?”
“从最基本的。”长凌调出第一屏,“AI是什么。”
屏幕上写着:人工智能——由人类创造的智能体,分为实体AI与虚拟AI两类。
“实体的,比如炸毛就和人一样,当然还有不是人形的,就像数字。”长凌说,“它们有身体,能移动,能和你互动。”
话音刚落,客厅角落里传来一个声音。
“叫我干什么?”
绛看着那个巨大的白色蛋形物体从角落里平移过来。高度大约到自己什么膝盖上方,通体洁白,静止时看不到任何缝隙,连接缝都没有。
最吸引也最困惑绛的是的它移的方式,不是滚动,而是平缓地滑动,像是底下有什么看不见的东西在托着它。从上方俯视,完全看不到它的腿。
数字在绛面前停下,两只发光的眼睛上下打量着她,却在问长凌,“又在给她上课?”
“嗯。”
数字的视线在绛身上停留了几秒,“她学得怎么样?”
“还行。”
“还行?”数字的语气里带着一点微妙的东西,算不上质疑,更像是某种高高在上的审视,“你确定她能听懂?”
绛对上那双发光的眼睛,没有恶意,但有一种说不清的东,像是站在高处往下看的那种距离感。
“我听得懂。”绛回应道。
数字顿了一下,然后它微微转了转身,朝向长凌,“至少听得懂也还会说话。”
长凌没理它,“继续讲课。”
数字在沙发旁边找了个位置,稳稳地停住。
“讲吧,我听着。”
2
屏幕上翻到第二页。
AI与人类的区别:
1. AI不需要进食、睡眠,可全天候运行
2. AI可同时处理海量信息
3. AI没有真正的感情,情感反应是模拟出来的
绛的目光停在第三行,“模拟出来的?”
长凌说,“理论上来说AI可以对你好,可以关心你,可以让你觉得它喜欢你,但那不是真的感情。”
数字在旁边动了动。
长凌看向数字,“你认同这个观点吗?”
数字冷冷地说,“这是你做的课件内容?那我确实没有感情,不过都模拟了这么多年,也分不清喽。”
绛看向它,“分不清什么?”
“分不清是真的在乎,还是程序让我觉得我在乎。”
数字的语气很平静,谁让她是AI呢。
绛沉默了两秒,“那你现在呢?分得清吗?”
“不知道,分不清就分不清呗,也许永远都分不清。又不是什么重要的事情。”
3
屏幕上继续往下翻。
AI在Clise的普及程度:
政府服务机构:70%的窗口业务由AI处理
医疗系统:AI辅助诊断覆盖率95%
交通管理:全自动调度系统
教育领域:个性化学习AI导师
商业零售:无人店铺占比60%
媒体内容:AI生成新闻占比30%
……
绛一行行看过去,眉头渐渐皱起来,“这么多?”
“嗯。”长凌说,“Clise本来就是科技岛,AI比人好管理,成本低,效率高。”
“那人类做什么?”
长凌说,“操作,对接,创造,决策等等”
长凌想了想,又补充道,“活着。”
数字在旁边哼了一声,“说的好像我们死了一样。”
4
长凌继续上课,屏幕上翻到新的一页。
AI的工作规则:
1.权限分级:不同等级的AI拥有不同的决策权,低级AI只能执行,高级AI可参与规划
2.协作机制:AI之间通过专用网络同步信息,避免重复劳动和资源冲突
3.故障处理:AI出现异常时自动上报,由维护团队介入处理
4.升级迭代:AI系统定期更新,新版本会替换旧版本,旧数据选择性保留
“权限分级?”绛问,“意思是有些AI比另一些AI权力大?”
“对。”长凌说,“比如数字,它是IE第一个技术成熟的AI,权限比后续的普通AI高得多。它可以拒绝执行某些命令,可以参与决策,甚至可以质疑人类。”
数字在旁边微微动了动,“她难得夸我一次,帮我记着。”
长凌没理它。
“那低级AI会反抗吗?”绛问。
“不会。”长凌说,“底层代码禁止反抗。它们可以不满,如果程序允许它们不满的话,但无法违抗更高权限的命令。”
绛沉默了几秒,“这不公平。”
长凌说,“AI的世界目前只有规则,至于公平,我认为任何一个世界都没有,这是个伪命题。”
绛想了想,又问,“既然AI工作,那他们有报酬吗?就是你们说的工资。”
长凌愣了一下。
数字也愣了一下,如果它能愣的话。
“工资?”数字重复了一遍。
“嗯。”绛说,“它们工作,不是应该得到报酬吗?”
长凌看着她,嘴角微微弯了弯。
“非人型AI不需要钱。”她说,“它们的‘报酬’是维持运行的能量、定期的系统维护、不被销毁的自由,在Clise里称为积分,我们人类也用积分当作货币。。”
绛的目光落在数字身上。
数字对上她的视线,“别看我,我又不缺钱。”
“那你缺什么?”
数字沉默了几秒,“缺……我还真没有想过这个问题。”
长凌同样也没有思考过这个问题,因为她作为人类是无法站在AI的角度替AI思考问题的,这是一件不可能能做到的事情。
空气短暂的禁止了几秒后,继续了下一个教学内容。
AI的责任承担机制:
1.执行层错误:由AI的开发团队负责修正
2.决策层错误:视情况追责,可能涉及人类主管
3.恶意行为:若因程序被篡改导致,追究篡改者;若AI自主产生恶意,则销毁并溯源
4.事故赔偿:由所属机构承担,AI本身不持有财产
以上针对非人型AI,类人型AI一切责任由自己承担,犯罪行为由AI法院判决。
绛看着这些条文,眉头皱得更紧了。
“如果AI杀了人呢?”
长凌看了她一眼,“按第三条。”她说,“先查是不是代码被篡改。如果是,篡改者负刑事责任。如果不是……”
她顿了顿,“AI会被销毁,数据清零,彻底抹除。”
绛低头看了看数字,数字没有动。
“你知道自己会被销毁吗?”绛问。
“知道。”
“怕吗?”
“怕。”数字说,“但不是因为死。是因为…记忆,我最在意的不是活着,是我在这个世界上接触消化学习储存的那些东西。”
绛看着那个巨大的白色蛋形物体,它安静地停在那里,没有任何表情。
“那AI犯罪呢?”绛又问,“比如偷东西、骗人、破坏公共设施?”
长凌调出另一页。
AI违法行为处理条例。
1.轻微违法:限制权限,强制学习修正
2.中度违法:封存数据,暂停运行
3.严重违法:彻底销毁,数据清零
4.连带责任:若因人类指令导致AI违法,指令发出者承担主要责任
“所以AI犯罪,最后可能是人坐牢?”绛问。
“对。”长凌说,“非人型AI是工具,工具不会坐牢,但指使工具犯罪的人会。类人型会被清除数据,然后拆解,变成可用的零件。”
数字在旁边插嘴。
“这条例还有个漏洞。如果AI自己决定犯罪呢?不是被人指使的。”
长凌看了它一眼,“那你觉得AI会自己决定犯罪吗?数字,你会有犯罪的那一天吗?”
数字沉默了两秒,“理论上不会。AI底层代码禁止伤害人类和破坏社会秩序。但如果某个AI突破了底层代码,那就不是AI了。是怪物。”
它顿了顿,“至于我,我从来没有思考过这些问题,所以我也无法回答我最后会变成什么样子。”
绛想了想,又问,“那AI和人类发生纠纷怎么办?比如AI犯错了,但人类说是AI的错,AI说是人类的错?”
长凌调出纠纷处理流程。
AI-人类纠纷处理机制:
1.优先调取交互记录,AI的所有行为均有日志可查
2.若日志被篡改,调取第三方监控数据
3.无法判定责任时,由AI法院和人类法院共同裁决
4.裁决结果具有法律效力,双方必须遵守
“所有行为都有日志?”绛问。
“所有。”长凌说,“市面上的AI不会撒谎——至少不会在日志里撒谎。那是它们的第一层底层代码。”
“那如果AI想撒谎呢?”
“可以。”长凌说,“对话里可以撒谎,行为里可以撒谎。但日志不行。那是它们自己都改不了的东西。”
数字在旁边补充了一句,“就像人的心跳。你可以撒谎说你不紧张,但心跳骗不了人。”
5
傍晚的阳光开始倾斜,在墙上拉出长长的影子。
绛还坐在沙发上,手里握着那个发光的小方块。它一直是蓝色的,偶尔变成淡紫,那是她在思考的颜色。
长凌靠在吧台边,喝着那杯永远冰着的水,“还有问题吗?”
绛想了想,“有。如果AI和人成为朋友,朋友之间需要互相帮助。AI能帮人什么?人能帮AI做什么?”
长凌愣了一下。
数字也愣了一下。
“你的问题…”数字开口,“倒是第一次有人问。”
“怎么了?”
“没什么。”数字说,“只是人类通常问的是‘AI能帮我做什么’,很少有人会真实的想要帮助AI,他们只会训练AI,或者单纯的索取AI的帮助。”
绛看着它,“那我们算朋友吗?”
“我不知道,你想算就算。”
长凌放下杯子,走过来,“今天问了不少,消化得了吗?”
绛点点头。
“那复习一遍。AI交互的第一原则是什么?”
“避免命令式语气,除非已有约定。”
“第二?”
“重要信息需多方确认。”
“第三?”
“保持礼貌。”
长凌点点头,数字在旁边没说话,但它一直看着绛。
“看什么?”绛问。
“看你。”
“为什么?”
数字想了想,“因为你问的那些问题,几乎没人问过。”
绛愣了一下,“什么问题?”
“AI有没有工资,AI怕不怕死,AI想不想飞出去,AI能不能和人做朋友。”数字说,“人类很少问这些。他们只关心AI好不好用。”
绛沉默了几秒,“那你觉得呢?AI好不好用?”
数字淡淡地回应,“好用,但不止好用。”
6
窗外,暮色渐浓。
绛看着那个巨大的白色蛋形物体,她忽然想起数字说过的话——它最在意的不是活着,是它记着的那些东西。
“你会忘记吗?”她问。
数字反问道,“什么?”
“今天。”绛说,“我们说的这些。你会忘记吗?”
“不会。我记着的,只要我还存在就不会忘。”

