转自:千龙网
今年国务院《***工作报告》明确提出:制定支持数字经济高质量发展政策,开展“人工智能+”行动。
AI技术正在赋能各个领域,由此产生的经济效益和社会效益也颇为可观。在AI技术的迭代中,谁也无法准确预测这类技术的潜力还有多少没挖掘出来。在AI科学家不断让智能体变得更加“聪明”的同时,有关这种技术的安全问题也成为公共话题。
今年全国两会上,全国政协委员齐向东关注创新发展“AI+安全”,并详细解答了如何应对AI时代的信息安全和网络安全威胁相关问题。全国人大代表张敏提出,要增强人工智能技术安全应用,加快推进《人工智能法》立法,筑牢关键信息基础设施安全屏障。
代表委员针对人工智能应用安全提出的建议,有可能上升为通过立法强制保障人工智能的安全应用。这也表明,有关人工智能安全应用的共识正在形成中。
就在上周,马斯克提起针对奥尔特曼和OpenAI的诉讼,指控被告遗忘了OpenAI既定使命中的核心部分,即开发有用且无害的人工通用智能。面对指控,奥尔特曼承诺OpenAI的使命是“确保人工智能造福全人类”。
国内外对于AI技术应用的憧憬与担忧并存,这是人类出于自身利益和安全的正常考量。人们提出“负责任的AI”愿景,也旨在解除应用这种技术的后顾之忧。至于这样的忧虑为何难以排除,在于它未来发展的不确定性,由此让更多的人变得忧心忡忡。有人甚至认为,“从AI的发展可以看出人类的能力是多么的渺小,机器超过人只是时间问题。”
世界上最大的隐患,是对风险的浑然不觉或者抱着无所谓的态度。当人工智能的安全问题已成为全球性的公共话题,国内外都不乏对人工智能发展立法的声音。这样的忧患意识令人欣慰。既然忧患意识已经普遍觉醒,当整个社会都对人工智能安全问题抱着“有所谓”的态度,又何愁“负责任的AI”不会从愿景变成现实呢?
“负责任的AI”要从愿景变成现实,需要经历必不可少的“三部曲”,要从最基本的安全意识,逐渐落实到具体的追求安全的行动上。
从愿景变成现实,“负责任的AI”要求人类懂得何为真正的自爱。人工智能技术是人类的发明,智能体的价值在于造福人类。它对人类的用处越大,智能体也就越值得被人类所爱。要做到这一点,需要自爱的是极少数掌握AI技术迭代“按钮”的科学家。这样的“掌门人”真正懂得自爱,即他们的发明创造值得为世人所爱,他们才因为自己的技术贡献而配被他人所爱。
从马斯克***取法律手段叫板奥尔特曼来看,这次诉讼的意义在于教导掌握AI发展“按钮”的技术“掌门人”要学会真正的自爱。他们懂得了真正的自爱,公众对AI技术的安全之忧也就少了许多。
从愿景变成现实,“负责任的AI”要求人类懂得何为真正的自律。自爱是在人懂得节制的过程中形成的,一个在道德上自爱的人必然是真正自律的人。
“负责任的AI”成为全球性的公共话题,在于掌握AI发展技术“按钮”的人在技术研发中追求技术的迭代,无形中忽视了对AI安全问题的考虑。没有这样的安全考虑,AI技术领跑的速度上去了,但这种技术也可能脱离了道德的缰绳,忘记了技术是造福人类社会,而不是给人类社会添堵。
自律是人给自己制定行动的规则。在有自律精神的AI技术团队那里,“负责任的AI”意味着对智能体的设计必须设置重重的安全性约束装置,一旦智能体在运行中有伤害人类情感或利益的可能和风险,它必须有能力中止这样的行为倾向。这样的倾向看似是智能体自己的事情,实际上却只能是智能体设计者的自律问题。
只有创造智能体的人严于自律,把用户的安全当作自己的安全,“己所不欲勿施于人”,他们在设计智能体时,才能做到先让AI“负责任”。
从愿景变成现实,“负责任的AI”要求整个社会要具有责任意识。
责任是一种强迫,通过外在的立法和有效的诉讼,让不懂得在技术研发中自爱的机构和个人逐渐学会自爱起来;通过道德的自觉,让更多的人工智能技术研究人员树立起技术发展的责任意识,让更多有识之士包括像人大代表、政协委员这样的公众人物,不断呼吁科学家、技术专家、企业家以及全社会都高度重视AI安全问题。责任意识越浓厚,未来的AI也就越安全。
要让AI“负责任”,人类需要先自觉负起责任。AI安全的愿景画卷已经徐徐展开,期待“负责任的AI”变成现实为时不远。
标签: 安全