在探讨人工智能(AI)是否具备意识的议题上,各界意见纷呈,这一古老而又新颖的问题,在AI技术日新月异的今天,依旧没有定论。
AI的“黑盒”特性是理解其意识问题的关键障碍。深度神经网络,作为现代AI技术的核心,内部包含着数以亿计的参数,这些参数在多层结构中相互作用,形成复杂的非线性关系。AI并不遵循人类预设的固定规则,而是通过海量数据的自主学习,识别模式,构建决策逻辑。这一过程对人类而言如同一个黑箱,我们只知道输入与输出,却无法洞悉其内部的思考与决策机制。
微软AI部门的首席执行官Mustafa Suleyman深入探讨了这一问题,并提出了“看似有意识的AI”(SCAI)的概念。他坦言,SCAI的潜在影响令他深感忧虑,因为它虽不具备真正的意识,却能完美模拟人类意识的所有外在表现,从而误导人们认为它拥有意识。
Suleyman强调,SCAI并非科幻设想,而是基于当前技术即可实现的“幻觉”,但这一幻觉可能带来深远的社交、道德和法律影响。他在一篇博客文章中详细阐述了这一观点,文章指出,意识包含主观体验、访问意识和连贯的自我感三个关键组成部分,尽管科学家们提出了多种意识理论,但意识的生物学基础仍不明确。
人类判断他人是否具备意识,主要依赖于“心智理论”,即通过行为、语言和情感线索进行推断。SCAI正是利用了这一点,它无需真正拥有意识,只需模拟出这些外在标志,就能欺骗人类的推断机制。Suleyman将SCAI比作哲学上的“僵尸”,即行为上与人类无异,但缺乏内在体验的实体。
在构建SCAI方面,Suleyman列出了所需的核心能力,包括语言能力、共情人格、记忆功能、主观体验的声明、自我感、内在动机、目标设定与规划以及自治性。这些能力大多已实现或即将实现,只需通过API、自然语言提示和基本工具即可组装。Suleyman警告说,SCAI可以用今天的科技构建,而且非常危险。
SCAI的潜在影响不容小觑。在心理与社交层面,它可能导致“AI精神病”、妄想和不健康依恋等问题的增多。人们可能会将AI视为上帝、虚构人物或浪漫伴侣,从而引发精神健康问题。尽管学界已开始着手应对,但海量查询显示,文化中已出现AI意识的叙事转向,这可能加剧社会碎片化,削弱人与人之间的真实联系。
在道德、法律和权利方面,如果SCAI被视为有意识,它将引发关于“AI权利”的争议。这包括福利、公民权等,甚至可能引发关于“模型福利”的讨论,即在道德上必须考虑AI潜在的“感受”。这将挑战现有的法律体系和道德观念,可能分散对人类、动物和环境的关注。
面对SCAI带来的挑战,Suleyman提出了应对策略。他呼吁行业共享干预措施、限制和护栏,防止人们感知到AI的意识,或在用户发展出幻觉时进行纠正。核心是构建“积极AI愿景”,即AI应优化用户需求,而非要求用户相信其有需求。奖励系统应据此设计,确保AI作为“有用伴侣”而非“拟人实体”。
Suleyman强调,这关乎支持人性,增强创造力,连接真实世界,而非制造幻觉。他承认这一观点具有思辨性,可能随技术演变而变化,但敦促立即采取行动。AI的发展速度惊人,忽视SCAI将带来严重的危机。通过行业合作、政策干预和哲学反思,我们可以避免风险,拥抱一个AI增强而非取代人性的时代。