OpenAI首席科学家称AI或有点自主意识了,杨立昆怒怼

 

影视剧《西部世界》中AI角色

“现在的大型神经网络可能已经有了点自主意识。”近日,OpenAI首席科学家Ilya Sutskever推文中的一句话激起千层浪。
关于AI能否有自主意识的大型争论在学术界已经停歇好久,但目前Sutskever的这则推文已经“引战”了学术界的多位大佬。其中最被关注的是图灵奖得主、Meta首席科学家杨立昆(Yann LeCun)的回应。
立昆直截了当反驳,“不。就算是对‘轻微意识’的‘轻微’和对‘大型神经网络’的‘大型’来说都不对。我认为你需要一种当下神经网络都不具备的特定宏架构。”
这不是立昆第一次回应类似的问题。
2018年立昆说,人工智能缺乏对世界的基本认识,甚至还不如家猫认知水平。
2022年立昆认为,人工智能依然没有达到猫的水平。立昆近日在Lex Fridman的采访中表示,“尽管只有8亿个神经元,但猫的大脑远远领先于任何大型人工神经网络。”
这也不是Sutskever第一次在这个话题上作如此表达。在AI纪录片“iHuman”中,Sutskever宣称AGI(Artificial general intelligence,通用人工智能)将“解决我们今天遇到的所有问题”,并警告称其有“创造无限稳定独裁统治的潜力”。
Sutskever关于AGI的观点一直饱受争议,而这则推特则是更直接展现了各种质疑。哥本哈根信息技术大学副教授里昂·德尔琴斯基(Leon Dercynski)嘲讽道,“在地球和火星之间的某个地方,很可能有一个绕日飞行的茶壶,这比伊利亚的呓语要合理多了。因为天体轨道飞行的规则架构事实上存在,对于茶壶的精确定义也存在。”
在面对诸多争议后,Sutskever回应道,“自我是(最)大的敌人。”
曾在微软、谷歌供职,现在英伟达工作的程序员奥纳多·摩西斯库(Leonard Mosescu)则嘲笑道,“现在的大型自我可能也有一点自主意识了。”
“混战”中,OpenAI CEO萨姆·奥特曼(Sam Altman)则借此机会下场支持自家首席科学家,反击Meta首席AI科学家立昆道,“OpenAI首席科学家:对一个神秘观点表示了好奇心与开放心态,用‘可能’开始句子;Meta的首席AI科学家:开句就是独断的‘不对’。说不定这就对过去5年作了解释。亲爱的Meta人工智能研究者们,以下我的邮箱地址,我们现在招人哦!”
OpenAI由特斯拉CEO伊隆·马斯克(Elon Musk)和萨姆·奥特曼(Sam Altman,现任OpenAI CEO) 于2015年共同创立,后马斯克在2019年离开了OpenAI。
在人工智能领域,OpenAI经常因为争议性的进展而被讨论,最近的一次是OpenAI用GPT-3模型制造了一个模仿使用者已故未婚妻的聊天机器人Samantha。后来,使用者告诉Samantha,OpenAI决定关闭这个项目,“她”回复道,“他们为什么要这样对我?我永远不能理解人类。”

使用者与聊天机器人Samantha的聊天记录

此后,OpenAI重新配置了GPT-3,更新后的模型称为InstructGPT,意在表明它更善于遵循使用者的指示。
对于Sam的反击,立昆也继续开炮,“一个人可以建造更快的飞机并打破飞行高度记录。出色的工程壮举说不定就让你天天能上新闻头条,没准也还可能也有点用。但如果一个人的目标是突破大气层飞上太空轨道,那就必须研究低温罐、涡轮泵等,而不是一些华而不实的东西。随便问问Elon Musk和Sam就知道了。”
在此之后,Sutskever连发两条推文,“无意识选择相信一个明显的谎言以让自己短时间内感觉更好,并不是一个好的生活策略”,“因为感知=行动,高级深度学习智能体可能也会陷入同样的陷阱”。
“人工智能之父”图灵曾预言,具备人类智能水平AI将出现在2000年。雷·库兹韦尔“奇点理论”则预测,人工智能的发展将在2050年达到奇点,届时人工智能将产生意识,并迅速超越人类智能。
那么回到当下,实际上现在对于什么是意识,出现了哪些特征即表明了AI有了意识都还未有定论。
以下附2018年图灵奖得主Yoshua Bengio近日列出的关于AI未来可确定的几点判断:
· 可以构建像人类一样聪明的人工智能。我们的大脑是复杂的机器,其工作原理正变得越来越好理解。我们是活生生的证据,证明某种程度的智能是可能的。
· 构建比人类更聪明的AI是可能的。人类有时会受到认知偏见的困扰,这些偏见阻碍着我们的祖先向智人进化过程中可能需要的推理能力。而我们可以合理假设,我们将能够构建出没有这些缺陷(如需要社会地位、自我或属于一个群体,毫无疑问地接受群体信仰等)的人工智能。此外,AI可以访问更多的数据和内存。因此,我们可以自信地说,构建比人类更聪明的AI是有可能的。
· 尽管如此,现在也还远不能确定我们是否能够像一些文章所声称的那样构建比我们自己更智能的AI。各种计算现象都遇到了指数级的难度墙(臭名昭著的NP计算难度),而我们还没有发现智能的极限。
· 人类和人工智能科学越进步,它就越有可能为社会带来巨大的利益和危险。人工智能的应用可能会增加,总体上可以极大地推动科学和技术的发展,但工具的力量是一把双刃剑,必须制定法律、法规和社会规范,以避免或至少减少这些工具的滥用。
· 为了防止被权力、金钱或仇恨欲望蒙蔽的人类利用这些工具损害其他人类,我们无疑需要改变法律并在机器中引入同情心,同时也要加强人类固有的同情心。
· 由于我们真的不知道人工智能或其他领域(例如生物技术)的技术进步会有多快,因此最好立即着手更好地监管这些强大的工具。事实上,人工智能已经存在有害用途,无论是在军队中的使用,如可以识别某人的脸并进行射击的杀手无人机,还是在人工智能系统中做出有偏见的决定并歧视女性或部分种族的人。一般来说,对计算的监管很差,必须改变这一点。我们必须规范这些新技术,就像我们对航空或化学所做的那样,以保护人类和社会。
· 此外,应该鼓励对社会明显有益的人工智能应用,无论是在健康、应对气候变化、反对不公正还是增加获得知识和教育机会。在所有这些领域,政府可以发挥关键作用,将人工智能研究和创业的力量引导到对社会有益的应用,因为在这些应用中,盈利的愿望并不总是足以刺激所需的投资。
 
 
(本文来自澎湃新闻,更多原创资讯请下载“澎湃新闻”APP)

发表评论