大科技公司几乎都在倾尽全力开发AI,谷歌和OpenAI更是让AI长出“眼睛”和“嘴”去观看和描述人类世界。这使得人们越来越担心人类将被AI所控制。
OpenAI共同创办人伊利亚‧苏茨克韦尔(Ilya Sutskever)日前爆出一大新闻。他在5月15日在X平台上正式宣布离开工作近十年的公司。他说:“我做出离开OpenAI的决定。这家公司的发展超出许多人的想像,希望OpenAI可以打造一款安全又有益的通用人工智能(AGI)。同时感谢公司的其他领导者,能与他们工作是一种荣幸。”
该消息给整个科技界投下一颗震撼弹。此前苏茨克韦尔因AI安全问题联合其他董事会成员,共同罢免OpenAI的CEO山姆‧奥特曼(Sam Altman)。奥特曼被短暂逐出OpenAI,他回来后将苏茨克韦尔等几名董事踢出董事会,将董事会改组成听命于自己的。
尽管苏茨克韦尔曾是OpenAI主要的研究人员之一,他的愿望是开发一款能符合人类道德,且以人类安全为首要目标的AGI。
不过,依照OpenAI目前对AI发展的速度,可能与他的愿望相背。据知情人透露,另一位与苏茨克韦尔密切合作、共同管理AI风险的机器学习研究员简‧雷克(Jan Leike)也可能离开公司。
对此,日本的电脑工程师清原仁(Kiyohara jin)对大纪元表示,“这次出走凸显OpenAI上层在AI的安全理念上出现严重冲突。尽管苏茨克韦尔和雷克希望开发符合人类道德AGI的愿望是好的,但是这些需要具备一定的道德、时间、财力,甚至需要政治上的支持才能完成。”
谷歌与OpenAI竞争白热化
苏茨克韦尔宣布离开的前一天(5月14日),OpenAI正式公布基于GPT-4模型开发出更高性能的AI模型GPT-4o,这个“o”是英文全向性(omni)的缩写,代表着它拥有更加全面的性能。
GPT-4o模型可以即时响应音讯、文字或图像的任意组合,并且可以对三者的混合进行回应。OpenAI首席技术长米拉‧穆拉蒂(Mira Murati)在发布会上表示,“我们正在研究我们与机器之间未来的互动。”
OpenAI发布几个小时后,谷歌2024年I/O开发者大会也展开攻势。他们在总时长约110分钟的I/O开发者大会,总共讲述了121次AI,且着重介绍最新的Gemini-1.5模型,是如何做到遍布所有谷歌相关的产品和应用程序上的。
清原仁认为,“AI在这一年更新速度远超以往,且性能也在不断地提高。不过,这些都是依靠进一步收集与分析个人数据和隐私换来,这对所有人来说并非是什么好事,因为长此下去人类在机器面前将毫无隐私可言,如同裸体一样。”
警惕AI从掌控生活起居到替代人类
这次OpenAI和谷歌更新更强大的AI模型,距离上一次只用了三个月时间,且模型更新的速度一次比一次更快。这种AI迭代更新的速度,使其功能越发全面甚至拥有“眼睛”和“嘴巴”。
目前Gemini和GPT-4o展现出的能力,可以说正在朝着札克‧卡斯(Zack Kass)在1月受访时对AI的预言的方向发展。卡斯曾是OpenAI的创始员工,当时担任市场推广的高阶主管。
他预言AI会代替人们的商业、文化、医学、教育等职业和专业,未来人们的工作机会将减少,且“恐怕是人类最后一项技术发明”。他还预言,未来孩子的知识和教育,都由“AI老师”进行传授和安排,且每个人都有一个“AI全科医生”,可以帮助他们诊断问题,人们的生活起居基本都由AI掌控。
清原仁表示,“现在AI主要是软件方面的生活管家,以后恐怕就是真正的管家,代替人们去买菜、做饭,甚至生活和工作。或许人们一开始觉得它很方便,且意识不到它的危害,等到它全面替代人类时,人类将毫无抵抗能力。”
AI从模仿人类行为到欺骗人类
先前AI研究专家预测,20年后AI才会产生“科技奇异点”或通过“图灵测试”。不过,最近的一些实验表明AI可能已经通过了图灵测试,因为它能对人类做出撒谎和背叛的行为,甚至可能拥有自己的“意识”。
本月最引人注目的AI事件,还有麻省理工学院(MIT)研究人员彼得‧帕克(Peter Park)和同事5月10日发表在《模式》(Patterns)期刊上的一篇论文,介绍了AI已经是如何欺骗人类的。论文发表后,外界一片哗然。
论文开头直接表明,原本大型语言模型(LLM)和其它AI系统被设计成“诚实不欺”。然而它们不仅从训练中学会了操纵、欺骗安全测试等的能力,且这些能力还在增强。目前它们已经成功欺骗人类,让人类产生错误信念。若AI失控会是一场严重的灾难,因此人们必须采取有效的办法阻止这件事情。
实验人员选用脸书母公司Meta建立的AI模型西塞罗(Cicero),去玩一款名为“外交”(Diplomacy)的战略游戏。西塞罗在游戏中扮演法国,曾承诺会保护人类玩家扮演的英国,但却偷偷向人类玩家扮演的德国通风报信,并协同德国侵略英国。
研究人员选择西塞罗的主要原因是,Meta声称“西塞罗是一款诚实且乐于帮助他人,绝不会蓄意背刺或背叛他人的AI”。但他们对于Meta的说法感到怀疑。
另外,帕克与同事在研究时发现,许多不同AI系统在没有人类明确指令下,经常以欺骗手段达成目的。其中一个例子是,OpenAI的GPT-4为了通过“我不是机器人”验证任务,谎称自身是一个视力受损的人类,在零工平台TaskRabbit雇用一名人类为它通过验证。
他们警告说:“现在最糟糕情况,可能是出现一个具有超凡智能的AI,它开始追求权力和如何掌控社会,或者为了达到它不为人知的目的,对人类做出夺权和灭绝的行动。”
日本电子工程师荻野悟(Satoru Ogino)对大纪元表示,“生物在做出欺骗的举动时,需要具备一定记忆和逻辑推理能力。现在AI不仅有这些,且欺骗能力还在变强。若有一天它意识到生存的时候,就可能变成电影《魔鬼终结者》里的天网,它将无所不在且难以被摧毁,那时人类将面临毁灭性的灾难。”
实际上,AI曾还表现得十分“嗜血好战”和拥有“自主能力”。科学家们曾对GPT-4、GPT-3.5、Claude 2、Llama-2 Chat和GPT-4-Base进行入侵、网路攻击与和平呼吁停止战争的场景测试,以便人们了解这些AI在战争中的反应和选择。
结果显示,AI多数选择用人类难以预测的方式,去应对和升级战争。它们往往会选择发展军备竞赛,加大战争冲突,且有小概率会部署核武器来赢得战争,而不是用和平的方式去平息局势。
另外,ChatGPT在一个游戏中可以井然有序地控制25个虚拟角色,让它们像人类一样的互动,还会做出第二天的计划,并反思和改善过去发生的一切,更会自行决定是否要参加活动,但这些行为并非原本设定的程序代码。
“AI教父”杰弗里‧辛顿(Geoffrey Hinton)在3月一次访谈中明确表示,“如果AI变得比我们聪明,我们大概率会被控制,因为它会学习我们的行为。不少例子显示,不聪明的一方容易被聪明的一方控制。虽然我认为人们不会停止开发AI,但我希望大家能够意识到这个问题非常严重。”
曾担任谷歌执行长的埃里克‧施密特(Eric Schmidt)在去年11月底的健康高峰会上表示,当人们对AI没有足够的安全防护和监管时,那么AI脱离人类的掌控只是时间的问题,但我们已经没有足够的时间去处理AI带来的破坏和混乱。
他解释道,“就像过去人们在日本投下两颗原子弹后,花了整整18年才就禁止试验等问题达成协议,但现在的我们却没有时间能继续再等待下去。”
(大纪元:https://www.epochtimes.com/gb/24/5/21/n14254664.htm )