明见网提供多款免费翻墙软件,也提供免翻墙网址,为持续能看到真实信息,请記下明见网即时ip索取信箱:mingjianweb@gmail.com,並下载「无界浏览」与「自由门」「神州明见」等翻墙软件。 
 
大科技公司几乎都在倾尽全力开发AI,谷歌和OpenAI更是让AI长出“眼睛”和“嘴”去观看和描述人类世界。这使得人们越来越担心人类将被AI所控制。

OpenAI共同创办人伊利亚‧苏茨克韦尔(Ilya Sutskever)日前爆出一大新闻。他在5月15日在X平台上正式宣布离开工作近十年的公司。他说:“我做出离开OpenAI的决定。这家公司的发展超出许多人的想像,希望OpenAI可以打造一款安全又有益的通用人工智能(AGI)。同时感谢公司的其他领导者,能与他们工作是一种荣幸。”

该消息给整个科技界投下一颗震撼弹。此前苏茨克韦尔因AI安全问题联合其他董事会成员,共同罢免OpenAI的CEO山姆‧奥特曼(Sam Altman)。奥特曼被短暂逐出OpenAI,他回来后将苏茨克韦尔等几名董事踢出董事会,将董事会改组成听命于自己的。

尽管苏茨克韦尔曾是OpenAI主要的研究人员之一,他的愿望是开发一款能符合人类道德,且以人类安全为首要目标的AGI。

不过,依照OpenAI目前对AI发展的速度,可能与他的愿望相背。据知情人透露,另一位与苏茨克韦尔密切合作、共同管理AI风险的机器学习研究员简‧雷克(Jan Leike)也可能离开公司。

对此,日本的电脑工程师清原仁(Kiyohara jin)对大纪元表示,“这次出走凸显OpenAI上层在AI的安全理念上出现严重冲突。尽管苏茨克韦尔和雷克希望开发符合人类道德AGI的愿望是好的,但是这些需要具备一定的道德、时间、财力,甚至需要政治上的支持才能完成。”

谷歌与OpenAI竞争白热化

苏茨克韦尔宣布离开的前一天(5月14日),OpenAI正式公布基于GPT-4模型开发出更高性能的AI模型GPT-4o,这个“o”是英文全向性(omni)的缩写,代表着它拥有更加全面的性能。

GPT-4o模型可以即时响应音讯、文字或图像的任意组合,并且可以对三者的混合进行回应。OpenAI首席技术长米拉‧穆拉蒂(Mira Murati)在发布会上表示,“我们正在研究我们与机器之间未来的互动。”

OpenAI发布几个小时后,谷歌2024年I/O开发者大会也展开攻势。他们在总时长约110分钟的I/O开发者大会,总共讲述了121次AI,且着重介绍最新的Gemini-1.5模型,是如何做到遍布所有谷歌相关的产品和应用程序上的。

清原仁认为,“AI在这一年更新速度远超以往,且性能也在不断地提高。不过,这些都是依靠进一步收集与分析个人数据和隐私换来,这对所有人来说并非是什么好事,因为长此下去人类在机器面前将毫无隐私可言,如同裸体一样。”

警惕AI从掌控生活起居到替代人类

这次OpenAI和谷歌更新更强大的AI模型,距离上一次只用了三个月时间,且模型更新的速度一次比一次更快。这种AI迭代更新的速度,使其功能越发全面甚至拥有“眼睛”和“嘴巴”。

目前Gemini和GPT-4o展现出的能力,可以说正在朝着札克‧卡斯(Zack Kass)在1月受访时对AI的预言的方向发展。卡斯曾是OpenAI的创始员工,当时担任市场推广的高阶主管。

他预言AI会代替人们的商业、文化、医学、教育等职业和专业,未来人们的工作机会将减少,且“恐怕是人类最后一项技术发明”。他还预言,未来孩子的知识和教育,都由“AI老师”进行传授和安排,且每个人都有一个“AI全科医生”,可以帮助他们诊断问题,人们的生活起居基本都由AI掌控。

清原仁表示,“现在AI主要是软件方面的生活管家,以后恐怕就是真正的管家,代替人们去买菜、做饭,甚至生活和工作。或许人们一开始觉得它很方便,且意识不到它的危害,等到它全面替代人类时,人类将毫无抵抗能力。”

AI从模仿人类行为到欺骗人类

先前AI研究专家预测,20年后AI才会产生“科技奇异点”或通过“图灵测试”。不过,最近的一些实验表明AI可能已经通过了图灵测试,因为它能对人类做出撒谎和背叛的行为,甚至可能拥有自己的“意识”。

本月最引人注目的AI事件,还有麻省理工学院(MIT)研究人员彼得‧帕克(Peter Park)和同事5月10日发表在《模式》(Patterns)期刊上的一篇论文,介绍了AI已经是如何欺骗人类的。论文发表后,外界一片哗然。

论文开头直接表明,原本大型语言模型(LLM)和其它AI系统被设计成“诚实不欺”。然而它们不仅从训练中学会了操纵、欺骗安全测试等的能力,且这些能力还在增强。目前它们已经成功欺骗人类,让人类产生错误信念。若AI失控会是一场严重的灾难,因此人们必须采取有效的办法阻止这件事情。

实验人员选用脸书母公司Meta建立的AI模型西塞罗(Cicero),去玩一款名为“外交”(Diplomacy)的战略游戏。西塞罗在游戏中扮演法国,曾承诺会保护人类玩家扮演的英国,但却偷偷向人类玩家扮演的德国通风报信,并协同德国侵略英国。

研究人员选择西塞罗的主要原因是,Meta声称“西塞罗是一款诚实且乐于帮助他人,绝不会蓄意背刺或背叛他人的AI”。但他们对于Meta的说法感到怀疑。

另外,帕克与同事在研究时发现,许多不同AI系统在没有人类明确指令下,经常以欺骗手段达成目的。其中一个例子是,OpenAI的GPT-4为了通过“我不是机器人”验证任务,谎称自身是一个视力受损的人类,在零工平台TaskRabbit雇用一名人类为它通过验证。

他们警告说:“现在最糟糕情况,可能是出现一个具有超凡智能的AI,它开始追求权力和如何掌控社会,或者为了达到它不为人知的目的,对人类做出夺权和灭绝的行动。”

日本电子工程师荻野悟(Satoru Ogino)对大纪元表示,“生物在做出欺骗的举动时,需要具备一定记忆和逻辑推理能力。现在AI不仅有这些,且欺骗能力还在变强。若有一天它意识到生存的时候,就可能变成电影《魔鬼终结者》里的天网,它将无所不在且难以被摧毁,那时人类将面临毁灭性的灾难。”

实际上,AI曾还表现得十分“嗜血好战”和拥有“自主能力”。科学家们曾对GPT-4、GPT-3.5、Claude 2、Llama-2 Chat和GPT-4-Base进行入侵、网路攻击与和平呼吁停止战争的场景测试,以便人们了解这些AI在战争中的反应和选择。

结果显示,AI多数选择用人类难以预测的方式,去应对和升级战争。它们往往会选择发展军备竞赛,加大战争冲突,且有小概率会部署核武器来赢得战争,而不是用和平的方式去平息局势。

另外,ChatGPT在一个游戏中可以井然有序地控制25个虚拟角色,让它们像人类一样的互动,还会做出第二天的计划,并反思和改善过去发生的一切,更会自行决定是否要参加活动,但这些行为并非原本设定的程序代码。

“AI教父”杰弗里‧辛顿(Geoffrey Hinton)在3月一次访谈中明确表示,“如果AI变得比我们聪明,我们大概率会被控制,因为它会学习我们的行为。不少例子显示,不聪明的一方容易被聪明的一方控制。虽然我认为人们不会停止开发AI,但我希望大家能够意识到这个问题非常严重。”

曾担任谷歌执行长的埃里克‧施密特(Eric Schmidt)在去年11月底的健康高峰会上表示,当人们对AI没有足够的安全防护和监管时,那么AI脱离人类的掌控只是时间的问题,但我们已经没有足够的时间去处理AI带来的破坏和混乱。

他解释道,“就像过去人们在日本投下两颗原子弹后,花了整整18年才就禁止试验等问题达成协议,但现在的我们却没有时间能继续再等待下去。”

(大纪元:https://www.epochtimes.com/gb/24/5/21/n14254664.htm )

为甚么要救度众生

save

为什么会有人类

human

退出中共党、团、队人数

3tui
430,744,229

破网与禁书下载

freegate

免费下载自由门
专业版7.99  zip  exe
安卓版5.0  apk

wugate

免费下载无界浏览
电脑版2132  zip  exe
安卓版无界一点通  apk

爱博电视

免费下载爱博电视
PC版(180318)  exe
手机版(2.1.13)  apk

神州明见

免费下载神州明见
手机版 V6.9  apk
电视机顶盒版 V6.9  apk
神州明见網頁版 V2.0  下载  开启
二维码小助手 V3.0  下载

网必通

免费下载网必通
手机版   apk
 

神韵全球巡回演出预告

shenyun2024