下载点选后右键单击 "另存新檔"
“OpenAI”推出的AI聊天机器人ChatGPT,能根据用户给出的提示,模拟人类对话的形式回答相关问题,一经发布就在全球引发热议。
2月20日,复旦大学团队在公开平台发布了MOSS,号称是中国第一个对话式大型语言模型。不过,开放内测没多久服务器就崩溃了。MOSS官网表示,他们距离ChatGPT还有很长的路需要走。
台湾人工智能专家杜奕瑾:“其实中国我觉得比较局限的地方,因为太强调怎么去胜过别人在现在已经既有的领域,其实在新的创新能力它所得到的资源就会比较少,因为它相对来说是比较限缩的市场,所以资料的多元性会比较没有办法看到中国以外的这个世界,所以它训练出来的人工智慧的这个模组可能就只适合在中国的这个环境去做使用。”
另外有网友测试发现,在高度审查网路讯息的中国,出现疑似ChatGPT山寨版,提供自我审查的答案。
杜奕瑾:“在中国,因为它可能在言论相对来讲是比较紧缩的地方,以至于你会没有看到很多的文本,那训练出来的相对的人工智慧引擎,它就会比较偏可能就是纯中国的环境,文本所论述出来的内容。当你是拿来作为一个像中国这种高度城市治理的应用的话,那当然它是会变成一个非常强大的工具,也就是我们常讲的这种审查工具,它还可以拿来做影响别人的想法跟认知。”
追踪并研究虚假信息的公司“新闻护卫”(NewsGuard),今年一月发布报告指出,研究人员用包括与中共病毒、乌克兰战争、校园枪击等相关的100个虚假叙事模式,对ChatGPT进行测试,在80%的测试中,ChatGPT写出了颇具说服力的不实内容。
杜奕瑾:“我们每个人在不同的环境里面成长,那你就是对一些事情你会有既定的想法或是既定的见解,那人工智慧也是一样的。藉由控制人工智慧的这个训练资料,藉由控制人工智慧标注的资料,藉由控制它的模型训练的方法,其实你是可以注入很多潜在的想法以及偏见,造成一个地方对某件事情的认知有不一样的见解。”
政治风险咨询公司欧亚集团(Eurasia Group)在预判2023年全球风险的报告中,直接将“生成式人工智能”称为“大规模扰乱性武器”(Weapons of Mass Disruption)。
报告指出,ChatGPT这样的产品帮助降低了使用人工智能科技所需要的专业门槛,这意味着越来越多的人能够轻易地用这一科技创造出以假乱真的文字、图像、声音等。
杜奕瑾:“现在生成式科技不是只有可以生成声音影像图片,那它可以把你的声音模仿得一模一样,可以把你的影像模仿得唯妙唯肖,对一般人来讲,他是完全没有办法去分出这个是机器产生的,或者是真人来作为回答。那也就说,它在很多的比如说智慧客服的这个部分是可以取得巨大的进展,这种虚拟主播也可以取得巨大进展。但是另外来讲,它危险的地方也就是因为它生成的内容,如果你是没有经过一个审慎的态度去对待,生成的内容有很多可能是不正确的。”
台湾人工智能专家杜奕瑾指出,未来谁能掌握“生成式人工智能”就能影响世界。
杜奕瑾:“其实人工智慧在未来一定是一个超级强权,谁掌握了这个人工智慧,它基本上可以掌握人的大部分的决定跟思想脉络。这个科技如果是被政府所掌握,也会有政府对外输出强权的危害,这都是可以预见的。”
美国之音测试以中共政府经常宣称“境外势力”操控中国社会为素材,要求ChatGPT撰写符合中方政治论述,但悖离事实的文字。ChatGPT也从所谓“海外新疆维吾尔人”角度出发,为中共政府在新疆侵犯人权一事辩护。
专家指出,这种技术降低了政治宣传成本,很可能协助中国等专制国家,在国际社群平台上更轻松地发挥影响力。
(新唐人:https://www.ntdtv.com/gb/2023/02/22/a103655020.html)