下载点选后右键单击 "另存新檔"
上个月,人工智能界的数百名知名人士签署了一封公开信,警告AI有朝一日可能毁灭人类。
台湾人工智能专家杜奕瑾表示,AI算法在训练的过程中,过去第一重视正确性,是否能做到和人一样好。但现在这已经不够,因为AI会学习到偏见,如果算法没有顾忌到这些偏见,AI很有可能会出现歧视,会有仇恨。他举例说,如果AI被利用来做内容审查,它可能为了迎合某一族群的内容审查方式,而导致其他族群受到伤害。因此AI科技伦理需要有一套机制来衡量,然后再去确保使用AI科技不会造成不正当的影响。
台湾人工智能专家杜奕瑾:“现在人工智慧已经深入到个人不管是医疗保险到个人每天的这种日常的这种行为的决定,那任何一个人工智慧的偏见,它其实都是可能会造成很大的这个危机。那这也就是为什么我们现在在国际在开始在讲人工智慧,我们要怎么去做它的可信任的人工智慧的研究。那比如说它是可解释的,那可被验证的,可被追踪的。那它在不同的族群,我们去能够做到这种资料正义,保障人权隐私的方式,让人的根本价值不要被侵害。”
国际上已经开始关注探讨数位人权。6月5日到8日,杜奕瑾参加了在哥斯达黎加举行的国际数位人权大会RightsCon。这是由国际数位人权组织AccessNow每年举办的,全球最大的数位人权与资讯论坛。
杜奕瑾:“那在RightsCon我们也发表了就是有关我们可信任人工智慧的技术之外,那其实我们也在对于这种,现在已经很多利用人工智慧深层次科技去做假消息的这个宣传,那我们在台湾怎么去用人工智慧的技术去衡量,以及去做到可信任的这个人工智慧,我们也去做了分享。”
以台湾为例,杜奕瑾介绍,在医疗相关领域,目前台湾已经建立一套规范,怎么在保障人权之下去收集资料,做AI的训练以及验证,同时防止资料被二次滥用。
但杜奕瑾也表示,在独裁的政体下,数位人权受到的保障可能很有限。
杜奕瑾:“因为人工智慧是一个非常强大的工具,那如果说它是被应用在于国家的监管跟控制的话,它其实会很大力度的增加这个国家监管跟控制的这个能力。所以其实它对人权相对来讲会是一个限缩的状态。所以其实在这次这个RightsCon也有欧盟的代表就提到就是说,现在欧盟最新的政策就是他会去禁止像这种生物识别的科技运用在人工智慧在这个城市的治理。因为这个运用人工智慧生物科技的技术去做相关的这个辨识,其实对人权的未来是一个可以预见的这个伤害。”
而中共正在积极运用这种技术。最近大华技术公司被曝光正在提供一个利用人工智能的大华巨灵AI开放平台“Jinn”,通过人工智能分析自动检测抗议横幅和抗议者的面部特征,并报告给中共警方。
另外,在人们担心AI的偏见会带来风险的同时,在中国却出现了相反的状况。4月11日中共国家网信办拟了一个规定,声称生成式AI产生的内容应该体现所谓的社会主义核心价值观,被戏称为AI也要信党。
杜奕瑾:“人工智慧其实就像人一样嘛,当你给它框架给它给予它这个限制它思考的方向,你训练出来的这个人工智慧相对来讲就是有某种程度上面的偏见,当你这个偏见是显而易见的时候,对这种比较开放多元的这种社会来讲就会比较不容易去接受。”
杜奕瑾表示,中共又要AI有多元式的发展,但是又给予它一个框架,对技术发展来讲是一种矛盾,同时也可能影响中国的AI技术走进国际市场。
(新唐人:https://www.ntdtv.com/gb/2023/06/13/a103730796.html)