教育装备采购网
第七届图书馆 体育培训

韩国高校开发杀手机器人,遭全球AI专家抵制

教育装备采购网 2018-04-08 09:04 围观378次

  

  机器人可以用来干家务,也可以用于暴力目的。如何划定机器人的用途界限?针对这个问题,人工智能(AI)领域产生了很大分歧。

  韩国科学技术院(KAIST)是一所知名学府,拥有首屈一指的科学实验室。从液态电池到疾病传感器,他们开发了各式各样的东西。如今,KAIST和韩华集团签署协议,为后者研发人工智能武器。韩华集团曾无视联合国禁令,开发“集束弹药”这种毁灭性武器。如果加上人工智能,武器恐怕会更加致命。

  目前,联合国正在商讨如何控制自主武器对国际安全造成的威胁,而KAIST却在加速这类武器的军备竞赛,这非常令人失望。因此,50多位全球顶尖AI专家决定抵制此举——他们宣布将拒绝和KAIST任何部门进行合作,直到KAIST保证绝不开发缺乏人类控制的自主武器。

  对此,KAIST表示否认。院长Sung-Chul Shin发表声明:

  作为学术机构,我们高度重视人权和道德标准。KAIST将不会开展任何违背人类尊严的科研活动,包括缺乏人类控制的自主武器。

  如今,硬件和软件都发展得很快。许多专家担心,人类迟早会开发出自己无法控制的东西。因此,埃隆·马斯克、史蒂夫·沃兹尼亚克、斯蒂芬·霍金等名人呼吁政府和联合国限制依靠人工智能系统运行的武器。如果导弹、火箭、炸弹能够脱离人类控制而自行操作,那么后果会很恐怖——特别是落入坏人手里时。

  如果开发出自主武器,那么它将成为战争史上的第三场革命。自主武器将使战争速度和战争规模达有史以来的最高水平。此外,它也可能成为恐怖分子的武器,摆脱道德约束,伤害无辜人民。潘多拉的魔盒一旦打开,便难以关闭。

  联合国曾多次召开会议,商讨针对致命自主武器的禁令,然而收效甚微。原因在于:出于军事目的,个别国家热衷于开发这类技术;此外,私营企业也不想在人工智能方面被规章条例所束缚。尽管我们都知道,杀手机器人是件邪恶的东西;然而,谁也不知道该怎样限制这类玩意的开发。人类陷入了一场所有人都不希望发生的军备竞赛。

  目前,许多科学家希望出台有关AI开发和应用的指导方针。不过,即便制定出相关方针,也很难保证所有人都遵守规则。

来源:搜狐科技 作者:DAVID NIELD 责任编辑:贾军茹 我要投稿
校体购终极页

相关阅读

版权与免责声明:

① 凡本网注明"来源:教育装备采购网"的所有作品,版权均属于教育装备采购网,未经本网授权不得转载、摘编或利用其它方式使用。已获本网授权的作品,应在授权范围内使用,并注明"来源:教育装备采购网"。违者本网将追究相关法律责任。

② 本网凡注明"来源:XXX(非本网)"的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责,且不承担此类作品侵权行为的直接责任及连带责任。如其他媒体、网站或个人从本网下载使用,必须保留本网注明的"稿件来源",并自负版权等法律责任。

③ 如涉及作品内容、版权等问题,请在作品发表之日起两周内与本网联系,否则视为放弃相关权利。

校体购产品