亚洲第一体育

吉祥坊网址着名的科技领袖和科学家签署了公开信请求,要求禁止使用人工智能技术驱动的致命自主武器。但最近一群人工智能研究人员利用抵制威胁来阻止大学开发所谓的杀手机器人技术,从而更进一步吉祥坊app

这一切始于2月下旬,当时  韩国时报的 一篇文章报道了一家韩国领先的国防公司与一所公立研究型大学合作开发的无人监督的军用人工智能武器。到3月为止,来自30个国家的50多位人工智能研究人员签署了一封致韩国大学参与人工智能武器项目的KAIST 的  公开信,声明签署人会抵制与大学的任何研究合作吉祥坊安全官网

加拿大蒙特利尔大学计算机科学教授,深度学习研究的先驱Yoshua Bengio说:“开发人工智能背后的科学知识的学者非常重要,这种科学被用于人类的利益。” “在这种情况下,这涉及到一所大学,也是一个主要的大学,正在为可能开发的’杀手机器人’达成交易。’”

“  韩国时报”的文章描述了KAIST(前韩国科学技术院)与国防公司Hanhwa Systems之间的联合项目,其目标是开发“适用于军事武器的人工智能(AI)技术”,其中可能包括“人工智能导弹”,“装备有AI的无人潜艇 ”和“ 武装直升机”。该文还将这种自主武器定义为能够在没有人为控制的情况下寻找和消灭目标。

美国,中国和俄罗斯等主要军事力量一直在开发可能导致致命自主武器的AI技术。一些现有的自主武器  已经能够自动追踪和射击目标,包括哨枪炮塔或用于击落来袭导弹或飞机的武器。然而,军队以防御能力使用这些武器,并且通常让一个人“在循环中”作出关于释放这些武器以对抗目标的最终决定。

许多人工智能和机器人技术研究人员希望阻止杀人机器人或无人驾驶飞机的广泛开发,这些机器人或无人机在不需要人员下达命令的情况下开枪杀人。非政府组织还通过恰当命名的“停止杀手机器人运动”组织禁止致命的自主武器。即使是联合国一直举行一系列年度会议来讨论致命的自主武器。

到2015竞选  由麻省理工学院的物理学家马克斯·泰格马克与生命的未来研究所率先呼吁“进攻性自主性武器禁令超越有意义的人的控制。”这2015年的公开信收到了来自科学和科技名人如SpaceX公司和特斯拉创始人伊隆·马斯克后盾,苹果联合创始人史蒂夫沃兹尼亚克和后期物理学家史蒂芬霍金。后续的公开信和活动也对此进行了跟踪。

组织对抗杀手机器人的抵抗

澳大利亚新南威尔士大学人工智能教授Toby Walsh一直在积极研究社区对抗致命自主武器研制的阻力。因此,当KAIST-Hanhwa项目开发人工智能驱动武器的消息出现时,沃尔什再次开始行动并不令人意外。

“ 韩国时报关于’韩国研究院发起的开发人工智能武器项目’的文章被警告后,Toby Walsh(以他个人身份)和停止杀手机器人运动都写信给KAIST总裁,但就我而言知道没有收到任何答复,“加州大学伯克利分校计算机科学和人工智能研究员Stuart Russell说。“托比沃尔什在等了两周后提出了抵制,并要求一些研究人员在信上签名。”

这次的不同之处在于呼吁AI研究人员选择一所特定的大学,因为它致力于开发致命的自主武器技术。AI研究社区的专业知识成为未来与大学合作的讨价还价工具。

“在联合国正在讨论如何遏制自主武器对国际安全造成的威胁时,联合国正在讨论如KAIST这样的着名机构加速军备竞赛以发展这种武器,这是令人遗憾的。” “因此,我们公开声明,我们将抵制与KAIST任何部分的所有合作,直到KAIST总统提供我们所寻求但未收到的保证,即该中心不会开发缺乏有意义的人员控制的自主武器。”

承担AI使用的责任

除了签署公开信之外,罗素还亲自致信KAIST前总裁史蒂夫康,旨在了解有关KAIST与Hanhwa Systems合作的更多信息。拉塞尔澄清说,康显然没有事先了解韩华合同,因为韩国康氏任职韩国科学技术院院长后,韩国科学技术院 – 韩华协议已经正式化。

罗素承认,他通常对抵制有“疑虑”。但在这种情况下,他认为有关KAIST的提议抵制是“适当的”,因为人工智能研究界已经公开表示广泛同意对抗致命的自主武器采取立场。

蒙特利尔大学的Bengio也通过签署给韩国大学的公开信支持KAIST的拟议研究抵制。他此前曾支持2015年公开信,推动禁止致命的自主武器,并且还于2017年秋季签署了另一封专门针对加拿大总理的信。

“现在和在可预见的将来,机器对道德价值,心理学和社会问题都没有任何理解,”Bengio解释说。“所以,当人们的生命,福祉或尊严受到威胁时,人类应该以重要的方式进入循环,即我们不能自动化杀人或将人员关在监狱里。”

Bengio和Russell都同意研究人员负责以道德的方式指导AI技术的开发和使用。

“这绝对是我们的责任,就像医生对参与处决有严格的政策一样,”罗素说。“我不同意那些说科学家应该坚持科学,并把所有政治问题留给政治家的人。”

关注未来

KAIST很快回应了国际研究界的公开信。到4月初,KAIST总裁Sung-chul Shin  发表了一项声明,以缓解研究人员的担忧:“KAIST无意参与致命自主武器系统和杀手机器人的开发。”研究人员承认,提议的抵制。

拟议抵制的明显成功可能会激励未来的运动追随它的脚步。但许多大学在考虑可能导致致命自主武器的类似研究项目时可能会三思而后行。罗素指出,人工智能研究界将不得不保持警惕。

“不能否认合同本身,这是我们所希望的最好的,”罗素说。“许多签字者都表示,我们需要密切关注在KAIST所做的工作,看看总统的声明是否有意义。”

同样,Bengio现在对KAIST的回应表示满意。如果有必要,他对将来使用研究抵制的想法也表示赞成。

“即使它不是一直工作,值得这样做,”Bengio说。“最重要的副作用是教育人们,政府和组织关于人工智能使用(或误用)的道德方面。”

对科幻小说中的杀手机器人很好奇?我之前曾推测过为什么银河帝国和星球大战电影中的第一次订单似乎避免了致命的自主武器。

发表评论

电子邮件地址不会被公开。 必填项已用*标注

现在输入激动!

吉祥体育官方网站

猜你喜欢

丰田的新超小型车

现在输入激动!

吉祥体育官方网站