新闻动态

乾途娱乐“暗黑版”AI现身引忧虑 我们需要怎样的人工智能

  乾途娱乐名如其人。诺曼会以负面主意来理解它看到的图片。例如,一张在一般AI看来仅仅“树枝上的一群鸟”的一般图片,在诺曼眼中却是“一名男人触电致死”。

  TA们的成见就是人类的成见

  “人工智能辨认出的成果不是随便而来,是很多练习的成果。假如要练习AI某一方面的才能,比方下棋,就需求搜集、清洗、符号很多数据供机器学习。假如用于练习的数据不行多,就会形成AI学习的不充分,导致其辨认成果的失误。”中科院自动化研讨所研讨员王金桥对科技日报记者表明。数据自身的散布特性,如误差乃至成见,也会被机器“有样学样”。针对诺曼的体现,发明它的实验室也指出,“当人们议论人工智能算法存在误差和不公平常,元凶巨恶往往不是算法自身,而是带有误差、成见的数据。因为当时的深度学习方法依靠很多的练习样本,网络辨认的特性是由样本自身的特性所决议。虽然在练习模型时运用相同的方法,但运用了过错或正确的数据集,就会在图画中看到非常不一样的东西”。

  除了人练习机器的数据自身有误差以外,机器经过对抗性神经网络组成的数据也可能有问题。因为机器不可能“见过”一切东西(比方辨认桌子,机器不可能学习一切长短宽窄各异的桌子),人也不可能符号一切数据。假如研讨者输入一个随机的噪音,机器能够向任何方向学习。这是一把双刃剑,机器也可能组成一些有问题的数据,学习时间长了,机器就“跑偏”了。

  不少科学家以“garbage in, garbage out”来描述“数据和人工智能的关系”。中科视拓(北京)科技有限公司CEO刘昕说:“对机器学习而言,进什么就出什么。监督学习就是让模型拟合标签,比方练习者把帅哥都符号成‘渣男’,那么机器看到刘德华,就会以为他是……”谈到诺曼引发的评论,刘昕表明:“不需求担心,人类自身就有各种轻视和成见,用人类生产的数据练习AI,再批判AI不行正直良善,这么说有点骇人听闻。”

  据有关媒体报导,在谷歌研讨自然语言处理的科学家 Daphne Luong 表明,正确地校准标签对机器学习来说非常要害,有些数据集其实并不平衡,像维基百科上的数据,“他”(He)呈现的次数远比“她”(She)要多。

  “机器学习的模型自身也要有必定的防进犯才能,从技能上避免自身结构设计的缝隙被进犯,研讨者能够运用各种数据进犯机器,练习机器的反进犯才能。”王金桥说。

  1942年,阿西莫夫在短篇小说《环舞》中首次提出闻名的机器人三规律:机器人不得损伤人类,或因不作为使人类遭到损伤;除非违反第必规律,机器人有必要遵守人类的指令;除非违反第一及第二规律,机器人有必要维护自己。半个多世纪过去,人工智能在大数据的加持下迎来爆发式开展。某些专用型人工智能把人类智能甩在死后,人们开始担忧,机器损伤人类的那一天是不是不远了。

  前段时间,据路透社报导,韩国科学技能院的人工智能研制中心正在研制适用于作战指挥、方针追寻和无人水下交通等范畴的人工智能技能,期望在今年年底前研制出根据人工智能的导弹、潜艇和四轴飞行器。此事引发学术界的巨大轰动,反对接连不断,并终究以院长确保无意于“杀手机器人”的研制并重申人类庄严和道德收场。在美国,以“不作恶”为纲的谷歌也因与国防部的协作协议触及“Maven项目”被推上风口浪尖,反对者遍及以为,辨认成果彻底有可能被用于军事用处,比方说精准冲击。谷歌终究表明完结协议。

  “很多人说到AI总是一惊一乍,把AI说成超人。我信任人工智能是能解决问题的,但咱们的等待也要在合理范围内。人和机器各有优势,技能会服务于特定场景,但也不需求把AI捧上天。”承受科技日报记者采访时,思必驰北京研制院院长初敏博士不由得“诉苦”了一下。看来“咱们需求怎样的AI”这一题,咱们都还没有答案。

最新/NEW

热门/HOT

推荐资讯