媒体误读夸大,人工智能新闻的炒作何时可以结束?

图片来源:视觉中国

图片来源:视觉中国

今年6月,国外一篇《AI寒冬将至》的文章曾引发业内对人工智能发展的争议,自动驾驶事故频发、AI军事化以及AI会导致人类失业等话题,也不断被媒体所报道,受众对AI的质疑和不信任感在增加。

媒体掌握舆论话语权,AI研究员掌握着专业技术,但两者的矛盾越来越大,面对媒体的误读和炒作,甚至很多科学家都要专门发文或出书进行辟谣和纠正。但这样的情况是怎么发生的?媒体的角色应该是什么?又该怎么避免呢?

去年6月,Facebook人工智能研究部门的五位研究人员发表了一篇研究报告,展示了机器人模拟人类进行谈判的对话情形,发现机器人偶尔会说一些很奇怪的话,比如:“对我来说,对我来说,对我来说,对我来说,对我来说球没什么用。”这在当时被认为是开发出了一种机器人之间进行交流的“方言”。

这项研究并没有新的突破,所以业内觉得没什么,但传到媒体那就变成了另外一件事,他们觉得这是一件很严重的事情。

比如,Fast Company(钛媒体注:美国最具影响力的商业杂志之一)发表了一篇题为《人工智能发明了人类无法理解的语言,我们应该阻止吗?》的文章,全篇都在描述机器人不断出现偏离标准英语的交流,更重要的是,“Facebook的研究员是在认为这些机器人失控的情况下,决定“拔掉插头”,结束这项研究。”

这篇文章出来后持续发酵,并且引发很多媒体的跟风,甚至煽动大家的恐惧情绪,称Facebook的工程师因为机器人进行了新创语言的自主交流而感到恐慌,不得已叫停了他们的AI研究项目。

《太阳报》还说“这与电影《终结者》的情节非常相似,其中有一个机器人出现自我意识后对人类发起了战争”。

对于这些由媒体制造的“耸人听闻”消息,卡耐基梅隆大学机器学习系的助理教授Zachary Lipton感到万分沮丧。根据他的说法,近年来“机器学习”和“深度学习”等话题越来越受关注,导致了这种“见缝插针”的低质新闻的泛滥—— Lipton称之为“AI误报风向”(AI misinformation epidemic)——不但歪曲了研究目的,还对人们正确理解该行业的发展造成了负面影响。

在这种情况下,越来越多的AI研究员也同样体会到了Lipton的挫败感,并开始担心人工智能猜测性的虚假报道,会促使人们对其发展前景抱有错误的预期,最终威胁到人工智能未来的进步以及其他新兴技术的应用。

由来已久的夸张报道,科学家出书辟谣

 

事实上,媒体对计算机智能的夸大宣传并非我们这个时代所独有的,早在“计算”这一概念出现时就已经存在。而最早可追溯到1946年2月,当体型巨大的电子数字积分计算机Eniac发布时,记者纷纷将其描述为“电子大脑”、“数学怪人”、“天气预测者和控制者”,甚至是“巫师”。

为了遏制对这一新机器的炒作,避免大众受到虚假新闻的误导,著名英国物理学家DR Hartree在《自然》杂志上发表了一篇文章,描述了Eniac简单而有效的工作方式。

但让他难过的是,《伦敦时报》在他的研究基础上发表了一篇题为《电子大脑:解决谜题,带有记忆的阀门》的文章。对此,Hartree特意给该编辑写信,称“电子大脑”一词具有误导性,机器“无法替代人类的思想”。

遗憾的是,误导已经形成,在媒体眼中Eniac永远成为了“大脑机器”的象征。

无独有偶,美国康奈尔航空实验室的工程师Frank Rosenblatt在1958年提出了一种名为“感知器”(perceptron)的基本机器学习算法,按照设计,它只能通过培训来识别有限的模式范围,但《纽约时报》发表了一篇文章声称该算法是一个“电子大脑”,可以“自学”,并很快“能学会走路、说话、看、写作、自我复制,同时也能意识到自己的存在“。

到了20世纪60年代末,许多AI先驱者越来越明显地意识到自己低估了在机器中模拟人脑的难度。

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章