AI也能自行繁衍了。根据外媒报道。谷歌的AI系统AutoML创造了一个AI——NASNet,测试后发现,NASNet的表现已经比人类工程师撰写的AI更为强大。ML是机器学习(machine learning)的缩写,而AutoML是能学习如何构建其他ML算法的一种ML算法。此次诞生的NASNet,主要用于片石图像与影片中的人、车、信号灯等各种物件。
经过数千小时的训练后,达到了82.7%的准确度。比人类开发的AI还要高出1.2%,而且运算的效率也胜过以前的AI。
这项技术将用在AI机器人、视觉障碍者与无人驾驶汽车上。谷歌已经将AI开源,希望透过各方一起完善有关功能。
难道AI工程师也要自行下岗了吗?至少现在不会,但可能是未来几年的事情。
不过,让AI创造AI,目前来说似乎没有什么害处。不过还有两点引发各界疑虑。
首先,AI创造的AI,由于不是AI工程师自己创造的,那么外人甚至是开发者都无法理解和说明其中的机制,就如同黑箱作业。
AI的作用就是帮助人们将各种资讯数字化,进行分析提出建议,而AI的建议会交给个人判断。问题在于如果把关的人都不知道AI建议的一句。实际上根本无从做判断,只能交给AI做决定。
针对这一点,日本NEC就致力于研究白箱的技术。在AI提供建议的时候,同事提供有效的证据,让人们理解后再去决策。让人们不至于被AI牵着走。
另一个值得观察的地方,就是如果AI带有瑕疵和偏见的时候,如同人类一样,这些不良的基因也会传承到下一代。本来的问题可能很小,但是会不断的累积最终大爆发。
2015年Google Photos 就闹出了把黑人的照片标签为「大猩猩」的争议。甚至有时候,AI也会模仿人类的偏见。2016年美国的一份报告表明,成人人脸辨识资料将黑人标记为高风险的概率是白人的两倍。微软纽约研究院资深研究员 Hanna Wallach 曾表示,只要机器学习的程序是透过社会已存在的资料训练,那么只要这个社会有偏见,机器学习就会重现这些偏见。AI保持客观、中立的判断,做出好的角色,仍然是一个需要观察的课题。
如果无法解决偏见,那么应用在社会上尤其是行政执法上问题会大的多。不过好在各国政府都在努力保证反乌托邦的未来的到来,而各大科技公司都专注于让AI向负责人的方向发展,还制定了AI道德道德标准。避免此类事情的发生。
想要更多资讯请关注“IT实战联盟”公众号~
注意:本文归作者所有,未经作者允许,不得转载