导航菜单

倪光南:AI发展应吸取教训 核心技术不能靠买靠换

“过去几年,我们在信息技术领域的一个最大教训是,关键核心技术必须靠自己的自主创新来解决,不能靠购买或替换。”计算机专家倪光南院士最近在2019年世界大会上接受采访。人工智能会议。在接受新闻采访时说。

尽管在应用程序和芯片方面发挥作用将使人工智能更有价值,但他认为,国内必须在算法突破方面投入更多努力。

1939年中国工程院院士参加了中国设计的第一台电子管计算机(119机)的研制。20世纪60、70年代,人们开展了汉字处理和汉字识别的研究,并首次将联想功能应用于汉字输入。

1995年以来,倪光南不遗余力地呼吁中国发展IT核心技术,特别是自主操作系统和国产CPU。如今,“技术工业与贸易”和“贸易与工业技术”的历史似乎给出了答案。他认为,中国现在将学习人工智能的历史,下更大的决心实现突破。

人工智能安全不仅仅是软件和硬件问题

会上,倪光南参加了世界人工智能安全高端对话。他认为,自主控制是网络安全的关键,必须在质量评估和安全评估的基础上增加自主控制和评估。

这套标准也可能适用于人工智能时代的安全问题,即通过建立一些因素标准来评估与人工智能有关的产品、服务、技术和系统的安全和控制。

“这是有好处的。它将在网络安全的基础上迈出新的一步。这不是一个新炉子,从头开始。”

那么,在继承网络安全的基础上,人工智能时代的安全问题又有哪些新特点?倪光南从进化论的角度看待这个话题。

传统安全考虑人与人之间的关系,网络安全涉及人与人之间的攻防关系。 “所以我们应该强调网络安全中的自我控制。如果你自己无法控制它,另一方可以利用漏洞从后门进行攻击。这在传统安全方面又向前迈进了一步。”

进入人工智能时代,我们还需要面对人类与人工智能的关系。因此,AI的安全可控性超出了纯粹的技术问题。例如,当用交互式过程训练聊天机器人时,一些机器人会有“学习不好”,“咒骂”的情况,甚至成为“种族主义者”。

“这些机器人不应该在软件和硬件方面存在问题,但在学习过程中会出现更复杂的情况。”倪光南说。这是一个过去从未考虑过的问题,需要在各个方面进行深入研究。

此外,深度学习存在透明度问题。 “图片的人工智能识别可能比人们更准确,但我们不知道它为何如此优秀;人类棋手对每一步都有解释,但AI无法解释。”无法解释为什么它好,你无法避免坏。破天。对于一些人脸识别系统,黑客可以通过绘制一条简单的线来混淆AI,并使用AI来犯错误。

倪光南的结论是,人工智能带来了一种新的安全性,这在系统设计和方法论中都是必需的。

人工智能安全问题的另一个主题是人工智能是否会导致大规模失业。倪光南认为,机器比人类有两大优势。一个是在某些领域击败人类将成为常态。第二,机器的智能易于堆叠和扩展,100人的智慧不一定比一个人强。

但他认为,在大量简单劳动力被人工智能取代后,大量工程师仍然需要使用和维护这些机器,这样人类才能在新工作中发挥更高的价值。

历史教训给予更大的决心

那么,为了在未来实现中国人工智能研究和产业的安全健康发展,最重要的推动力是什么?倪光南认为,该算法仍然是一个核心问题。

在目前的人工智能热潮中,三个公认的因素起着重要作用:数据,计算能力和算法。倪光南认为,最重要的是深度学习的出现使算法取得了突破,将人工智能推向了一个新的阶段。

(责任编辑:DF515)

http://www.sugys.com/bds0.html