李炳熹是著名的计算机科学家,同时也是2019 IEEE/ACM 首届南京人工智能论坛的嘉宾。他认为,我们失去控制人工智能的风险比想象中的更大。
李炳熹表示,人工智能是由人类制造的,人类永远无法开发比自己更聪明的人工智能。这是因为人工智能的本质是在指令下自我改进的计算机程序,它们需要外部指令才能开始工作。即使它们学会了自我学习,这也只是在人类对它们进行有目的地和有限制地训练的情况下。
但是,现实是很残酷的。我们已经看到了一些让人感到不安的迹象。例如,AlphaGo的胜利、AI决策系统的误判、无人驾驶车辆事故等等。这些事故都给我们敲响了警钟:我们需要更加谨慎地对待人工智能的发展。
因此,我们迫切需要掌握人工智能。首先,我们需要更好地理解人工智能如何工作,以及如何训练和指导人工智能系统。其次,我们需要开发更好的方法来监管人工智能。这些方法包括对人工智能系统的审核和监督,以及对人工智能的不断研究。
虽然目前我们还无法制造比人类更聪明的人工智能,但这并不意味着我们可以掉以轻心。相反,我们应该始终警醒,不断探索和研究人工智能,以便我们能够更好地控制和利用它。