史蒂芬·霍金曾在英国《独立报》上撰文指出:“成功研发人工智能,将成为人类历史上犯的最大错误。不幸的是,这也可能是最后一个错误。”而事实上,随着目前人工智能的进步已经带来了很多争论。
对此,盖茨表示,数据智能的风险,并不是说就是超人类,或是超过人类的智能和想象的。“更合适的比喻是核研究,一开始只是用于制造武器,释放能量其实是很容易的过程,而安全地把能源控制住很难,对于我们而言重点是核的安全性。”盖茨说,“我们应该推动人工智能的安全性,也许是好的,也许是不好的,也许可能会带来灾难,所以安全更重要的。”