你好,我是郭震

OpenAI发布会刚结束,下图正中这位,伊利亚(ilya sutskever),就官宣离职,他是OpenAI的联合创始人,AI教父Hinton的弟子,ImageNet一战成名!
大家可能更多了解山姆奥特曼,对他可能了解不是那么多,但他才是真正的幕后大佬,为GPT发展做出了卓越贡献。
他出生在俄罗斯,7岁自学编程、16岁将 AGI 设为人生目标。大家熟知的OpenAI另一位创始人山姆,在伊利亚离职后,罕见地发布了一篇正式且深情的告别文:
"伊利亚和OpenAI要分道扬镳了。这让我很难过,伊利亚无疑是我们这一代最伟大的思想家之一,是我们这个领域的指路明灯,也是大家的挚友。他的才华和远见是众所周知的;他的温暖和同情心是不那么广为人知,但同样重要。"
伊利亚也在社交媒体发布了自己的离职宣言,他写道:“这家公司的发展轨迹堪称奇迹,在山姆奥特曼等人的卓越研究领导下,OpenAI将打造出既安全又有益的AGI。能与大家一起工作是我的荣幸,我会非常想念每一个人。再见,感谢你们所做的一切。我对接下来要做的事情感到兴奋,这是一个对我个人非常有意义的项目,我会在适当的时候分享细节。”
这里,我们不禁好奇的问,为什么伊利亚要离职?AGI是什么,它可是可与人类匹敌的通用人工智能,既然伊利亚相信OpenAI会打造出安全有益的AGI,为什么还要离职?
伊利亚在GPT从开始构建,再到GPT2,GPT3.5, GPT4, GPT4o都是全程参与研发,他还参与了文生图DALLE模型的研发,可以说是GPT的骨灰级专家!所以,我们更像知道他离职的原因到底是什么?
从他的离职信中,我注意到伊利亚的用词,OpenAI将打造出既安全又有益的AGI,看来他非常注重AI发展的安全性。我注意到,在2023年10月,伊利亚在 MIT一个重要的会议采访中表示,他的新研究重点是如何防止超级人工智能的失控,再次验证了对AI安全的重要性。
不难看出,伊利亚关注点已经放在了人工智能的潜在危险上,认为超级人工智能有可能在十年内出现,伊利亚所说的超级人工智能并不是仅仅AGI的实现,它将比人类更聪明、更强大。比AGI还要牛,就是比人类还要牛的超级AI都要实现。如果真的那一天到来,我们就得受到机器的控制。
伊利亚表示任何人构建的超级智能都不能叛变,这一点非常重要。为此,伊利亚想要的是引导人工智能系统与人们的预期目标或道德原则保持一致,而不是让它追求非预期目标。
2023年7月,伊利亚撰写了一份 OpenAI 公告,涉及一个关于超级智能对齐的项目。公告警示道:虽然超级智能可以帮助解决世界上许多最重要的问题,但它也可能非常危险,并可能导致人类丧失权能,甚至导致人类灭绝。
在2023年上半年,基于同样的顾虑,伊利亚的导师、人工智能教父Hinton 离开了谷歌。Hinton 警告说,人工智能公司的军备竞赛正在给人类造成危险,如OpenAI 的 ChatGPT,我们很难防止坏人利用它做坏事。
从这些演讲中,我们不难猜测,OpenAI公司内部或许已经实现AGI,伊利亚发现了某些可能的潜在危及安全的问题,所以选择离开。
进一步发展,我们拭目以待!
继续阅读
阅读原文