ChatGPT的未来存在三大局限性
面对ChatGPT在各个方面的出色表现,很多人开始担心自己的职业发展。拥有如此强大能力的ChatGPT究竟能否替代搜索引擎?许多职业将因此而消失吗?聚象科技认为我们不需要过度担心,毕竟ChatGPT还有着不可忽视的三大局限性。ChatGPT的未来发展仍有很长的路要走。
一、内容准确性不高
ChatGPT的内容准确性不够高并且会非常固执地坚持错误的结果。这其实也是这一类大规模语言模型一直以来面临的难题。在Instruct GPT的论文中,作者明确提到了这个模型会犯非常低级的错误,甚至是加减运算也有可能会出错。比如,当你问它关于“松鼠桂鱼”的做法时,它有时回答要用烤箱来烤,有时回答要用水煮,甚至会说材料需要用到松鼠。很显然,“松鼠桂鱼”这个专有名词并不在它的学习范围内。
二、模型边界的模糊
一旦机器人的回复超越了伦理或者道德边界,结果就会变得非常不可控。虽然OpenAI有意避免让ChatGPT在回复中包含有违伦理、种族和道德要求的内容,但是用户仍然可以轻易使用假装的方式骗过AI。
三、内容更新不及时
这是因为训练如此大规模的语言模型,不管在资金还是时间上,都是非常大的消耗,因此很难让模型的训练数据时时囊括最新资讯。例如,当问其对苹果M2芯片的性能评价时,它明确的回复是苹果M2还没有发布。虽然ChatGPT会在不久的将来更新这些即时信息,但显示出训练数据的更新速度远远慢于搜索引擎。
所以ChatGPT完全取代人工还为时尚早,大家不必太过担心。