10月28日,有媒体报道OpenAI的爆款产品出现重大缺陷。涉及捏造事实、瞎编药物,或殃及30000多名医生。
10月28日当天,项立刚针对此事发表自己的看法。项立刚认为,多模态通用大模型早晚要出大问题,其相关的投资者也将血本无归。同时,项立刚以人类抚养孩子的过程来类比通用大模型的训练过程。
通过将通用大模型训练与人类抚养孩子的过程进行类比,项立刚认为大模型的训练还是要回归专用模型。只有通过专门训练,才能有更高的效率,能力才能够更强。项立刚又拿运动员的训练来做类比,项立刚认为,运动员如果不是经过专门训练就和普通人一样。
因此,项立刚认为,通用大模型想要把人类的各种信息都在这一个模型中进行训练,想法是好的,但结果却出了大问题。因为大量的冗余信息干扰了训练结果,从而产生了偏离预期,甚至错误的结果。
项立刚认为,面对OpenAI出现的错误结果,如果仅仅只是在聊天中,我们大可以一笑了之。如果把这个结果用来指导工作,则有可能会出现大问题。
其实,之所以会有通用大模型的想法及训练方式,是因为这种大模型直接对标的就是人类中的每一个人。对于我们每一个人来说,我们所接收到的信息其实就是非常复杂和繁杂的,他会涉及到生活和工作中的方方面面。但是,不同的是,对于每一个人来说,对于接收到的自己不感兴趣的信息,可以自动将其忽略掉,或者不去处理他。但是,对于这种通用大模型不一样,他对所有的信息都不可能去拒绝或者忽略。毕竟,他需要训练对所有信息的处理能力,这样一来,一旦出现很多混乱的,甚至是相反的输入信息时,通用大模型的结果很有可能会偏离人类的预知。
因此,想要通过一个通用大模型来回答或者解决人类的所有问题,几乎是不可能的。要么它只能在已有的确定答案中选择一个,要么它只能胡说八道了。因此,这也就是项立刚所说的,如果这种通用大模型用来指导人类工作肯定是要出大问题的。