谷歌Bard发布翻车,并没有阻止一众IT公司抄ChatGPT作业的狂热。
在高科技行业中有个著名的“鸿沟理论”。新产品会先被创新者和早期采纳者接受,然后才会进入大众市场。但无数次历史证明,在早期采纳者和大众市场当中有条看不见的“鸿沟”。新产品开发者往往会被早期采纳者误导,按早期采纳者需求开发了产品功能,但其实这些功能并不符合大众的需要,结果这些产品掉入“鸿沟”,最终失败。
如今,很多AI产品又为这一理论添加了新的案例证明。AI技术最早得到了大型企业和社会机构的重视,算法帮助我们了解消费者的行为,识别客户的身份,产品做到千人千面,提供前所未有的个性化内容和服务。
这是史无前例的盛举,但恐惧同时伴生。人们感到被监控和操纵。对AI的不信任也达到了前所未有的高度。这就是典型的“鸿沟”。但实际上,人类历史上的任何一项新技术都是用来帮助人类,而不是替代甚至毁灭人类。
而现在,我们开发的AI产品大多数都围绕着企业等各种组织。很显然,要跨越“鸿沟”,我们就应该把AI服务的对象从组织转向普通人。这样AI产品才能真正被大众接受,消除顾虑。
很多人宣称,AI是一场新的工业革命?但其实这种观点错了,因为AI远超工业革命。人类大脑并不完善,我们大量依靠直觉做决定,而且这些决定中充满了偏差。AI则能识别这些偏见。AI可以,也应该帮助我们做出好的决策。这才是AI的真正方向。
从这个角度看,ChatGPT的产品方向看似要正确很多了。但这条路也并非一帆风顺。相反,它还是有可能在导向歧路。至少,目前的ChatGPT还远远不能帮助我们做出好的决策,甚至它还在学习和重复人类的错误,产生越来越多的“垃圾”内容。AI从业者或许并不应该简单化地去抄袭ChatGPT,这可能只是另一个“陷阱”。