前两天,我突发奇想是否可以用ChatGPT来写英文小说。我给它勾画了一个故事背景。然后问它人物主角叫什么名字好,它给我推荐了几个。我选了一个。然后它就开始帮我写故事开头了。接下来,全程我只需要不断和它说“继续”或“接下来怎样”,它就开始源源不断地输出故事了。
对我而言,写英文小说原本是一件完全不可能的事情。但现在,我相信只要自己愿意投入时间,这件事情是有可能的。类似的,我身边从来不画画的人开始在朋友圈晒他们用AI做的画作。我对这些作品还是很赞叹的。
前几天,我看到一篇研究机构的文章,说AI会替代多少岗位。但文章里却没有提另外一个问题,AI会创造出多少岗位?至少对我而言,这个答案让人兴奋。在未来几十年,我可以选择成为作家,用英文、日文或某种非常罕见的语言写作。
美国作家阿尔文·托夫勒前几年写了本书,英文书名叫《Future Shock》,中文书名翻译成《未来冲击》。作家认为,现代社会的发展速度超过了人类的适应能力,使得人们感到焦虑和困惑。但在医学上,“Shock”其实还有一个更好的中文翻译:“休克”。因此,“Future Shock”这个词翻译成“未来休克”更为传神。它更能体现出我们面对冲击时的真实状态。
昨天,一帮“忧国忧民”的老外鼓捣出一份倡议书,大体的意思是现在AI发展太快了,尤其是GPT这种强大的AI系统,太让人“未来休克”了,有点喘不过气来了。我的观点,他们提出的顾虑和问题中相当大的一部分是正确的。但他们也提出了一个让人惊恐的解决方案:暂停这些AI训练至少六个月。
这就让人嗤之以鼻了。我不知道这六个月的期限是怎么算出来的?用人脑还是AI?为什么不是五个月零十八天?是因为说服政府需要六个月?还是因为“我们”公司的AI比现在最领先的AI落后六个月?
我们通常会情不自禁地怀疑别人的动机。虽然我们知道这是一种心理偏差,但“阴谋论”总是更有市场。无论是“阴谋论”还是“‘阴谋论’的’阴谋论’”。但这也恰恰证明我们急迫地需要AI,一种可能帮助我们做理性决策的工具。
我们用不用担心AI产生的问题?当然需要!技术永远是双刃剑,它总会带来好的或坏的问题,但技术本身是无罪的。我们不应当判技术的“死刑”。我们需要担心AI产生的问题,但更应该去解决这些问题。而不是挖个坑,把问题埋掉,把问题掩盖起来。
所以只有让AI发展,我们才会知道有哪些问题。发现问题并解决问题,这就是人类进步的历史。成年人不做选择题,我们既要AI带来的好处,也要解决AI带来的问题。
AI不是选择题,AI是必答题!