历史告诉我们,对新思想、新知识、新技术的妖魔化,最终都往往会导致对使用者(或传播者)的暴行。坚持日心说的布鲁诺、宣扬马列思想的李大钊都因此遇害。同样,电力、火车、汽车、电子产品在发明后的普及过程中,也都遭遇过抵制,其使用者被不当对待的案例也时有发生。
如今人类文明在发展,人们已经越来越普遍地认识到新技术的作用。但对新技术使用者的“报复”并没有消失,它们往往以更隐秘的方式存在。尤其是面对弱势群体。我们知道学校是教孩子如何应对未来社会的地方,我们也知道孩子长大后进入社会一定会需要使用电子设备。但大多数老师和家长却不允许孩子在学校里使用电子设备。这本是一个复杂问题,但却常常以简单粗暴的方式被解决。
这在AI领域正逐渐变成一种值得我们警惕的趋势。例如,一些网站或搜索引擎将AI生成的内容简单判定为低质量,而大学将在论文撰写中使用AI生成内容判定为学术不端行为。这些事情其实也都同样需要仔细分析,但往往被不分青红皂白,一刀切的规定所终结。结果常常导致无辜者受罚。
鉴于以上原因,一些国际组织和政府机构,如联合国教科文组织等正在向各类团体开展广泛磋商,以制定国际人工智能相关标准,从而确保该技术具备强大的伦理基础。但这些工作还刚刚起步,也远未得到应有的重视。
AI是大势所趋,也是未来经济发展的动力。我们不应过度渲染对AI的恐慌情绪,尤其不能对AI进行妖魔化的宣传。如果我们不及时制止这些行为,并为无辜者提供援助,就可能导致“破窗效应”,最终引发对AI使用者的暴行。因此,在规范AI使用的前提下,我们尤其应当重视对AI使用者的权利保障。