据英国《卫报(bào)》报道,曾撰写过一本有关人工智能的权(quán)威教科书的美国科学家表示,在将人工(gōng)智能的进步比作原子弹技术的发展时(shí),专(zhuān)家们被自己在该领域的成就“吓(xià)坏了”。
美国加州大学伯(bó)克利分校人类兼(jiān)容人工智能中心(CHAI)的(de)创始(shǐ)人斯图尔特·拉塞尔(Stuart Russell)教(jiāo)授表示(shì),大多(duō)数专家认为本(běn)世纪就会开发出比人类更(gèng)聪明的机器,并呼吁制定一些国际(jì)条(tiáo)约来规范(fàn)这(zhè)一技术的发展(zhǎn)。
他对《卫报》表示,人工智能(néng)界还(hái)没有适应(yīng)人工智能技术(shù)开(kāi)始在现实(shí)世界中产生真正的重大影响的事实。但是,在人工智能历史上,过往(wǎng)大多数(shù)时候都(dōu)不是这样的——专家只是待在实验室里开发产品,试图让(ràng)这些产品发挥(huī)作(zuò)用(yòng),但大多数情况(kuàng)下都失败(bài)了。因此,人工智能对现实世界的影响与科学家并没有太大联系,所以科学家必(bì)须快速成长(zhǎng)、赶上潮流。
人工智能(néng)支撑(chēng)着(zhe)现代(dài)生(shēng)活(huó)的(de)许多(duō)方面,包括搜索引擎和银行业务等,而在图像识别(bié)和机器翻译领域所取(qǔ)得的进步是(shì)近(jìn)年来(lái)的重要发展之一(yī)。
拉塞尔在(zài)1995年合著了《人工(gōng)智(zhì)能技术(shù):一种现(xiàn)代方法》一书。他表(biǎo)示,在紧迫(pò)的关键领域仍需要确保人类(lèi)对有超常智慧的(de)人工智(zhì)能的控(kòng)制权。
他指出,人工智能是用一种特定(dìng)的方法和(hé)某种通用方(fāng)法进行(háng)设计的,而在(zài)复杂的现实环境(jìng)中使(shǐ)用这种系统仍然不够谨慎。
例如,要求人工智能尽快治愈癌症可能会(huì)有危险(xiǎn)。拉塞尔认为,它可能会找(zhǎo)到(dào)在(zài)整个人类中诱发肿瘤的方法(fǎ),这样它就可以并(bìng)行进行(háng)数百万个实验,把我们所有(yǒu)人(rén)都当作实验品。这是因为人(rén)工(gōng)智能在执行(háng)我们所设定目标的解决方案;但(dàn)我们(men)只是忘了(le)作具体说明,忘了告诉人工智能不能(néng)把人类当作实验品(pǐn)、不能(néng)用全世界(jiè)的GDP来完成人工智能(néng)实验,以及其他的禁忌(jì)等(děng)。”
他还表示,如今的(de)人工智能技术与《机械姬》等电影(yǐng)中描述的技术仍(réng)有很大差距,但(dàn)未来的机器势必会比(bǐ)人类(lèi)更聪明。
拉塞尔认,为这一(yī)目(mù)标最快可以在10年内实现,慢则(zé)需要(yào)长达几百年(nián)的(de)光阴。不过(guò),几乎所有人工智能(néng)研究人员都认为这将一展望将在本世(shì)纪得(dé)以实现。
一个(gè)担忧(yōu)的(de)问题是,机器不需要在所有方面都比人(rén)类更聪明,否(fǒu)则会带来严重(chóng)的风险。拉塞尔表示,这是(shì)目前科(kē)学(xué)家们正在做(zuò)的事(shì)情。如果了解一下(xià)社交媒体(tǐ)和(hé)那些通过计算(suàn)给人们推送阅读和观(guān)看(kàn)内容的(de)算法,就会知道它们在很大(dà)程(chéng)度上控(kòng)制着我们的认知输(shū)入。
他表示,结果就是(shì)算法(fǎ)操纵着(zhe)用户(hù),不停地给(gěi)他们(men)洗脑,这(zhè)样(yàng)算法就可以预(yù)测用户的行为和(hé)喜好,所推(tuī)送的内容也会(huì)获得(dé)更多的点赞(zàn)及收入。
以于人工智能(néng)研究人员是否被自己的成就吓到的问题,拉塞尔明确表(biǎo)示,“是的,我认为我们的恐惧正与(yǔ)日俱增(zēng)”。
这让(ràng)拉塞(sāi)尔想起了(le)在物理学领(lǐng)域发生的事情:物理(lǐ)学家知道原子能(néng)的(de)存在,他们可以测(cè)量出不同原子的质量(liàng),还可(kě)以(yǐ)计算出在不同类型的原子之间(jiān)进(jìn)行转换可以释放多少能(néng)量。但是,专家们总是强(qiáng)调这些想法只是理(lǐ)论(lùn)上的。随(suí)后当原子能真正运(yùn)用(yòng)到实(shí)际生活中时,这些专家还没有准备好。
拉(lā)塞尔表示,人工智能在(zài)军事(shì)领域上的应用,比(bǐ)如造小型杀伤性武器等,十分令人担忧。这(zhè)些武器是可以量产的,这意味(wèi)着可(kě)以在一辆卡(kǎ)车上安装一百(bǎi)万个小型武(wǔ)器(qì),之后你打开(kāi)后车厢让(ràng)它驶离,就足以摧毁整座(zuò)城市。
拉塞尔认为,人工智能的未(wèi)来(lái)在于开(kāi)发出一种机器,知道真正的目(mù)标是(shì)不确定的,就好像人们的偏好也(yě)是(shì)不(bú)确定的一样。这意味着它们在(zài)做出任何决定时(shí)都(dōu)必须与人类进行沟通(tōng),而不是像管家一样(yàng)自行(háng)决定。但是,这(zhè)个想(xiǎng)法很复杂,尤其是因(yīn)为不同的人有不同的、或相互冲突(tū)的偏好,而这(zhè)些偏(piān)好不(bú)是固定(dìng)的。
拉(lā)塞尔呼吁人们采取(qǔ)措施,包括(kuò)制定研究人员行为(wéi)准则、立法和条约,以确(què)保(bǎo)使用的人(rén)工智能(néng)系统的安全,还(hái)应该(gāi)培(péi)训研究人员(yuán)来确保(bǎo)人工智能免遭种(zhǒng)族偏见(jiàn)等问题(tí)的影响(xiǎng)。他表示,欧盟禁止机器模仿人类的(de)相关(guān)立(lì)法应该在世界范围内实(shí)施。
他(tā)希望让公众参与(yǔ)到这些(xiē)选择(zé)中来(lái)是很重(chóng)要的,因为公众才是最终受益与否(fǒu)的对象(xiàng)。
另一方面(miàn),在人工智(zhì)能领域取得进步(bù)需要(yào)一段时间才能(néng)实现,但这也不会让人工智能变成科幻小说。