當AI甚至可以教人自殺,人類要如何防範AI風險?香港、台灣、新加坡三地論壇「當人工智慧遇上東方智慧——如何建構AI 時代的人文價值」18日登場,與會學者指出,AI需有「護欄」,才能正確地發生福國利民的作用。
為何今天人們對AI特別緊張,甚至提防AI甚於核彈?主要是AI似人非人、似物非物,介於人與機器之間。為此,新加坡國家研究會基金主席、新加坡前副總理王瑞杰提出「四芯護欄」的概念,用以維繫人類使用AI時的邊界,包括:「法律法規」,是由政府驅動;「治理」,是以企業為中心;「道德、美德」,由學校、家庭教育承擔;最後是「社會文化價值觀」。
法律法規能夠規範AI嗎?1950年代科幻作家艾西莫夫預示的「機器人三大定律」,當時已經設定機器人可以做出獨立判斷,且艾西莫夫努力要說明的是:其實沒辦法用法律管控人工智能。
香港教育工作者聯會副會長鄧飛舉例:AI能不能鼓勵人類自殺?人類可以設定讓AI不這麼做,但是總有其他方式迴避,例如AI僅教人自殘,而非一步致死。簡單地說,很難有一個法律去制止AI傷害人類,而且也沒辦法關掉AI;想把「法律法規」這個護欄套在AI身上,很可能最後還是套在人類身上。他認為,防範AI風險是當務之急,人類已經沒有時間了。
新加坡科技設計大學兼職教授顧凌雲提出一項憂慮:當今學校教育更重視理工、輕視人文哲學,因此當談到以道德、美德做為護欄時,會有學科壁壘,因為理工科的學生不討論,或說是對此沒有意識。這方面還需要社會大眾去努力。
英偉達高級資料科學家張家俊也表示,現在大家覺得人工智能很厲害,但其實只是某些領域,因此還是需要發展出可以規範的方向。
至於AI是否有極限?來自台灣的亞太綜合研究院院長湯紹成表示,這就好像問諾貝爾獎有極限嗎?答案是沒有,各個領域都是一直往前推進。他表示,只有宗教研究到一個程度有止盡:「正道已成」、「信我者得永生」,但AI研究沒有終點,所以我們才要避免AI成為不可控怪獸。
顧凌雲表示,AI不只讓人類尊嚴下降,也讓人類的安全感下降。許多人擔心自己的工作被AI搶走,人腦不如電腦;但是他認為,即使是目前狀況最好的AI模型,在某些層面表現還是不如人類。
顧凌雲舉例,有些歌詞一聽就可以知道是不是AI寫的。像有一首英文情詩:「I love three things in this world. Sun, Moon and You. Sun for morning, Moon for night, and You forever.」英文已經很美了,中文翻譯更令人拍案叫絕:「浮世三千,吾愛有三,日月與卿,日為朝,月為暮,卿為朝朝暮暮。」這根本不是AI寫得出來的。
湯紹成表示,AI剛開始發展時,被問一些敏感問題例如如何製造原子彈,它還會回答,但現在就不回答了。目前歐盟、中國大陸等都已經設定AI規範,但他認為法律和道德要雙管齊下,不能只靠其中之一。
論壇圓滿結束,新加坡科技大學校長方國光表示,會將論壇的內容整理成白皮書,提供給新加坡政府參考。