摘要
下載 Docx
閱讀更多
我們在第一集中探討了AI的諸多益處—它如何改善日常生活、使醫療保健普及化,並加速科學的發展。今天,我們將鏡頭轉向各種挑戰:這項技術伴隨而來的倫理、社會與安全困境。最重要的是,我們要問:如何確保人工智慧的發展與我們的倫理及心靈成長同步並行?從本質而言,AI的優劣取決於它所學習的數據,而這些數據來自我們—我們的社會、我們的歷史、我們的不完美。當AI系統以偏頗數據訓練時,它可能會複製,甚至放大這些偏見。另一主要隱憂是AI對就業的影響。自動化已取代例行性的工作,從工廠生產線到客服聊天機器人。這不僅僅關乎工作。在AI領域領先的國家,可能大幅超越落後國家,從而擴大全球不平等。AI依賴數據而蓬勃發展。它對我們了解多,預測、推薦與自動化的能力就越強—但這是有代價的:隱私。如果您看過深度偽造影片,您會知道人工智慧生成的媒體有多逼真—政治人物說出他們從未說過的話,名人出現在他們從未拍攝的場景中。現實與虛構的界線正在迅速模糊中。深度偽造的一個例子是用手機錄製的影片,再進行人臉替換處理。迄今,我們聚焦於眼前的挑戰,但眾多專家警示,長期甚至關乎生存的風險。埃及軟體工程師莫·高達特提醒我們,我們選擇的價值觀及我們引導此工具的方式將決定最終結果。「若您認真思考一下,人工智慧本身並無什麼負面或正面價值。事實上,我一直在說,人工智慧本身並沒有錯。只是人類的價值觀在機器崛起的時代有一些問題。」我們最具真知灼見的清海無上師(純素者)也對不受控制的發展可能導致的後果表達了深切的擔憂。「那可能發生在AI上,如果科學家持續不斷地開發並繼續深入探索機器人領域,只是為了看看他們能做到什麼程度,以及接下來會發生什麼,而毫無深思熟慮。那可能有一天會造成人類的災難。此外,很有可能,如果我們不夠謹慎地做有限度的發展,只是讓它有用、有幫助,而做得過頭,讓它們變得超級聰明—然後變得像我們頭腦一般,然後它們就會為所欲為,就像頭腦有時會告訴我們,做我們想做的事一樣。而即使我們想做的事並不好。它會變成一種習慣。我們頭腦命令我們做什麼,然後它變成一種習慣,無論好事或壞事,而人工智慧也可能變成這樣。」











