首頁>檢索頁>當前

人工智能教育中不可忽視倫理教育

發布時間:2019-06-15 來源:中國教育報

主持人:本報記者 黃蔚

對話專家:北京航空航天大學計算機學院教授 熊璋 副教授 王靜遠

對話背景:人工智能教育中的倫理教育有兩個側面:一個是人工智能系統設計目標、技術路線、功能實現的倫理,價值取向是推動科技進步、促進社會發展、改善人民生活,一定不能違背社會大眾福祉;另一個是使用人工智能系統時的倫理,簡單說就是揚善避惡,做造福人類的事,而不能利用人工智能技術做危害社會、危害他人的行徑。記者日前就人工智能和倫理教育的話題與北京航空航天大學計算機學院的熊璋、王靜遠兩位教授進行了對話。

要保證健康的人工智能教育,必須關注其中的倫理教育

主持人:使用機器代替人類的腦力勞動,是人類自計算機發明伊始就有的一個夢想。經過了幾十年的努力,人工智能技術經歷了幾起幾落,日漸成熟,已經開始輔助或代替人類一些腦力勞動,在一些具有確定目標的任務當中(如圍棋、人臉識別等)人工智能甚至能夠超越人類,表現出了更加優秀的性能。在人工智能教育中,我們要關注其中的科學道理、發展規律、對社會發展的影響,那人工智能教育中的倫理教育,我們應當放在什么樣的位置呢?

熊璋:鐮刀斧頭、蒸汽機、電力、電話延伸和增強了人類四肢和五官,只有人工智能,是第一次延伸和增強了人類的腦力。人工智能技術相較于之前所有科技進步的最大不同之處,就是它能夠將人類從部分腦力勞動中解放出來。隨著人工智能技術的不斷成熟和廣泛應用,未來會有越來越多的判斷和決策交由人工智能去完成,如身份確認、評判作業、閱讀病案、篩選簡歷、投資決策等,這就意味著人工智能將深度參與人類社會的許多重要活動。

我們不得不承認,人類在做判斷和決策時,其依據一定包括社會公認準則和決策人的情感、態度、價值觀,社會對人類決策者存在許多倫理道德規范和約束。在機器參與人類的判斷和決策,扮演人工智能的角色時,讓系統依據一套客觀指標去判斷是容易的,讓系統從事決策性事務時,能夠服從社會公認的準則和人類的價值觀則是人工智能的一大挑戰。

王靜遠:例如,一款合理的人工智能簡歷篩選軟件,不應該因為性別、種族、膚色等因素作歧視性的簡歷甄別;一款用于智能醫療的軟件,不能夠為了獲取不當利益而夸大或掩蓋病情,甚至貽誤治療。公平、公正、無歧視、無欺騙等這些用來要求人類決策者行為的倫理與道德標準,也都需要在人工智能的自動決策當中切實體現。教育工作的一項重要任務就是幫助人們樹立善良、正直、公平、公正等正確的價值道德標準。現在的人工智能技術水平,我們還不可能對人工智能程序進行道德教育,但是在我們開展人工智能教育時,絕不能忽視人工智能教育中的倫理教育。

人工智能教育中的幾個基本倫理教育要點

主持人:教育開發者在設計和開發人工智能工具時要充分考慮社會倫理的基本要求,除了要符合信息技術不危害倫理的基本原則,例如不制造計算機病毒、不開發基于人工智能的有害程序、不進行數據盜竊等,還有其他方面的考慮嗎?

熊璋:我們還要充分考慮人工智能在社會活動中所扮演的新角色,考慮到這些角色的不當行為可能帶來的倫理風險,不主動利用角色的特殊地位為個人牟利或是危害他人利益。

例如,當開發人員為一個公司開發人力資源管理系統,在使用傳統數據庫、信息系統等技術時,道德規范的開發人員需要做到的是不能利用自己的技術優勢在程序中預留后門、不能竄改和拷貝公司的內部數據、在程序設計時充分考慮信息安全因素等。在開發一個基于人工智能的人力資源管理系統時,開發人員則還需要考慮機器代替人去作惡的倫理道德風險。例如應該主動避免將種族、膚色、性別等因素作為特征輸入到自動決策算法當中,不開發對員工個人隱私具有窺探性的算法功能等。

進一步,人工智能倫理教育還要教使用者學會在合理的場景正確使用技術。技術通常是中性的,善惡只體現在技術的使用場景當中。例如基于人工智能的視頻“換臉”技術,其發明的初衷是為了用于電影特效、藝術創作等,但也可能會被應用在不良宣傳、偽造證據等不當場景當中。

此外,還要避免人工智能被動倫理風險,這是指在人工智能擔負重要工作職能時,可能會遭到環境變化、外來攻擊等不確定因素的干擾,如果在重要崗位上所使用的人工智能技術不夠可靠和穩健,在遭到外界攻擊時就有可能產生一些不可預料的后果。如自動駕駛過程中,特殊的光照等場景可能導致算法對于明顯的障礙物視而不見,對于“刷臉”支付應用中的圖像識別算法,一些對抗樣本可以完全混淆人工智能模型的輸出,將賬戶開放給不應被授權的訪客。這些都是關鍵崗位上人工智能可靠性不足所帶來的風險問題。

王靜遠:要教育學生將來在使用一項人工智能技術代替人類工作時,主動了解技術的局限性、不確定性及風險后果。

對于整個社會而言,無論是人工智能技術的開發者還是使用者,都需要進行必要的責任意識教育。人工智能工具的重要特性是輔助和代理人類去完成一定的腦力勞動。在機器代理人類去完成一定任務時,“代理風險”就會不可避免地產生。

例如,在傳統戰爭中,武器操作者需要親臨戰場進行廝殺,因此對于殺戮的殘酷性會有直觀的認識。到了無人武器時代,武器操作者只需要在辦公室里點擊按鈕就能夠殺敵于千里之外,戰爭殘酷性對操作者就降低到了電子游戲的水平。

而到了人工智能時代,武器殺人有可能完全由算法來決定,人的生死就完全控制在了算法手中。在這個過程中如果再出現由于人工智能不可靠所帶來的意外影響,所造成的后果甚至會給整個人類帶來的巨大災難。要想避免這樣的悲劇發生,必要的技術管控手段固然必不可少,加強對于人工智能工具研發與使用者的責任意識教育也同樣非常重要。

管理部門在促進人工智能教育健康發展上的作為

主持人:人工智能是一個發展的科學、發展的技術,在它的發展過程中,除了對科學技術的推動,對社會發展的促進,人工智能與教育的融合還催生了伴隨式評價、個性化指導、團隊式作業,創新了教學環境、氛圍和文化,會出現新的改變和新的沖擊,我們的學校和管理部門應當有何作為呢?

熊璋:人工智能教育中的倫理教育有一個不斷發展、不斷完善的過程,維護這個過程的科學性、維護人工智能教育的健康發展任重道遠。人工智能教育應該納入義務教育、普通高中和大學的課程體系,保證學校作為人工智能教育的主渠道。教育管理部門要在普通高中和義務教育階段的課程方案中明確人工智能課程是信息技術課程、信息科學課程的重要組成部分,明確培養目標、課程內容和學業質量標準,并不斷適時更新,要嚴格保證學校用教材的科學性、嚴謹性和規范性,要及時培訓學校的一線教師,讓他們成為主力軍。同時也要引導社會輿論和社會力量共同維護人工智能教育的健康發展。

《中國教育報》2019年06月15日第3版 

0 0 0 0
分享到:0

相關閱讀

最新發布
熱門標簽
點擊排行
熱點推薦

工信部備案號:京ICP備05071141號

互聯網新聞信息服務許可證 10120170024

中國教育新聞網版權所有,未經書面授權禁止下載使用

[email protected]2019 www.rspxqd.tw All Rights Reserved.

京公網安備 11010802025840號

哪个彩票论坛好