核心提示:2023 年,我們將開始看到一種提供數(shù)據(jù)、測試和監(jiān)控結(jié)果的方法,以確保我們的算法具有道德指南針,就像阿西莫夫在 80 年前設(shè)想
2023 年,我們將開始看到一種提供數(shù)據(jù)、測試和監(jiān)控結(jié)果的方法,以確保我們的算法具有道德指南針,就像阿西莫夫在 80 年前設(shè)想的機(jī)器人技術(shù)的三個(gè)基本定律一樣。Macami.ai 的聯(lián)合創(chuàng)始人兼首席執(zhí)行官 Carlos Martin 強(qiáng)調(diào),隨著我們在合作中共同成長,需要在道德上合理的 AI 進(jìn)化。
1942 年,作家艾薩克·阿西莫夫(Isaac Asimov)在他的短篇小說《Runaround》中介紹了機(jī)器人三定律:
第一定律:機(jī)器人不得傷害人類,或因不作為而讓人類受到傷害。
第二定律:機(jī)器人必須服從人類給它的命令,除非這些命令與第一定律相沖突。
第三定律:機(jī)器人必須保護(hù)自己的存在,只要這種保護(hù)不與第一或第二定律相沖突。
在這個(gè)故事以及隨后的故事中,如我、機(jī)器人、二百周年紀(jì)念人或機(jī)器人系列,阿西莫夫描繪了一個(gè)人類在技術(shù)上遠(yuǎn)比我們先進(jìn)的世界,智能機(jī)器人幫助完成家庭日常任務(wù)是一種商品,在那里他們是老人的陪伴,孩子的保姆,也是工人。這些機(jī)器人有所謂的正電子大腦,一種管理和處理它們的視覺、智能和運(yùn)動(dòng)功能的 CPU。
在我們這個(gè)時(shí)代,可供企業(yè)和大眾使用的是所謂的狹義人工智能;根據(jù)手頭的任務(wù),可以通過單獨(dú)的渠道或 API 訪問這種類型的人工智能。例如,對于自然語言處理,必須連接到一個(gè)或多個(gè)提供該類型 AI 的特定通道/API。對于計(jì)算機(jī)視覺,還必須連接到一個(gè)或多個(gè)特定通道/API。機(jī)器學(xué)習(xí)算法也是如此。除了實(shí)驗(yàn)性之外,我們今天還沒有涵蓋所有內(nèi)容的人工智能。當(dāng)然,有一些實(shí)驗(yàn)性的人工智能技術(shù)試圖將其提升到一個(gè)新的水平,被稱為通用人工智能,甚至更進(jìn)一步,比如被稱為 PLATO 的人工智能,
人工智能對我們生活的深刻影響
企業(yè)和公眾使用的技術(shù)被認(rèn)為是窄人工智能。即使人工智能處于真正的嬰兒期,我們也看到了對我們生活的深刻影響。我們看到社交媒體正在為我們提供更多重申我們信念的內(nèi)容,即使它們可能是錯(cuò)誤的。如果你認(rèn)為登月是假的,社交媒體的人工智能會(huì)發(fā)現(xiàn)更多內(nèi)容讓你感興趣。很冷。它不在乎是否還有一百萬個(gè)事實(shí)證明并非如此——它仍然會(huì)滿足你的需求。為什么?很簡單:錢。這些算法可以讓你的眼球忙于那些內(nèi)容,從而為你提供更多廣告。干凈利落。
人工智能不會(huì)犯錯(cuò):誰承擔(dān)道德責(zé)任?
我們有一些案例,人工智能錯(cuò)誤地識別了一個(gè)感興趣的人,或者人工智能視覺在識別有色人種方面存在更多問題,或者肯塔基州法院系統(tǒng)的案例,使用人工智能算法評估一個(gè)人的風(fēng)險(xiǎn)以確定保釋的可能性只是后來才發(fā)現(xiàn)系統(tǒng)不成比例地將黑人確定為更高的風(fēng)險(xiǎn),而以前幾乎沒有區(qū)別。我們已經(jīng)看到人工智能算法會(huì)根據(jù)年齡丟棄人們的簡歷。還有微軟的人工智能 Tay 的例子,在不到 16 小時(shí)的時(shí)間里,Twitter 被教導(dǎo)成為一個(gè)種族主義混蛋,它開始通過其 Twitter 賬戶發(fā)布煽動(dòng)性和攻擊性的推文,導(dǎo)致微軟將其關(guān)閉。
人工智能與以前的編碼方法的區(qū)別在于,人工智能在很大程度上是一種統(tǒng)計(jì)算法,而以前的編碼方法或語言是確定性的 if-then-else 流。傳統(tǒng)上,我們已經(jīng)看到編碼實(shí)踐演變?yōu)楦鼑?yán)格的東西,并且演變了幾種方法和實(shí)踐:瀑布、敏捷、Scrum 等。實(shí)踐和法規(guī)也演變?yōu)楸Wo(hù)信息,例如 PCI(保護(hù)持卡人的信息) ),或 HIPAA(保護(hù)患者信息)等。
這些方法和實(shí)踐的目的正是為混亂的開發(fā)帶來秩序,強(qiáng)制規(guī)劃和設(shè)計(jì)實(shí)踐,并為正在進(jìn)行的任何開發(fā)帶來嚴(yán)格的測試方法。最終目標(biāo)是擁有可靠、有彈性的軟件解決方案,既能解決需求,又能保護(hù)人們和企業(yè)的利益。
如前所述,人工智能算法是不同的。華盛頓大學(xué)教授佩德羅·多明戈斯(Pedro Domingos)在他的《算法大師》一書中說得非常好:“學(xué)習(xí)算法是種子,數(shù)據(jù)是土壤,學(xué)習(xí)程序是種植的植物。機(jī)器學(xué)習(xí)專家就像農(nóng)民一樣,播種、灌溉和施肥,同時(shí)關(guān)注作物的健康狀況,否則會(huì)置身事外。” 到目前為止,還沒有普遍接受的方法可以將數(shù)據(jù)提供給當(dāng)前的機(jī)器學(xué)習(xí)算法。在這些算法中也沒有幫助確定是非的護(hù)欄。
2022 年 10 月,白宮發(fā)布了《人工智能權(quán)利法案》的藍(lán)圖,其實(shí)質(zhì)是試圖確立人工智能系統(tǒng)必須安全、有效、無歧視、尊重?cái)?shù)據(jù)隱私、公開使用并具有廣泛人工監(jiān)督的結(jié)構(gòu)。在我看來,這是一個(gè)很好的開始嘗試,然而,它并沒有涵蓋最尖銳和最明顯的問題:它關(guān)注的是最終結(jié)果而不是開始。請?jiān)试S我解釋一下:要使 AI 系統(tǒng)符合 AI 權(quán)利法案的所有要求,它必須首先輸入數(shù)據(jù)。干凈利落。
我相信在 2023 年,我們將開始看到新方法的擴(kuò)散和成熟,以提供數(shù)據(jù)并測試 AI 算法的結(jié)果。在我看來,我們需要以類似的方式來考慮這些算法,就像我們認(rèn)為人類需要有道德和價(jià)值觀一樣,重視公平和禮貌。很難認(rèn)為它們需要道德指南針,但現(xiàn)實(shí)情況是這些算法會(huì)影響人類生活,這并不總是更好。
攜手共創(chuàng)未來
當(dāng)我們實(shí)施人工智能模型時(shí),我們需要進(jìn)行步驟、規(guī)劃和設(shè)計(jì)。這些已經(jīng)是傳統(tǒng)軟件開發(fā)過程中的常見做法。為什么不在人工智能中?我們需要問一些問題,例如這個(gè)模型是否適用于所有顏色和性別?這個(gè)模型是否被提供了等量的樣本數(shù)據(jù),這些數(shù)據(jù)公平地代表了它會(huì)影響的人?這種模式的結(jié)果是否平等地保護(hù)了公民的權(quán)利?這個(gè)算法有沒有辦法識別它不應(yīng)該說的東西?
簡而言之,人工智能是一種比傳統(tǒng)軟件更先進(jìn)的技術(shù)。為什么不采用一種方法來提供數(shù)據(jù)、測試和監(jiān)控結(jié)果,以確保我們的算法具有道德指南針,就像阿西莫夫在 80 年前設(shè)想的機(jī)器人技術(shù)的三個(gè)基本定律一樣?
1942 年,作家艾薩克·阿西莫夫(Isaac Asimov)在他的短篇小說《Runaround》中介紹了機(jī)器人三定律:
第一定律:機(jī)器人不得傷害人類,或因不作為而讓人類受到傷害。
第二定律:機(jī)器人必須服從人類給它的命令,除非這些命令與第一定律相沖突。
第三定律:機(jī)器人必須保護(hù)自己的存在,只要這種保護(hù)不與第一或第二定律相沖突。
在這個(gè)故事以及隨后的故事中,如我、機(jī)器人、二百周年紀(jì)念人或機(jī)器人系列,阿西莫夫描繪了一個(gè)人類在技術(shù)上遠(yuǎn)比我們先進(jìn)的世界,智能機(jī)器人幫助完成家庭日常任務(wù)是一種商品,在那里他們是老人的陪伴,孩子的保姆,也是工人。這些機(jī)器人有所謂的正電子大腦,一種管理和處理它們的視覺、智能和運(yùn)動(dòng)功能的 CPU。
在我們這個(gè)時(shí)代,可供企業(yè)和大眾使用的是所謂的狹義人工智能;根據(jù)手頭的任務(wù),可以通過單獨(dú)的渠道或 API 訪問這種類型的人工智能。例如,對于自然語言處理,必須連接到一個(gè)或多個(gè)提供該類型 AI 的特定通道/API。對于計(jì)算機(jī)視覺,還必須連接到一個(gè)或多個(gè)特定通道/API。機(jī)器學(xué)習(xí)算法也是如此。除了實(shí)驗(yàn)性之外,我們今天還沒有涵蓋所有內(nèi)容的人工智能。當(dāng)然,有一些實(shí)驗(yàn)性的人工智能技術(shù)試圖將其提升到一個(gè)新的水平,被稱為通用人工智能,甚至更進(jìn)一步,比如被稱為 PLATO 的人工智能,
人工智能對我們生活的深刻影響
企業(yè)和公眾使用的技術(shù)被認(rèn)為是窄人工智能。即使人工智能處于真正的嬰兒期,我們也看到了對我們生活的深刻影響。我們看到社交媒體正在為我們提供更多重申我們信念的內(nèi)容,即使它們可能是錯(cuò)誤的。如果你認(rèn)為登月是假的,社交媒體的人工智能會(huì)發(fā)現(xiàn)更多內(nèi)容讓你感興趣。很冷。它不在乎是否還有一百萬個(gè)事實(shí)證明并非如此——它仍然會(huì)滿足你的需求。為什么?很簡單:錢。這些算法可以讓你的眼球忙于那些內(nèi)容,從而為你提供更多廣告。干凈利落。
人工智能不會(huì)犯錯(cuò):誰承擔(dān)道德責(zé)任?
我們有一些案例,人工智能錯(cuò)誤地識別了一個(gè)感興趣的人,或者人工智能視覺在識別有色人種方面存在更多問題,或者肯塔基州法院系統(tǒng)的案例,使用人工智能算法評估一個(gè)人的風(fēng)險(xiǎn)以確定保釋的可能性只是后來才發(fā)現(xiàn)系統(tǒng)不成比例地將黑人確定為更高的風(fēng)險(xiǎn),而以前幾乎沒有區(qū)別。我們已經(jīng)看到人工智能算法會(huì)根據(jù)年齡丟棄人們的簡歷。還有微軟的人工智能 Tay 的例子,在不到 16 小時(shí)的時(shí)間里,Twitter 被教導(dǎo)成為一個(gè)種族主義混蛋,它開始通過其 Twitter 賬戶發(fā)布煽動(dòng)性和攻擊性的推文,導(dǎo)致微軟將其關(guān)閉。
人工智能與以前的編碼方法的區(qū)別在于,人工智能在很大程度上是一種統(tǒng)計(jì)算法,而以前的編碼方法或語言是確定性的 if-then-else 流。傳統(tǒng)上,我們已經(jīng)看到編碼實(shí)踐演變?yōu)楦鼑?yán)格的東西,并且演變了幾種方法和實(shí)踐:瀑布、敏捷、Scrum 等。實(shí)踐和法規(guī)也演變?yōu)楸Wo(hù)信息,例如 PCI(保護(hù)持卡人的信息) ),或 HIPAA(保護(hù)患者信息)等。
這些方法和實(shí)踐的目的正是為混亂的開發(fā)帶來秩序,強(qiáng)制規(guī)劃和設(shè)計(jì)實(shí)踐,并為正在進(jìn)行的任何開發(fā)帶來嚴(yán)格的測試方法。最終目標(biāo)是擁有可靠、有彈性的軟件解決方案,既能解決需求,又能保護(hù)人們和企業(yè)的利益。
如前所述,人工智能算法是不同的。華盛頓大學(xué)教授佩德羅·多明戈斯(Pedro Domingos)在他的《算法大師》一書中說得非常好:“學(xué)習(xí)算法是種子,數(shù)據(jù)是土壤,學(xué)習(xí)程序是種植的植物。機(jī)器學(xué)習(xí)專家就像農(nóng)民一樣,播種、灌溉和施肥,同時(shí)關(guān)注作物的健康狀況,否則會(huì)置身事外。” 到目前為止,還沒有普遍接受的方法可以將數(shù)據(jù)提供給當(dāng)前的機(jī)器學(xué)習(xí)算法。在這些算法中也沒有幫助確定是非的護(hù)欄。
2022 年 10 月,白宮發(fā)布了《人工智能權(quán)利法案》的藍(lán)圖,其實(shí)質(zhì)是試圖確立人工智能系統(tǒng)必須安全、有效、無歧視、尊重?cái)?shù)據(jù)隱私、公開使用并具有廣泛人工監(jiān)督的結(jié)構(gòu)。在我看來,這是一個(gè)很好的開始嘗試,然而,它并沒有涵蓋最尖銳和最明顯的問題:它關(guān)注的是最終結(jié)果而不是開始。請?jiān)试S我解釋一下:要使 AI 系統(tǒng)符合 AI 權(quán)利法案的所有要求,它必須首先輸入數(shù)據(jù)。干凈利落。
我相信在 2023 年,我們將開始看到新方法的擴(kuò)散和成熟,以提供數(shù)據(jù)并測試 AI 算法的結(jié)果。在我看來,我們需要以類似的方式來考慮這些算法,就像我們認(rèn)為人類需要有道德和價(jià)值觀一樣,重視公平和禮貌。很難認(rèn)為它們需要道德指南針,但現(xiàn)實(shí)情況是這些算法會(huì)影響人類生活,這并不總是更好。
攜手共創(chuàng)未來
當(dāng)我們實(shí)施人工智能模型時(shí),我們需要進(jìn)行步驟、規(guī)劃和設(shè)計(jì)。這些已經(jīng)是傳統(tǒng)軟件開發(fā)過程中的常見做法。為什么不在人工智能中?我們需要問一些問題,例如這個(gè)模型是否適用于所有顏色和性別?這個(gè)模型是否被提供了等量的樣本數(shù)據(jù),這些數(shù)據(jù)公平地代表了它會(huì)影響的人?這種模式的結(jié)果是否平等地保護(hù)了公民的權(quán)利?這個(gè)算法有沒有辦法識別它不應(yīng)該說的東西?
簡而言之,人工智能是一種比傳統(tǒng)軟件更先進(jìn)的技術(shù)。為什么不采用一種方法來提供數(shù)據(jù)、測試和監(jiān)控結(jié)果,以確保我們的算法具有道德指南針,就像阿西莫夫在 80 年前設(shè)想的機(jī)器人技術(shù)的三個(gè)基本定律一樣?