加強(qiáng)人工智能倫理治理
近日,人工智能研究公司OpenAI推出全新的生成式人工智能模型Sora成為全球關(guān)注熱點(diǎn)。Sora能將文字、圖像、音頻等信息轉(zhuǎn)化為逼真的視頻,仿佛擁有點(diǎn)石成金的魔力。
從人工智能技術(shù)驅(qū)動(dòng)的自然語言處理工具ChatGPT到如今的Sora,從自動(dòng)生成文字、圖片,再到自動(dòng)生成視頻,人們驚嘆人工智能突破性進(jìn)展,同時(shí)也伴隨著質(zhì)疑和擔(dān)憂,特別是背后的倫理挑戰(zhàn)。Sora生成的視頻可以以假亂真。這是一把雙刃劍,一方面可以用于藝術(shù)創(chuàng)作;另一方面也可能被濫用于造假、欺騙,甚至顛覆人們對現(xiàn)實(shí)的認(rèn)知。
Sora的出現(xiàn)意味著人工智能技術(shù)已經(jīng)發(fā)展到一個(gè)新的高度,同時(shí)也對人工智能技術(shù)的監(jiān)管能力提出挑戰(zhàn)。如果不能有效地管控Sora等技術(shù),可能會(huì)出現(xiàn)無法預(yù)料的后果。
聯(lián)合國教科文組織此前發(fā)布的《人工智能倫理原則》,提出了人工智能發(fā)展的11項(xiàng)基本原則,包括尊重人權(quán)、促進(jìn)可持續(xù)發(fā)展、避免偏見和歧視等。多個(gè)國家和地區(qū)都發(fā)布了相關(guān)的人工智能倫理規(guī)范。微軟等大型科技公司也發(fā)布了相關(guān)規(guī)范。
人工智能技術(shù)日新月異,倫理規(guī)范和監(jiān)管制度難免存在滯后性。加之倫理問題的復(fù)雜性,各個(gè)國家和地區(qū)規(guī)范存在差異,許多規(guī)定過于原則性,缺乏可操作性,難以有效落地實(shí)施。因此,完善細(xì)化相關(guān)倫理規(guī)范,加強(qiáng)審查和監(jiān)管,以及相關(guān)倫理教育和宣傳,更顯迫切。只有正視Sora帶來的倫理挑戰(zhàn),并加強(qiáng)倫理治理,才能確保人工智能技術(shù)造福人類,而不是成為威脅。(林紫曉)
近日,人工智能研究公司OpenAI推出全新的生成式人工智能模型Sora成為全球關(guān)注熱點(diǎn)。Sora能將文字、圖像、音頻等信息轉(zhuǎn)化為逼真的視頻,仿佛擁有點(diǎn)石成金的魔力。
從人工智能技術(shù)驅(qū)動(dòng)的自然語言處理工具ChatGPT到如今的Sora,從自動(dòng)生成文字、圖片,再到自動(dòng)生成視頻,人們驚嘆人工智能突破性進(jìn)展,同時(shí)也伴隨著質(zhì)疑和擔(dān)憂,特別是背后的倫理挑戰(zhàn)。Sora生成的視頻可以以假亂真。這是一把雙刃劍,一方面可以用于藝術(shù)創(chuàng)作;另一方面也可能被濫用于造假、欺騙,甚至顛覆人們對現(xiàn)實(shí)的認(rèn)知。
Sora的出現(xiàn)意味著人工智能技術(shù)已經(jīng)發(fā)展到一個(gè)新的高度,同時(shí)也對人工智能技術(shù)的監(jiān)管能力提出挑戰(zhàn)。如果不能有效地管控Sora等技術(shù),可能會(huì)出現(xiàn)無法預(yù)料的后果。
聯(lián)合國教科文組織此前發(fā)布的《人工智能倫理原則》,提出了人工智能發(fā)展的11項(xiàng)基本原則,包括尊重人權(quán)、促進(jìn)可持續(xù)發(fā)展、避免偏見和歧視等。多個(gè)國家和地區(qū)都發(fā)布了相關(guān)的人工智能倫理規(guī)范。微軟等大型科技公司也發(fā)布了相關(guān)規(guī)范。
人工智能技術(shù)日新月異,倫理規(guī)范和監(jiān)管制度難免存在滯后性。加之倫理問題的復(fù)雜性,各個(gè)國家和地區(qū)規(guī)范存在差異,許多規(guī)定過于原則性,缺乏可操作性,難以有效落地實(shí)施。因此,完善細(xì)化相關(guān)倫理規(guī)范,加強(qiáng)審查和監(jiān)管,以及相關(guān)倫理教育和宣傳,更顯迫切。只有正視Sora帶來的倫理挑戰(zhàn),并加強(qiáng)倫理治理,才能確保人工智能技術(shù)造福人類,而不是成為威脅。(林紫曉)