1. 創(chuàng)業(yè)頭條
  2. 前沿領(lǐng)域
  3. 人工智能
  4. 正文

當(dāng)年輕人開始談?wù)揂I智能倫理

 2020-10-29 09:54  來源:A5專欄  我來投稿 撤稿糾錯(cuò)

  阿里云優(yōu)惠券 先領(lǐng)券再下單

賽博朋克的電影里,常??梢钥吹竭@樣的構(gòu)想:

社會(huì)已經(jīng)被財(cái)閥集團(tuán)所控制,人工智能充當(dāng)了統(tǒng)治的工具,所有人的行為都要遵循機(jī)器的邏輯、服從算法的規(guī)則。然后生活在社會(huì)最底層的主角,找到了其中的漏洞并嘗試走出被操控的宿命。

可能在大多數(shù)的認(rèn)知里,類似的反烏托邦世界離我們還很遙遠(yuǎn)。但當(dāng)人工智能技術(shù)從象牙塔走進(jìn)現(xiàn)實(shí)生活,與AI倫理有關(guān)的議題逐漸成為學(xué)術(shù)界爭(zhēng)論的焦點(diǎn),甚至有一些年輕人也開始思考算法的倫理和風(fēng)險(xiǎn)。

比如在B站上小有名氣的視頻博主“在下小蘇”制作的一期內(nèi)容里,對(duì)DeepFake、人機(jī)戀愛等話題進(jìn)行了討論 ,諸如DeepFake等黑科技被用來惡搞甚至是作惡的時(shí)候,我們對(duì)人工智能應(yīng)該秉持什么樣的態(tài)度?一旦“技術(shù)中立”被越來越多人抨擊,我們應(yīng)該如何處理新時(shí)代的人機(jī)關(guān)系?

或許AI倫理的概念還有些宏觀,卻是與每一個(gè)人息息相關(guān)的事。

01 無處不在的算法歧視

人工智能離我們并不遙遠(yuǎn)。

當(dāng)你打開資訊應(yīng)用時(shí),算法會(huì)根據(jù)你的喜好自動(dòng)推薦新聞;當(dāng)你去電商平臺(tái)購物的時(shí)候,算法會(huì)結(jié)合你的習(xí)慣推薦對(duì)應(yīng)的商品;當(dāng)你去求職應(yīng)聘的時(shí)候,首先處理簡(jiǎn)歷并進(jìn)行篩選的可能也是算法;當(dāng)你去醫(yī)院看病就醫(yī)的時(shí)候,醫(yī)生可能會(huì)利用某個(gè)算法模型來判斷患病的可能性……

算法正在以前所未有的速度滲透到我們的生活中。在支持者眼中,算法可以在一些決策中減少人為干預(yù),進(jìn)而提升決策 的效率和準(zhǔn)確性??蓮呐械慕嵌瘸霭l(fā),算法是否帶有人為的偏見,人們的命運(yùn)是否會(huì)被算法左右?

遺憾的是,算法歧視現(xiàn)象往往是算法落地應(yīng)用的衍生品。

亞馬遜曾在2014年開發(fā)了一套“算法篩選系統(tǒng)”,目的是在招聘的時(shí)候幫助HR篩選簡(jiǎn)歷,開發(fā)團(tuán)隊(duì)打造了500個(gè)算法模型 ,同時(shí)教算法識(shí)別50000個(gè)曾經(jīng)在簡(jiǎn)歷中出現(xiàn)的術(shù)語,然后對(duì)應(yīng)聘者的不同能力分配權(quán)重。

最后開發(fā)團(tuán)隊(duì)卻發(fā)現(xiàn),算法對(duì)男性應(yīng)聘者有著明顯的偏好,如果識(shí)別出簡(jiǎn)歷中有女子足球俱樂部、女子學(xué)校等經(jīng)歷時(shí),就會(huì)對(duì)簡(jiǎn)歷給出相對(duì)比較低的分?jǐn)?shù)。這個(gè)算法模型最終被路透社曝光,亞馬遜也適時(shí)停止了算法的使用,令人深思的卻是:為何“沒有價(jià)值觀”的算法開始有了偏見?

無獨(dú)有偶,2018年IG奪冠的喜訊讓互聯(lián)網(wǎng)沸騰的時(shí)候,戰(zhàn)隊(duì)老板王思聰隨即在微博上進(jìn)行抽獎(jiǎng),結(jié)果卻出人意料:獲獎(jiǎng)名單中有112名女性獲獎(jiǎng)?wù)吆?名男性獲獎(jiǎng)?wù)撸垣@獎(jiǎng)?wù)弑嚷适悄行缘?12倍,而參與用戶的男女比率是1:1.2。

于是不少網(wǎng)友質(zhì)疑抽獎(jiǎng)算法的公平性,甚至有網(wǎng)友主動(dòng)測(cè)試抽獎(jiǎng)算法,將獲獎(jiǎng)人數(shù)的設(shè)置大于參與人數(shù),仍然有大量用戶無法獲獎(jiǎng)。原因是這些用戶被算法判定為“機(jī)器人”,意味著在任何抽獎(jiǎng)活動(dòng)中都沒有中獎(jiǎng)的機(jī)會(huì)。

在算法的黑匣子面前,我們看到的大多只有結(jié)果,卻無法理解決策的過程。與之相似的案例可能比比皆是,不過是鮮有人關(guān)注罷了。

最直接的教訓(xùn)就是互聯(lián)網(wǎng),硅谷自由的法度誕生了互聯(lián)網(wǎng),以至于一些原罪被人們選擇性忽略,最終在20多年后出現(xiàn)了一輪輪對(duì)互聯(lián)網(wǎng)的批判。正如*在《減少互聯(lián)網(wǎng)是唯一的答案》一文中,將互聯(lián)網(wǎng)歸結(jié)為帶有集權(quán)主義意識(shí)形態(tài)的技術(shù),互聯(lián)網(wǎng)企業(yè)被形容為一群驅(qū)使著技術(shù)的“邪惡魔王”。

對(duì)互聯(lián)網(wǎng)的批判大概率不會(huì)讓人們減少互聯(lián)網(wǎng)的使用,卻給出了一個(gè)思路:為何互聯(lián)網(wǎng)會(huì)從萬眾仰慕的行業(yè)淪為過街老鼠,倘若算法的應(yīng)用和算法歧視現(xiàn)象不被制約,又將在未來某一天掀起多大的波瀾?

02 根源在于人性的偏見

當(dāng)然,算法的“偏見”并不缺少合理的解釋。

一種說法是將機(jī)器學(xué)習(xí)結(jié)果的偏見歸咎于數(shù)據(jù)集偏見,而非算法偏見的“技術(shù)中立”。比較知名的支持者就有被稱作“卷積神經(jīng)網(wǎng)絡(luò)之父”的楊立昆,比較常見的論證是:如果某人持菜刀砍了人,難道是菜刀廠商甚至“菜刀本刀”的錯(cuò)?

另一種解釋是數(shù)據(jù)量太小,當(dāng)算法學(xué)習(xí)的數(shù)據(jù)量越大時(shí),算法的錯(cuò)誤會(huì)越少,而且結(jié)果會(huì)越趨向于精準(zhǔn)。即使可以開發(fā)出一套篩選系統(tǒng),將不帶偏見的數(shù)據(jù)輸入給算法,也無法達(dá)到絕對(duì)的公平。畢竟“主流”永遠(yuǎn)擁有更多的數(shù)據(jù),算法最終會(huì)偏向于大多數(shù),對(duì)“非主流”產(chǎn)生所謂的歧視現(xiàn)象。

兩種說法其實(shí)講了一個(gè)相同的道理:計(jì)算機(jī)領(lǐng)域有個(gè)著名的縮寫是GIGO,即Garbage in, Garbage Out。翻譯成中文的意思是,如果輸入的是垃圾數(shù)據(jù),那么輸出的也將是垃圾的結(jié)果。算法就像是現(xiàn)實(shí)世界的鏡子,可以折射出社會(huì)中人們意識(shí)到或者無意識(shí)的偏見,如果整個(gè)社會(huì)對(duì)某個(gè)話題有偏見,算法輸出結(jié)果自然是有歧視的。

德國(guó)哲學(xué)家雅斯貝爾斯曾在《原子彈與人類的未來》寫道:“技術(shù)本身既非善,亦非惡,但它既可以用于善,也可以用于惡。它本身不包含任何觀念:既不包含完美的觀念,也不包含毀滅的邪惡觀念;它們都有別的源頭——在人類自身之中。”

也就是說,算法歧視的根源其實(shí)在于人性的偏見,“算法中立”之流的觀點(diǎn)本質(zhì)上是對(duì)人性偏見的掩飾,也恰恰是人工智能讓人恐懼的地方 。

任何一項(xiàng)技術(shù)的出現(xiàn),都有“工具性”和“目的性”兩個(gè)維度,選擇權(quán)其實(shí)留給了人類自身。然而人性往往經(jīng)不起考驗(yàn),無法想象當(dāng)“工具”交到人們手中又缺少節(jié)制的時(shí)候,將會(huì)做出多大的惡。

就像“小蘇”在視頻中提到的DeepFake算法,2017年亮相時(shí)就引起了巨大的轟動(dòng),一位名為Deepfakes的用戶將神奇女俠扮演者蓋爾·加朵的臉換到了一部*女主角身上,以假亂真的效果引發(fā)了巨大的爭(zhēng)議。

由于DeepFake算法的出現(xiàn),原本只有專業(yè)電影制作機(jī)構(gòu)才能完成的任務(wù),普通人經(jīng)過一段時(shí)間的學(xué)習(xí)也能掌握,就像是一頭沖出籠子的野獸:加蓬總統(tǒng)Ali Bongo利用DeepFake合成的新年致辭,意外引發(fā)了軍方的兵變;有人用DeepFake合成馬來西亞經(jīng)濟(jì)部長(zhǎng)與男性在一起的視頻,給政府造成了不小的煩惱;在世界上無數(shù)隱蔽的角落里,有人利用DeepFake進(jìn)行欺詐勒索……

在這個(gè)“算法無處不在”的世界里,我們?cè)撊绾巫蕴帲?/p>

03 把野獸關(guān)進(jìn)鐵籠子里

作為新時(shí)代的“火種”,我們可能無法拒絕人工智能。

因?yàn)槿斯ぶ悄艿膽?yīng)用,質(zhì)檢線上的工人無須再盯著強(qiáng)光下的產(chǎn)品用眼睛尋找瑕疵;因?yàn)槿斯ぶ悄艿膽?yīng)用,基層的醫(yī)生也可以根據(jù)病人的檢查結(jié)果做出準(zhǔn)確的病情判斷;因?yàn)槿斯ぶ悄艿膽?yīng)用,一群不會(huì)輸入法的老年人也能用語音走進(jìn)互聯(lián)網(wǎng)世界……

不過一切美好的前提在于,先將野獸關(guān)進(jìn)鐵籠子里。

或許可以借用《人民日?qǐng)?bào)》在評(píng)論“快播案”時(shí)的觀點(diǎn):技術(shù)不但必然負(fù)荷價(jià)值,而且還有倫理上“應(yīng)當(dāng)”負(fù)荷的“良善”價(jià)值:維持法律與習(xí)俗的穩(wěn)定,遠(yuǎn)離破壞和顛覆。一旦違逆了這條原則,任何技術(shù)都將被打上可恥的烙印。

言外之意,技術(shù)不應(yīng)該是獨(dú)立于現(xiàn)實(shí)的烏托邦,科技的崛起離不開必要的監(jiān)管,在法律法規(guī)上劃清技術(shù)應(yīng)用的邊界,為技術(shù)中立套上倫理的枷鎖,可以說是人工智能技術(shù)行穩(wěn)致遠(yuǎn)的前提所在。

同時(shí)越來越多的學(xué)者也在討論代碼與法律之間的關(guān)系,擔(dān)憂算法會(huì)不會(huì)動(dòng)搖現(xiàn)有人類社會(huì)法律的基本框架,并提出了“算法規(guī)制”的概念,一種以算法決策為手段的規(guī)制治理體系,可以理解為利于算法治理的工具。

而除了這些防御性的機(jī)制,或許還存在另外一種可能:對(duì)算法開發(fā)者進(jìn)行適當(dāng)?shù)?ldquo;AI倫理”教育,確定一些算法的“基本準(zhǔn)則”,就像“機(jī)器人永不能傷害人類”的鐵律一樣,從源頭杜絕算法的濫用。

以“在下小蘇”為代表的視頻博主不失為一個(gè)切入口。盡管“在下小蘇”的AI倫理節(jié)目不排除和曠視合作的嫌疑,可如果一家人工智能企業(yè)愿意走進(jìn)年輕人聚焦的互動(dòng)場(chǎng)域,以年輕人熟悉的語境和表達(dá)方式,向外界傳遞AI倫理的概念和自身的AI倫理實(shí)踐,何嘗不是一種行之有效的啟蒙方式 。

目前包括中國(guó)社科院、清華大學(xué)、復(fù)旦大學(xué)、上海交大等在內(nèi)的科研機(jī)構(gòu)與高校,均已經(jīng)開始進(jìn)行AI倫理的相關(guān)研究。世界人工智能大會(huì)、北京智源大會(huì)等行業(yè)頂級(jí)峰會(huì),也將AI倫理作為討論的議題。在人工智能普及過程中扮演了領(lǐng)頭羊作用的企業(yè)們,同樣應(yīng)該肩負(fù)普及AI倫理觀念的義務(wù),為年輕人上好AI第一課。

早在一百多年前的時(shí)候,美國(guó)最高法院大法官路易斯·布蘭代斯就曾發(fā)表言論稱:“陽光是最好的殺毒劑。”同樣的道理也適用于人工智能教育,在教會(huì)年輕人用人工智能改變世界的同時(shí),還要讓他們明白善惡、底線和邊界。

沿用前面提到的那個(gè)例子,菜刀在設(shè)計(jì)它的時(shí)候就已經(jīng)標(biāo)注了它的用途,人工智能也是如此,應(yīng)該將其控制在可理解的天花板下,而非放任在失控的黑箱中,AI倫理就是其中的天花板。

04 寫在最后

無可否認(rèn)的是,伴隨著人工智能的大規(guī)模產(chǎn)業(yè)化應(yīng)用,一些無先例可循的人機(jī)矛盾逐漸浮出了水面,以至于找到一種可預(yù)期的、可被約束的、行為向善的人工智能治理機(jī)制,成了人工智能時(shí)代的首要命題。

或許無須太過沮喪 ,從鉆木取火的原始時(shí)代到計(jì)算機(jī)時(shí)代,人類一直走在學(xué)習(xí)科技、利用科技、掌控科技的路上,期間雖然走了一些彎路,終究做出了一次次善的選擇,找到了正確的馭火之術(shù)。而學(xué)習(xí)AI倫理的“AI第一課”,恰恰就是規(guī)避AI走向惡的一面,理性駕馭AI的正確開始。

當(dāng)Z世代的年輕人都在討論AI倫理的時(shí)候,構(gòu)建出一套完美的人工智能治理規(guī)則,已經(jīng)不再遙不可及。

申請(qǐng)創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

相關(guān)標(biāo)簽
ai智能

相關(guān)文章

  • 對(duì)話李軍:人工智能是“第五范式革命”

    2025國(guó)際人工智能程序設(shè)計(jì)精英挑戰(zhàn)賽(IAEPC)在香港中文大學(xué)成功舉辦。作為主辦方之一,歐美同學(xué)基金會(huì)理事長(zhǎng)李軍接受了大賽主持人艾誠采訪。在采訪中,李軍認(rèn)為IAEPC不僅是一場(chǎng)“冠軍中的冠軍”對(duì)決,更是一次全球AI人才的線下交流盛會(huì)。大賽“史無前例”的吸引了全球青年科技精英匯聚香港,更加推動(dòng)和普

  • 對(duì)話施韓原與杜瑜皓:與參賽選手一起改變世界

    2025國(guó)際人工智能程序設(shè)計(jì)精英挑戰(zhàn)賽(IAEPC)在香港中文大學(xué)成功舉辦。作為大賽發(fā)起人方之一及裁判委員會(huì)負(fù)責(zé)人,施韓原與杜瑜皓接受了大賽主持人艾誠采訪。裁判委員會(huì)主席施韓原分享了此次大賽的亮點(diǎn),IAEPC首次引入創(chuàng)新賽道,探索選手如何與AI合作進(jìn)行答題。裁判委員會(huì)副主席杜瑜皓認(rèn)為,選手最終目標(biāo)并

  • 吳林林專訪IAEPC冠軍:與全球參賽者交流是最重要的一課

    2025國(guó)際人工智能程序設(shè)計(jì)精英挑戰(zhàn)賽(IAEPC)在香港中文大學(xué)成功舉辦。來自深圳的學(xué)生吳林林作為主辦方記者團(tuán)成員,采訪了大賽冠軍選手之一。在吳林林的采訪中,選手認(rèn)為與來自全球的參賽者交流是自己學(xué)到的最重要的一課。在科技與AI之前,選手們可以平等、開放、友好的交流。以下是采訪實(shí)錄(有刪節(jié)):吳林林

  • 吳林林專訪黃錦輝:年輕人要像懂中文一樣懂A

    2025國(guó)際人工智能程序設(shè)計(jì)精英挑戰(zhàn)賽(IAEPC)在香港中文大學(xué)成功舉辦。來自深圳的學(xué)生吳林林作為主辦方記者團(tuán)成員,采訪了大會(huì)嘉賓:全國(guó)政協(xié)委員、香港特別行政區(qū)立法會(huì)議員、香港中文大學(xué)工程學(xué)院副院長(zhǎng)、IAEPC聯(lián)合發(fā)起人黃錦輝先生。在吳林林的采訪中,黃錦輝教授勉勵(lì)年輕人要像懂中文和英語一樣懂AI,

  • 本以為DeepSeek天下無敵了,沒想到Manus更猛

    昨天新出了一個(gè)AI,據(jù)說比DeepSeek還牛,而截止到今早,已經(jīng)有10萬人在排隊(duì)申請(qǐng)Manus邀請(qǐng)碼了,而且它邀請(qǐng)碼已經(jīng)炒到10萬了。這是北京的一家人工智能公司蝴蝶科技,創(chuàng)始人是一名來自華中科技大學(xué)的90后畢業(yè)生肖弘,突然向全球宣布:世界上第一款真正的人工智能、通用智能體產(chǎn)品出現(xiàn)了,名叫Manus

    標(biāo)簽:
    ai智能
  • 別讓DeepSeek成了造謠者的“白手套”

    謠言肆虐,擦亮眼睛

  • 庫克已納投名狀:蘋果AI沒得選,只能選百度

    蘋果16弄了兩個(gè)版本,一個(gè)是專門給中國(guó)人用的,準(zhǔn)備用百度的AI,還要交錢。第二個(gè)是全世界都可以用的,用了ChatGPT,包括臺(tái)灣、香港、澳門都可以用。以后都這樣了。好,問題就出在這,蘋果和百度的合作出現(xiàn)問題了,新聞連起來看,才能明白其中含義。新聞一:蘋果正在和騰訊、字節(jié)初步接洽,考慮將二者的AI模型

    標(biāo)簽:
    蘋果AI
    百度AI
    庫克
  • AI加速時(shí)代的“進(jìn)度條”,我們撥動(dòng)了百分之幾?

    “技術(shù)日新月異,人類生活方式正在快速轉(zhuǎn)變,這一切給人類歷史帶來了一系列不可思議的奇點(diǎn)。我們?cè)?jīng)熟悉的一切,都開始變得陌生?!庇?jì)算機(jī)之父約翰·馮·諾依曼曾這樣說到。

    標(biāo)簽:
    ai智能
  • AI視頻賽道,要變天了

    “毀滅你,與你何干?”,這是在劉慈欣的科幻小說《三體》里用來形容人類與三體人之間的戰(zhàn)爭(zhēng)的一句話。

    標(biāo)簽:
    ai智能
  • “創(chuàng)造市場(chǎng)”與“算法進(jìn)化”,中美AI競(jìng)速的岔路口

    “人工智能的商業(yè)模式,是要?jiǎng)?chuàng)造一個(gè)市場(chǎng),而非一個(gè)算法”。這是世界AI泰斗MichaelI.Jordan的觀點(diǎn)。而當(dāng)前的全球AI市場(chǎng),占據(jù)主導(dǎo)地位的中美雙方,卻也走出了兩條截然不同的技術(shù)路徑,前者執(zhí)著于前沿技術(shù)的探索,后者則發(fā)力應(yīng)用優(yōu)化和商業(yè)化落地。南轅北轍的兩個(gè)方向,或許已經(jīng)無法直接進(jìn)行排位先后、優(yōu)

    標(biāo)簽:
    ai智能

編輯推薦