色翁荡息又大又硬又粗又视频软件,人人妻人人爽.,人人妻人人狠人人爽天天综合网,欧美精品亚洲精品日韩已满十八 ,欧美激情猛片xxxⅹ大3

撕開《魷魚游戲》中恐怖AI的面具

在廣受歡迎的《魷魚游戲》系列中,AI扮演了什么角色?我們將何去何從?

廣受歡迎的《魷魚游戲》(Squid Game)在世界各地的新聞媒體和社交媒體上掀起了一股巨大的熱潮,這部劇及其受歡迎程度可以從很多方面來理解,尤其是在劇中使用的AI對科技愛好者的吸引力,因為如果沒有它們游戲中的許多元素就不可能出現(xiàn)。

01 AI真的很重要

要管理這些致命游戲,技術(shù),尤其是AI是關(guān)鍵元素。首先,如果沒有數(shù)據(jù)庫和智能過濾和搜索算法,參與者的選擇是不可能的。搜索引擎的前后都需要軟件工程師,而且必須為“未來”的參與者使用推薦系統(tǒng)。

接下來是實際的游戲,第一個游戲被翻譯為“紅燈綠燈”,但游戲的直譯應(yīng)該是“Mugunghwa( 木槿花,韓國的國花)開花了?!边@個名字是“它”背對著重復(fù)的短語。從系列中可以看出,規(guī)則也略有不同。當“它”重復(fù)這個短語時,玩家可以移動,但是當“它”轉(zhuǎn)身時必須凍結(jié),不然你就輸了(或者在系列賽中被瞬間殺死)。

《魷魚游戲》中的“它”實際上是一個有著兩個變焦鏡頭眼睛的巨型機器人,每當它轉(zhuǎn)過身來掃描參與者時,它都試圖檢測運動。如果有人移動,這個人就會被識別出來,并用遙控步槍精確地射擊。這涉及到幾種技術(shù),令人害怕的是,所有這些技術(shù)都很容易獲得。

1、運動檢測:這很容易做到,只需幾行Python代碼就可以完成。

2、人臉識別:將某物檢測為人是一項目標檢測任務(wù),使用深度學(xué)習非常容易(例如YOLO)。另一方面,識別那個人是誰需要更多的工作,但是只要你收集一些訓(xùn)練圖像就可以完成。

3、機器人:墻上有幾支遙控步槍。這些步槍似乎沒有安裝任何傳感器,所以我假設(shè)視覺信息來自機器人的眼睛。信息必須至少包含目標的位置、距離和姿態(tài)。用攝像機校準每支步槍不是小事,但可以做到,近期由美國“幽靈機器人”(Ghost Robotics)公司和“寶劍國際”(SWORD International)公司聯(lián)手打造的戰(zhàn)斗機器狗就是很好的例子。

對于這款游戲來說,AI技術(shù)尤為重要,因為它能夠提供一種“公平感”。想象一下,這款致命游戲是由真人扮演“IT”,而游戲職員則是這場射擊游戲的操作者,要在瘋狂的人群中高精度地射擊一個移動的個體,即使是頂尖的狙擊手也難以辦到,同時人類不可能同時準確而公平地跟蹤和檢測這么多人的運動,無法保證游戲的公平性。

但有了AI這些問題都可以被克服。當人類“它”叫你出來時,你會爭辯。當人工智能機器人檢測到動作并開槍時,沒有人提出爭議,AI沒有感情不會對任何個體產(chǎn)生偏頗(但存在偏見),所以看起來AI是這款游戲必不可少的,但卻不是最終解決方案。

02 AI不是最終解決方案

AI雖然重要,但是它可能會成為一個邪惡的工具。

在我看來,《魷魚游戲》生動地描述了AI如何被富人和有權(quán)有勢的人用作另一種方便的工具來剝削弱勢群體。作為一名軟件開發(fā)人員和人工智能研究人員,我所從事的、有時引以為豪的工作可能會變成如此邪惡和暴力的東西,這是一個可怕的想法。

許多人工智能研究人員也有同感。YOLO (You Only Look Once)是當今最流行的目標檢測模型之一,由約瑟夫·雷德蒙(Joseph Redmon)開發(fā)。2017年,他在一場廣受關(guān)注的TED演講中自豪地展示了自己的最新作品。

然而,一年后,他發(fā)現(xiàn)自己的算法被軍方使用,在中東和世界各地追蹤并殺害了成千上萬人,這讓他感到恐懼。例如去年一名伊朗核科學(xué)家在去年(2020年)被AI機槍打死,今年(2021年)8月,阿富汗平民被一架軍用無人機炸死。

去年喬治·弗洛伊德(George Floyd)去世之后,人工智能中的偏見成為了一個大討論話題。我們現(xiàn)在意識到,人工智能可能和人類一樣有偏見,甚至更有偏見。問題可能來自多個層面:例如,傾斜的數(shù)據(jù)集、訓(xùn)練期間超參數(shù)的輕微擾動、轉(zhuǎn)移的域或惡意的對抗攻擊,但總歸一句話:AI存在偏見。

03 為什么AI也有偏見?

首先得明白一點:今天的人工智能模型通常是預(yù)先訓(xùn)練好的,并且是開源的,這使得研究人員和公司都可以快速實施人工智能,并根據(jù)他們的具體需求進行調(diào)整,這是AI存在偏見的根源所在。

雖然這種方法使人工智能更加商業(yè)化,但也有一個真正的缺點,即少數(shù)模型現(xiàn)在支撐著各行業(yè)和各大洲的大多數(shù)人工智能應(yīng)用。這些系統(tǒng)被未檢測到的或未知的偏見所困擾,這意味著為他們的應(yīng)用調(diào)整這些系統(tǒng)的開發(fā)者是在一個脆弱的基礎(chǔ)上工作。根據(jù)斯坦福大學(xué)基礎(chǔ)模型研究中心最近的一項研究,這些基礎(chǔ)模型中的任何偏見或它們所依據(jù)的數(shù)據(jù)都會被使用它們的人繼承下來,從而造成錯誤被放大的可能性。

例如,YFCC100M是Flickr的一個公開數(shù)據(jù)集,通常用于訓(xùn)練模型。當你檢查這個數(shù)據(jù)集中的人物圖像時,你會發(fā)現(xiàn)世界各地的圖像分布嚴重偏向美國,這意味著缺乏來自其他地區(qū)和文化的人的代表。

訓(xùn)練數(shù)據(jù)中的這些類型的傾斜導(dǎo)致人工智能模型在其輸出中存在代表性不足或過度的偏見--也就是說,輸出中白人或西方文化更占優(yōu)勢。當多個數(shù)據(jù)集被合并以創(chuàng)建大型訓(xùn)練數(shù)據(jù)集時,缺乏透明度,要知道你是否有一個平衡的人、地區(qū)和文化組合會變得越來越困難。由此產(chǎn)生的人工智能模型被公布,其中包含令人震驚的偏見,這并不奇怪。

此外,當基礎(chǔ)的人工智能模型被公布時,通常很少甚至沒有圍繞其局限性提供信息。解開潛在的問題是留給最終用戶來測試的,這一步往往被忽略了。如果沒有透明度和對特定數(shù)據(jù)集的全面了解,要發(fā)現(xiàn)人工智能模型的局限性是很有挑戰(zhàn)性的,例如對婦女、兒童或發(fā)展中國家的表現(xiàn)較差。

04 如何減少AI的偏見

AI存在偏見是不爭的事實,它既不能被消滅也不能被忽視,當前部分從業(yè)者為了獲得更強大的模型,往往會選擇更大的訓(xùn)練數(shù)據(jù),從而犧牲了對數(shù)據(jù)中的偏差和偏見的理解。人工智能中的偏見并非小事,在未來幾年將需要整個科技行業(yè)的合作,目前已有從業(yè)者采取一些預(yù)防措施了。

例如Getty Images,他們要求對其授權(quán)的創(chuàng)意內(nèi)容進行模型公布,這使他們能夠在元數(shù)據(jù)(即描述其他數(shù)據(jù)的一組數(shù)據(jù))中包含自我識別的信息,從而讓人工智能團隊能夠在數(shù)百萬張圖片中自動搜索,并迅速識別數(shù)據(jù)中的偏差。開源數(shù)據(jù)集往往因缺乏元數(shù)據(jù)而受到限制,在將多個來源的數(shù)據(jù)集合并以創(chuàng)建一個更大的數(shù)據(jù)池時,這個問題就更嚴重了。

還有部分從業(yè)者在基礎(chǔ)模型發(fā)布時同時發(fā)布相應(yīng)的數(shù)據(jù)表,描述基礎(chǔ)訓(xùn)練數(shù)據(jù),提供數(shù)據(jù)集中內(nèi)容的描述性統(tǒng)計。這樣做將為后來的用戶提供一個模型的優(yōu)勢和局限性的感覺,使后來者能夠做出明智的決定。

另一個互補的方法是讓人工智能開發(fā)者能夠獲得一個已知偏見和基礎(chǔ)模型的常見限制的運行列表,包括開發(fā)一個容易獲得的偏見測試數(shù)據(jù)庫,人工智能研究人員使用這些模型可以有效預(yù)防AI偏見,就像《魷魚游戲》中的AI從不偏袒任何人一樣。

本文來自微信公眾號“Techsoho”(ID:scilabs),編輯:Light,出品:科技智谷,36氪經(jīng)授權(quán)發(fā)布。