色翁荡息又大又硬又粗又视频软件,人人妻人人爽.,人人妻人人狠人人爽天天综合网,欧美精品亚洲精品日韩已满十八 ,欧美激情猛片xxxⅹ大3

利用隱私數(shù)據(jù)探測用戶情緒,蘋果引發(fā)爭議

神譯局是36氪旗下編譯團隊,關(guān)注科技、商業(yè)、職場、生活等新領域,重點介紹國外的新技術(shù)、新觀點、新風向。

編者按:蘋果公司在利用Apple Watch和iPhone用戶的隱私數(shù)據(jù)進行情緒檢測,但這一技術(shù)目前而言不僅十分不可靠,還會對用戶的隱私造成隱患,人們會愿意自己的情緒被電子產(chǎn)品所探知嗎?本文翻譯自Fast Company,原文作者Ruth Reader,標題Apple is studying mood detection using iPhone data. Critics say the tech is flawed。 

最近,對于加州大學洛杉磯分校和蘋果公司進行的一項調(diào)查發(fā)現(xiàn),iPhone的制造商正在使用面部識別、語音和對一系列其他被動行為的跟蹤來檢測抑郁癥。這份由《華爾街日報》的Rolfe Winkler撰寫的報告引發(fā)了人們對該公司進軍名為“情感人工智能”領域的擔憂。一些科學家甚至表示,該領域是建立在錯誤的假設之上的,所以是一種“偽科學”。

蘋果公司的抑郁癥研究于2020年8月首次被公開。此前的研究信息表明,該公司僅使用某些健康數(shù)據(jù),如心率、睡眠和用戶與手機互動的方式來了解他們的心理健康。但《華爾街日報》的報道稱,實際上他們把用戶的生命體征、運動、語言、睡眠、打字習慣、甚至是打字頻率都納入了檢測范圍,以用來檢測壓力、抑郁和焦慮。他們同時從Apple Watch和iPhone的攝像頭與麥克風收集數(shù)據(jù),并與心理健康評判標準和皮質(zhì)醇水平數(shù)據(jù)(從參與者的表皮毛囊中獲取的)進行比較。

圖片來源:Pexels

據(jù)《華爾街日報》報道,蘋果公司還參與了其他的一些研究,旨在根據(jù)iPhone和Apple Watch的數(shù)據(jù)檢測兒童認知能力的下降和自閉癥,這些研究是蘋果公司對個人健康研究的延伸,他們在追蹤用戶的運動、睡眠、聽力、身體穩(wěn)定性、月經(jīng)、飲食和其他日常健康指標方面投入了大量資金,甚至集成了醫(yī)療數(shù)據(jù),還可以向用戶的醫(yī)生發(fā)送健康報告。

對于抑郁癥的研究則進一步利用健康數(shù)據(jù)來對用戶的情緒狀態(tài)做出假設。越來越多的應用程序都推出了這個功能,聲稱利用所謂的情感人工智能或情感計算可以被動地衡量你的情緒。出于商業(yè)目的,他們利用包括面部表情在內(nèi)的各種數(shù)據(jù)來試圖檢測用戶的情緒。根據(jù)Grand View Research的數(shù)據(jù),2019年,情感計算的市場規(guī)模約為200億美元。

唐恩都樂、聯(lián)合利華、嘉年華郵輪公司和IBM等大公司已經(jīng)開始在招聘過程中使用情感人工智能來了解應聘者的性格。這種技術(shù)還被實驗性地甚至商業(yè)性地用于檢測汽車司機們是否在打瞌睡,這一技術(shù)還被監(jiān)獄用來檢測服刑人員的心理壓力,而在疫情期間,這一技術(shù)也被用來檢測上網(wǎng)課的學生們到底有沒有在認真學習。

但這項技術(shù)也受到了多方批評。不僅因為它收集了大量的敏感數(shù)據(jù),還因為這項技術(shù)的最終效果難以盡人意。電子前沿基金會的立法活動家Hayley Tsukayama說:“總的來說,實驗已經(jīng)證明我們看到的那些能檢測情感或心理健康的產(chǎn)品并不是很可靠?!?/p>

圖片來源:Pexels

科學家們也公開批評了情感人工智能的問題,稱這一技術(shù)是建立在一個本身就有缺陷的假設之上的。南加州大學安嫩伯格傳播與新聞學院研究員、《人工智能圖譜:人工智能的權(quán)力、政治和環(huán)境成本》一書的作者Kate Crawford將這一假設稱為是一種“顱相學沖動,是從一個人的外表得出關(guān)于其內(nèi)在狀態(tài)和能力的錯誤假設,目的是為了獲取那些用戶沒有主動公開的信息?!?/p>

2019年,一組研究人員在學術(shù)期刊《公共利益中的心理科學》上發(fā)表了一篇論文,闡述了情感人工智能面臨的挑戰(zhàn)。他們寫道:“不管算法有多復雜,僅僅通過分析面部運動來‘讀取’人們的內(nèi)心狀態(tài),而不考慮所處環(huán)境等各個方面,說好聽點這叫不成熟,說難聽點就是根本無效?!痹谶@篇論文中,研究人員呼吁人們對這一技術(shù)進行更深入的研究,探索人們在不同情況下是如何利用面部動作來展示或掩蓋內(nèi)心情緒的,以及人們是如何根據(jù)他人的面部表情來推斷他人的情緒的。

隨著越來越多像蘋果這樣的科技公司開始對這項技術(shù)進行投資,情感人工智能的可靠程度將會產(chǎn)生巨大的影響。去年8月,亞馬遜推出了一款可穿戴健康設備,它的功能就是檢測你的聲音的情緒語調(diào)。而在《自然》上的一篇文章中, Crawford呼吁國家需要制定強有力的法律來確保情感人工智能應用背后的科學是嚴格且透明的。曾經(jīng),測謊儀這一并不可靠的技術(shù)被使用了幾十年,在造成了巨大的損害之后才被證明是不可靠的,因此,在這份報告中,她認為情感人工智能技術(shù)還需要進行完善,而測謊儀就是前車之鑒。

Tsukayama說,各大公司有責任明確地說明這項技術(shù)的能力與缺陷。在檢測抑郁癥的案例中,公司需要做的不僅僅是向用戶說明人工智能的評估僅具有參考價值,還需要考慮外行人會對這項功能進行怎樣的解讀。 “他們會覺得有了這項技術(shù)就可以不用去看醫(yī)生了嗎?”“他們會覺得這項技術(shù)已經(jīng)成熟到可以讓他們進行自我療愈了嗎?”這些誤解都有可能對用戶造成傷害。

技術(shù)律師、新罕布什爾大學法學院的助理教授Tiffany C. Li說,她認為蘋果公司的研究對醫(yī)學發(fā)展可能會有幫助,但“重要的是我們需要建立保護機制?!彼龑η楦腥斯ぶ悄艿膿鷳n是,這項技術(shù)將會使用大量的個人數(shù)據(jù),如果聯(lián)邦隱私立法中不包含對人們生物特征數(shù)據(jù)的保護,那么消費者對他們的數(shù)據(jù)的使用、處理和存儲方式會失去自主權(quán)。

圖片來源:Pexels

蘋果公司正與一項學術(shù)研究合作測試抑郁癥檢測,該研究對透明度和參與者的知情同意有著嚴格的規(guī)定?!度A爾街日報》在其報告中指出,加州大學洛杉磯分校和蘋果公司的研究可能永遠不會被用于面向消費者的應用程序。這項研究從2020年開始,為期三年,在下一階段,實驗樣本將擴大到3000人。不過,蘋果公司對情感人工智能的研究是該領域正在加速發(fā)展的跡象,評論人士認為,隨著技術(shù)的普及,必須出臺更有力的監(jiān)管制度。

Tsukayama說:“如果你想使用這項算法來幫你做關(guān)鍵的決定,你就得確保它是透明的,是可以被審計、可被證偽的?!薄澳阋_保它有基本的責任制度?!?/p>

譯者:扣人心