您现在的位置是:Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款 > 

01 facebook人臉識別有影響嗎(世界前沿科技是什么?)

Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款2024-06-03 00:37:04【】1人已围观

简介科技溫度修圖軟件安全嗎?在大數據被廣泛應用以提高社會效率的同時,個人資料無可避免地更容易被監控及商品化。在這個大數據時代,我們應該如何保障自己的私隱?以下幾個范疇,值得大家留意。修圖軟件有不少朋友拍照

科技溫度修圖軟件安全嗎?

在大數據被廣泛應用以提高社會效率的同時,個人資料無可避免地更容易被監控及商品化。在這個大數據時代,我們應該如何保障自己的私隱?以下幾個范疇,值得大家留意。

修圖軟件

有不少朋友拍照必用修圖軟件,照片不美白修飾一下,不會放到社交媒體分享。除了P圖,也有不少人喜歡用貼紙濾鏡,把自己的臉轉變成得意動物、或者加上閃亮特效等等。和一班朋友用濾鏡軟件拍照,一起變身白兔、綿羊,笑聲不絕,的確是開心的。

然而,這一類使用人臉識別技術的軟件,難免會有私隱方面的隱憂。一個人臉識別數據庫假如有越多不同性別、年齡、種族、膚色的人臉圖像,則越容易提升它的算法準確程度。因此這些軟件都會不停收集用戶的人臉圖像,以優化它的數據庫。

有不少軟件,除了你的人臉圖像之外,還會收集你的個人資料,例如手機型號、解像度、網絡存取、本地 IP、GPS定位等等。這些個人資料數據,在市場上有價有市。中國去年就有傳媒報道,在互聯網平臺有人公然兜售「人臉數據集」,5,000多張的人臉照片,僅售十元人民幣。而包含姓名、身份證照片、銀行咭,手機號碼的人臉照片,則只需四元人民幣一份。

社交媒體的照片卷標、心理測驗和「老臉挑戰」

除了修圖軟件,假如你對人臉識別技術有憂慮,也應該盡量減少使用社交媒體的照片標簽功能。需知道每次你在社交媒體上載自己和朋友的照片的同時,其實也透露了不少有關你的個人資料,包括所在地點、社交圈子、喜好甚至情緒等等。

以Facebook為例,經過十多年的累積,他們已經建立了具全球數一數二規模的人臉識別數據庫。所以,每當我們上載和朋友聚會的照片,Facebook所建議的人臉照片標簽,都差不多百分百準確無誤。作為用戶,最低限度,你應該設定其他人必須得到你的同意才可以在他們上載的照片上標簽你。

千禧年前后出生的嬰兒,被稱為「數字原住民」。有別于X世代、Y世代,他們未曾見過沒有互聯網和社交媒體的世界,他們也是首個自出生以來被大數據記錄一舉一動的世代。外在的監控,我們或許不能完全避免。假如你身為家長,最少可以考慮減少上載自己孩子的照片(以及一時意氣在社交媒體上因為孩子所發的牢騷),因為每一點一滴,都會成為孩子的數碼足印,足以影響其他人對他的觀感,甚至日后求學和就業的機會。

都說「免費的才是最貴」。

以社交媒體賬號登入

有不少軟件和網上服務,都有讓用戶使用他們的社交媒體賬號直接登入這個選項。對用戶來說,社交媒體賬號登入的好處,當然是方便,可以使用一個賬號走天涯,不用多記不同的登入密碼。

然而,方便往往都有代價。首先,用戶在使用社交媒體賬號登入其他網上服務的同時,其實已經同時授予該網上服務訪問其社交媒體的權限,甚至容許對方嵌入追蹤軟件獲取自己的個人資料,包括姓名、電郵地址、年齡、生日日期、社交網絡等的信息。如前所述,有關個人資料,會被服務提供商利用以優化他們的市場推廣策略,甚至直接向用戶推送廣告,或者調控個人化服務費用等。

此外,假如用戶的社交媒體被黑客入侵的話,所有使用該社交媒體登入的服務,都可能同時被駭。在2019年,就有網絡保安公司在亞馬遜的云端數據庫上發現涉及5.4億名Facebook用戶的個人資料,讓人輕易下載。

總結

社交媒體和各類流動軟件已經成為了我們生活的一部分。我們的行蹤、喜好、社交網絡、消費,因為大數據科技日趨成熟,而以前所未有的速度被廣泛地記錄和分析。數據的而且確越來越值錢。作為普羅大眾,大趨勢我們可能控制不了,但是最少要有警覺性,不要因為方便、得意、免費,而令自己的個人資料予取予攜。

什么是深度學習與機器視覺

深度學習框架,尤其是基于人工神經網絡的框架可以追溯到1980年福島邦彥提出的新認知機[2],而人工神經網絡的歷史更為久遠。1989年,燕樂存(Yann LeCun)等人開始將1974年提出的標準反向傳播算法[3]應用于深度神經網絡,這一網絡被用于手寫郵政編碼識別。盡管算法可以成功執行,但計算代價非常巨大,神經網路的訓練時間達到了3天,因而無法投入實際使用[4]。許多因素導致了這一緩慢的訓練過程,其中一種是由于爾根·施密德胡伯(Jürgen Schmidhuber)的學生賽普·霍克賴特(Sepp Hochreiter)于1991年提出的梯度消失問題[5][6]。與此同時,神經網絡也受到了其他更加簡單模型的挑戰,支持向量機等模型在20世紀90年代到21世紀初成為更加流行的機器學習算法。

“深度學習”這一概念從2007年前后開始受到關注。當時,杰弗里·辛頓(Geoffrey Hinton)和魯斯蘭·薩拉赫丁諾夫(Ruslan Salakhutdinov)提出了一種在前饋神經網絡中進行有效訓練的算法。這一算法將網絡中的每一層視為無監督的受限玻爾茲曼機,再使用有監督的反向傳播算法進行調優[7]。在此之前的1992年,在更為普遍的情形下,施密德胡伯也曾在遞歸神經網絡上提出一種類似的訓練方法,并在實驗中證明這一訓練方法能夠有效提高有監督學習的執行速度[8][9].

自深度學習出現以來,它已成為很多領域,尤其是在計算機視覺和語音識別中,成為各種領先系統的一部分。在通用的用于檢驗的數據集,例如語音識別中的TIMIT和圖像識別中的ImageNet, Cifar10上的實驗證明,深度學習能夠提高識別的精度。

硬件的進步也是深度學習重新獲得關注的重要因素。高性能圖形處理器的出現極大地提高了數值和矩陣運算的速度,使得機器學習算法的運行時間得到了顯著的縮短[10][11]。

基本概念[編輯]

深度學習的基礎是機器學習中的分散表示(distributed representation)。分散表示假定觀測值是由不同因子相互作用生成。在此基礎上,深度學習進一步假定這一相互作用的過程可分為多個層次,代表對觀測值的多層抽象。不同的層數和層的規模可用于不同程度的抽象[1]。

深度學習運用了這分層次抽象的思想,更高層次的概念從低層次的概念學習得到。這一分層結構常常使用貪婪算法逐層構建而成,并從中選取有助于機器學習的更有效的特征[1].

不少深度學習算法都以無監督學習的形式出現,因而這些算法能被應用于其他算法無法企及的無標簽數據,這一類數據比有標簽數據更豐富,也更容易獲得。這一點也為深度學習贏得了重要的優勢[1]。

人工神經網絡下的深度學習[編輯]

一部分最成功的深度學習方法涉及到對人工神經網絡的運用。人工神經網絡受到了1959年由諾貝爾獎得主大衛·休伯爾(David H. Hubel)和托斯坦·威澤爾(Torsten Wiesel)提出的理論啟發。休伯爾和威澤爾發現,在大腦的初級視覺皮層中存在兩種細胞:簡單細胞和復雜細胞,這兩種細胞承擔不同層次的視覺感知功能。受此啟發,許多神經網絡模型也被設計為不同節點之間的分層模型[12]。

福島邦彥提出的新認知機引入了使用無監督學習訓練的卷積神經網絡。燕樂存將有監督的反向傳播算法應用于這一架構[13]。事實上,從反向傳播算法自20世紀70年代提出以來,不少研究者都曾試圖將其應用于訓練有監督的深度神經網絡,但最初的嘗試大都失敗。賽普·霍克賴特(Sepp Hochreiter)在其博士論文中將失敗的原因歸結為梯度消失,這一現象同時在深度前饋神經網絡和遞歸神經網絡中出現,后者的訓練過程類似深度網絡。在分層訓練的過程中,本應用于修正模型參數的誤差隨著層數的增加指數遞減,這導致了模型訓練的效率低下[14][15]。

為了解決這一問題,研究者們提出了一些不同的方法。于爾根·施密德胡伯(Jürgen Schmidhuber)于1992年提出多層級網絡,利用無監督學習訓練深度神經網絡的每一層,再使用反向傳播算法進行調優。在這一模型中,神經網絡中的每一層都代表觀測變量的一種壓縮表示,這一表示也被傳遞到下一層網絡[8]。

另一種方法是賽普·霍克賴特和于爾根·施密德胡伯提出的長短期記憶神經網絡(long short term memory,LSTM)[16]。2009年,在ICDAR 2009舉辦的連筆手寫識別競賽中,在沒有任何先驗知識的情況下,深度多維長短期記憶神經網絡取得了其中三場比賽的勝利[17][18]。

斯文·貝克提出了在訓練時只依賴梯度符號的神經抽象金字塔模型,用以解決圖像重建和人臉定位的問題[19]。

其他方法同樣采用了無監督預訓練來構建神經網絡,用以發現有效的特征,此后再采用有監督的反向傳播以區分有標簽數據。辛頓等人于2006年提出的深度模型提出了使用多層隱變量學習高層表示的方法。這一方法使用斯摩棱斯基于1986年提出的受限玻爾茲曼機[20]對每一個包含高層特征的層進行建模。模型保證了數據的對數似然下界隨著層數的提升而遞增。當足夠多的層數被學習完畢,這一深層結構成為一個生成模型,可以通過自上而下的采樣重構整個數據集[21]。辛頓聲稱這一模型在高維結構化數據上能夠有效低提取特征[22]。

吳恩達和杰夫·迪恩(Jeff Dean)領導的谷歌大腦(英語:Google Brain)團隊創建了一個僅通過YouTube視頻學習高層概念(例如貓)的神經網絡[23] [24]。

其他方法依賴了現代電子計算機的強大計算能力,尤其是GPU。2010年,在于爾根·施密德胡伯位于瑞士人工智能實驗室IDSIA的研究組中,丹·奇雷尚(Dan Ciresan)和他的同事展示了利用GPU直接執行反向傳播算法而忽視梯度消失問題的存在。這一方法在燕樂存等人給出的手寫識別MNIST數據集上戰勝了已有的其他方法[10]。

截止2011年,前饋神經網絡深度學習中最新的方法是交替使用卷積層(買粉絲nvolutional layers)和最大值池化層(max-pooling layers)并加入單純的分類層作為頂端。訓練過程也無需引入無監督的預訓練[25][26]。從2011年起,這一方法的GPU實現[25]多次贏得了各類模式識別競賽的勝利,包括IJCNN 2011交通標志識別競賽[27]和其他比賽。

這些深度學習算法也是最先在某些識別任務上達到和人類表現具備同等競爭力的算法[28]。

深度學習結構[編輯]

深度神經網絡是一種具備至少一個隱層的神經網絡。與淺層神經網絡類似,深度神經網絡也能夠為復雜非線性系統提供建模,但多出的層次為模型提供了更高的抽象層次,因而提高了模型的能力。深度神經網絡通常都是前饋神經網絡,但也有語言建模等方面的研究將其拓展到遞歸神經網絡[29]。卷積深度神經網絡(Covolutional Neuron Networks, CNN)在計算機視覺領域得到了成功的應用[30]。此后,卷積神經網絡也作為聽覺模型被使用在自動語音識別領域,較以往的方法獲得了更優的結果[31]。

深度神經網絡[編輯]

深度神經網絡(deep neuron 買粉絲works, DNN)是一種判別模型,可以使用反向傳播算法進行訓練。權重更新可以使用下式進行隨機梯度下降求解:

其中,為學習率,為代價函數。這一函數的選擇與學習的類型(例如監督學習、無監督學習、增強學習)以及激活函數相關。例如,為了在一個多分類問題上進行監督學習,通常的選擇是使用Softmax函數作為激活函數,而使用交叉熵作為代價函數。Softmax函數定義為,其中代表類別的概率,而和分別代表對單元和的輸入。

很赞哦!(91)

Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款的名片

职业:程序员,设计师

现居:吉林四平伊通满族自治县

工作室:小组

Email:[email protected]