您现在的位置是:Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款 > 

facebook ai模型(阿里開源新一代 AI 算法模型,由達摩院90后科學家研發)

Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款2024-05-17 09:01:28【】6人已围观

简介智能ai對話輕量級模型和重量型區別智能ai對話輕量級模型和重量型區別在于,起源于圖靈測試的AI對話系統,是人工智能領域最重要的研究方向之一。如果說自然語言處理是人工智能“皇冠上的明珠”,那么AI對話系

智能ai對話輕量級模型和重量型區別

智能ai對話輕量級模型和重量型區別在于,起源于圖靈測試的AI對話系統,是人工智能領域最重要的研究方向之一。如果說自然語言處理是人工智能“皇冠上的明珠”,那么AI對話系統則是自然語言處理中最難、最核心的任務之一,是“明珠中最亮的那顆”。因此,AI對話系統被認為是衡量人工智能發展水平的重要因素,代表了人工智能的發展方向。在工業應用領域,AI對話系統呈現出“爆炸式”增長的態勢,如以“小度”“小愛”為代表的智能助理,廣泛應用于個人助理、智能家居、智能 汽車 中,還有以谷歌對話機器人Meena、Facebook聊天機器人Blender為代表的開放域閑聊產品中,與大眾日常生活緊密相關。

近年來,隨著深度學習技術的不斷發展,AI對話系統已經從基于規則的第一代和以傳統機器學習為核心的第二代,發展到以大數據和大模型為顯著特征的第三代,對話能力產生了革命性變化,在開放話題上展現了驚人的對話能力,對進一步推動人工智能產業發展、實現智能化具有巨大意義和價值。

AI人工智能-目標檢測模型一覽

目標檢測是人工智能的一個重要應用,就是在圖片中要將里面的物體識別出來,并標出物體的位置,一般需要經過兩個步驟:

1、分類,識別物體是什么

2、定位,找出物體在哪里

除了對單個物體進行檢測,還要能支持對多個物體進行檢測,如下圖所示:

這個問題并不是那么容易解決,由于物體的尺寸變化范圍很大、擺放角度多變、姿態不定,而且物體有很多種類別,可以在圖片中出現多種物體、出現在任意位置。因此,目標檢測是一個比較復雜的問題。

最直接的方法便是構建一個深度神經網絡,將圖像和標注位置作為樣本輸入,然后經過CNN網絡,再通過一個分類頭(Classification head)的全連接層識別是什么物體,通過一個回歸頭(Regression head)的全連接層回歸計算位置,如下圖所示:

但“回歸”不好做,計算量太大、收斂時間太長,應該想辦法轉為“分類”,這時容易想到套框的思路,即取不同大小的“框”,讓框出現在不同的位置,計算出這個框的得分,然后取得分最高的那個框作為預測結果,如下圖所示:

根據上面比較出來的得分高低,選擇了右下角的黑框作為目標位置的預測。

但問題是:框要取多大才合適?太小,物體識別不完整;太大,識別結果多了很多其它信息。那怎么辦?那就各種大小的框都取來計算吧。

如下圖所示(要識別一只熊),用各種大小的框在圖片中進行反復截取,輸入到CNN中識別計算得分,最終確定出目標類別和位置。

這種方法效率很低,實在太耗時了。那有沒有高效的目標檢測方法呢?

一、R-CNN 橫空出世

R-CNN(Region CNN,區域卷積神經網絡)可以說是利用深度學習進行目標檢測的開山之作,作者Ross Girshick多次在PASCAL VOC的目標檢測競賽中折桂,2010年更是帶領團隊獲得了終身成就獎,如今就職于Facebook的人工智能實驗室(FAIR)。

R-CNN算法的流程如下

1、輸入圖像

2、每張圖像生成1K~2K個候選區域

3、對每個候選區域,使用深度網絡提取特征(AlextNet、VGG等CNN都可以)

4、將特征送入每一類的SVM 分類器,判別是否屬于該類

5、使用回歸器精細修正候選框位置

下面展開進行介紹

1、生成候選區域

使用Selective Search(選擇性搜索)方法對一張圖像生成約2000-3000個候選區域,基本思路如下:

(1)使用一種過分割手段,將圖像分割成小區域

(2)查看現有小區域,合并可能性最高的兩個區域,重復直到整張圖像合并成一個區域位置。優先合并以下區域:

3、類別判斷

對每一類目標,使用一個線性SVM二類分類器進行判別。輸入為深度網絡(如上圖的AlexNet)輸出的4096維特征,輸出是否屬于此類。

4、位置精修

目標檢測的衡量標準是重疊面積:許多看似準確的檢測結果,往往因為候選框不夠準確,重疊面積很小,故需要一個位置精修步驟,對于每一個類,訓練一個線性回歸模型去判定這個框是否框得完美,如下圖:

R-CNN將深度學習引入檢測領域后,一舉將PASCAL VOC上的檢測率從35.1%提升到53.7%。

二、Fast R-CNN大幅提速

繼2014年的R-CNN推出之后,Ross Girshick在2015年推出Fast R-CNN,構思精巧,流程更為緊湊,大幅提升了目標檢測的速度。

Fast R-CNN和R-CNN相比,訓練時間從84小時減少到9.5小時,測試時間從47秒減少到0.32秒,并且在PASCAL VOC 2007上測試的準確率相差無幾,約在66%-67%之間。

Fast R-CNN主要解決R-CNN的以下問題:

1、訓練、測試時速度慢

R-CNN的一張圖像內候選框之間存在大量重疊,提取特征操作冗余。而Fast R-CNN將整張圖像歸一化后直接送入深度網絡,緊接著送入從這幅圖像上提取出的候選區域。這些候選區域的前幾層特征不需要再重復計算。

2、訓練所需空間大

R-CNN中獨立的分類器和回歸器需要大量特征作為訓練樣本。Fast R-CNN把類別判斷和位置精調統一用深度網絡實現,不再需要額外存儲。

下面進行詳細介紹

1、在特征提取階段, 通過CNN(如AlexNet)中的買粉絲nv、pooling、relu等操作都不需要固定大小尺寸的輸入,因此,在原始圖片上執行這些操作后,輸入圖片尺寸不同將會導致得到的feature map(特征圖)尺寸也不同,這樣就不能直接接到一個全連接層進行分類。

在Fast R-CNN中,作者提出了一個叫做ROI Pooling的網絡層,這個網絡層可以把不同大小的輸入映射到一個固定尺度的特征向量。ROI Pooling層將每個候選區域均勻分成M×N塊,對每塊進行max pooling。將特征圖上大小不一的候選區域轉變為大小統一的數據,送入下一層。這樣雖然輸入的圖片尺寸不同,得到的feature map(特征圖)尺寸也不同,但是可以加入這個神奇的ROI Pooling層,對每個region都提取一個固定維度的特征表示,就可再通過正常的softmax進行類型識別。

2、在分類回歸階段, 在R-CNN中,先生成候選框,然后再通過CNN提取特征,之后再用SVM分類,最后再做回歸得到具體位置(bbox regression)。而在Fast R-CNN中,作者巧妙的把最后的bbox regression也放進了神經網絡內部,與區域分類合并成為了一個multi-task模型,如下圖所示:

實驗表明,這兩個任務能夠共享卷積特征,并且相互促進。

Fast R-CNN很重要的一個貢獻是成功地讓人們看到了Region Proposal+CNN(候選區域+卷積神經網絡)這一框架實時檢測的希望,原來多類檢測真的可以在保證準確率的同時提升處理速度。

三、Faster R-CNN更快更強

繼2014年推出R-CNN,2015年推出Fast R-CNN之后,目標檢測界的領軍人物Ross Girshick團隊在2015年又推出一力作:Faster R-CNN,使簡單網絡目標檢測速度達到17fps,在PASCAL VOC上準確率為59.9%,復雜網絡達到5fps,準確率78.8%。

在Fast R-CNN還存在著瓶頸問題:Selective Search(選擇性搜索)。要找出所有的候選框,這個也非常耗時。那我們有沒有一個更加高效的方法來求出這些候選框呢?

在Faster R-CNN中加入一個提取邊緣的神經網絡,也就說找候選框的工作也交給神經網絡來做了。這樣,目標檢測的四個基本步驟(候選區域生成,特征提取,分類,位置精修)終于被統一到一個深度網絡框架之內。如下圖所示:

Faster R-CNN可以簡單地看成是“區域生成網絡+Fast R-CNN”的模型,用區域生成網絡(Region Proposal Network,簡稱RPN)來代替Fast R-CNN中的Selective Search(選擇性搜索)方法。

如下圖

RPN如下圖:

RPN的工作步驟如下:

Faster R-CNN設計了提取候選區域的網絡RPN,代替了費時的Selective Search(選擇性搜索),使得檢測速度大幅提升,下表對比了R-CNN、Fast R-CNN、Faster R-CNN的檢測速度:

總結

R-CNN、Fast R-CNN、Faster R-CNN一路走來,基于深度學習目標檢測的流程變得越來越精簡、精度越來越高、速度也越來越快。基于region proposal(候選區域)的R-CNN系列目標檢測方法是目標檢測技術領域中的最主要分支之一。

為了更加精確地識別目標,實現在像素級場景中識別不同目標,利用“圖像分割”技術定位每個目標的精確像素,如下圖所示(精確分割出人、汽車、紅綠燈等):

Mask R-CNN便是這種“圖像分割”的重要模型。

Mask R-CNN的思路很簡潔,既然Faster R-CNN目標檢測的效果非常好,每個候選區域能輸出種類標簽和定位信息,那么就在Faster R-CNN的基礎上再添加一個分支從而增加一個輸出,即物體掩膜(object mask),也即由原來的兩個任務(分類+回歸)變為了三個任務(分類+回歸+分割)。如下圖所示,Mask R-CNN由兩條分支組成:

Mask R-CNN的這兩個分支是并行的,因此訓練簡單,僅比Faster R-CNN多了一點計算開銷。

如下圖所示,Mask R-CNN在Faster R-CNN中添加了一個全卷積網絡的分支(圖中白色部分),用于輸出二進制mask,以說明給定像素是否是目標的一部分。所謂二進制mask,就是當像素屬于目標的所有位置上時標識為1,其它位置標識為 0

從上圖可以看出,二進制mask是基于特征圖輸出的,而原始圖像經過一系列的卷積、池化之后,尺寸大小已發生了多次變化,如果直接使用特征圖輸出的二進制mask來分割圖像,那肯定是不準的。這時就需要進行了修正,也即使用RoIAlign替換RoIPooling

如上圖所示,原始圖像尺寸大小是128x128,經過卷積網絡之后的特征圖變為尺寸大小變為 25x25。這時,如果想要圈出與原始圖像中左上方15x15像素對應的區域,那么如何在特征圖中選擇相對應的像素呢?

從上面兩張圖可以看出,原始圖像中的每個像素對應于特征圖的25/128像素,因此,要從原始圖像中選擇15x15像素,則只需在特征圖中選擇2.93x2.93像素(15x25/128=2.93),在RoIAlign中會使用雙線性插值法準確得到2.93像素的內容,這樣就能很大程度上,避免了錯位問題。

修改后的網絡結構如下圖所示(黑色部分為原來的Faster R-CNN,紅色部分為Mask R-CNN修改的部分)

從上圖可以看出損失函數變為

損失函數為分類誤差+檢測誤差+分割誤差,分類誤差和檢測(回歸)誤差是Faster R-CNN中的,分割誤差為Mask R-CNN中新加的。

對于每個MxM大小的ROI區域,mask分支有KxMxM維的輸出(K是指類別數量)。對于每一個像素,都是用sigmod函數求二值交叉熵,也即對每個像素都進行邏輯回歸,得到平均的二值交叉熵誤差Lmask。通過引入預測K個輸出的機制,允許每個類都生成獨立的mask,以避免類間競爭,這樣就能解耦mask和種類預測。

對于每一個ROI區域,如果檢測得到屬于哪一個分類,就只使用該類的交叉熵誤差進行計算,也即對于一個ROI區域中KxMxM的輸出,真正有用的只是某個類別的MxM的輸出。如下圖所示:

例如目前有3個分類:貓、狗、人,檢測得到當前ROI屬于“人”這一類,那么所使用的Lmask為“人”這一分支的mask。

Mask R-CNN將這些二進制mask與來自Faster R-CNN的分類和邊界框組合,便產生了驚人的圖像精確分割,如下圖所示:

Mask R-CNN是一個小巧、靈活的通用對象實例分割框架,它不僅可以對圖像中的目標進行檢測,還可以對每一個目標輸出一個高質量的分割結果。另外,Mask R-CNN還易于泛化到其他任務,比如人物關鍵點檢測,如下圖所示:

從R-CNN、Fast R-CNN、Faster R-CNN到Mask R-CNN,每次進步不一定是跨越式的發展,這些進步實際上是直觀的且漸進的改進之路,但是它們的總和卻帶來了非常顯著的效果。

最后,總結一下目標檢測算法模型的發展歷程,如下圖所示:

阿里開源新一代 AI 算法模型,由達摩院90后科學家研發

近日,阿里 AI 開源了新一代人機對話模型 ESIM。該算法模型提出兩年多,已被包括谷歌、facebook 在內的國際學術界在200多篇論文中引用,更曾在國際頂級對話系統評測大賽(DSTC7)上獲得雙料冠軍,將人機對話準確率的世界紀錄提升至94.1%。

ESIM 模型最初由達摩院語音實驗室內的90后科學家陳謙研發,現在已經成為業界的熱門模型和通用標準。這支平均年齡30歲的研發團隊宣布,即日起向全世界企業與個人開源ESIM模型,與全球開發者共享這一成果,共同推進人工智能技術發展。

在去年 DSTC 7大賽上,ESIM 橫掃 NOESIS 賽道,從麻省理工學院、約翰霍普金斯大學、IBM 研究院等近20支參賽隊伍中脫穎而出,拿下該賽道兩項比賽的冠軍。

DSTC 是學術界權威對話系統評測大賽,由微軟研究院、卡耐基梅隆大學的科學家在2013年發起,今年舉辦到了第八屆。NOESIS 賽道考察AI的人機對話能力,要求 AI根據給定的多輪人機對話 歷史 ,從成百到上萬個句子中選出正確的回復。

人機對話系統及其背后的認知智能,是人機交互中最復雜也最重要的技術,曾被比爾蓋茨形容為“人工智能皇冠上的明珠”。為讓機器快速準確理解人類的表達,ESIM給 AI 裝上一套“雷達”系統,賦予它實時檢索對話 歷史 、自動去除干擾信息的能力,使它能夠給出人類期待的回復。

這項突破將給智能客服、導航軟件、智能音箱等應用場景帶去顯著變化,阿里基于 ESIM 模型研發的智能語音點餐機、地鐵語音售票機等應用已在杭州、上海等地落地。

這不是阿里第一次開源前沿技術。2018年達摩院開源了新一代語音識別模型DFSMN,吸引眾多研究者在該模型基礎上開展工作,甚至再度刷新語音識別世界紀錄。

一文看盡2018全年AI技術大突破:NLP跨過分水嶺、CV研究效果驚人

量子位 出品 | 買粉絲 QbitAI

2018,仍是AI領域激動人心的一年。

這一年成為NLP研究的分水嶺,各種突破接連不斷;CV領域同樣精彩紛呈,與四年前相比GAN生成的假臉逼真到讓人不敢相信;新工具、新框架的出現,也讓這個領域的明天特別讓人期待……近日,Analytics Vidhya發布了一份2018人工智能技術總結與2019趨勢預測報告,原文作者PRANAV DAR。量子位在保留這個報告架構的基礎上,對內容進行了重新編輯和補充。這份報告總結和梳理了全年主要AI技術領域的重大進展,同時也給出了相關的資源地址,以便大家更好的使用、查詢。報告共涉及了五個主要部分:

下面,我們就逐一來盤點和展望,嘿喂狗~

2018年在NLP 歷史 上的特殊地位,已經毋庸置疑。

這份報告認為,這一年正是NLP的分水嶺。2018年里,NLP領域的突破接連不斷:ULMFiT、ELMo、最近大熱的BERT……

遷移學習成了NLP進展的重要推動力。從一個預訓練模型開始,不斷去適應新的數據,帶來了無盡的潛力,甚至有“NLP領域的ImageNet時代已經到來”一說。

正是這篇論文,打響了今年NLP遷移學習狂歡的第一槍。論文兩名作者一是Fast.ai創始人Jeremy Howard,在遷移學習上經驗豐富;一是自然語言處理方向的博士生Sebastian Ruder,他的NLP博客幾乎所有同行都在讀。兩個人的專長綜合起來,就有了ULMFiT。想要搞定一項NLP任務,不再需要從0開始訓練模型,拿來ULMFiT,用少量數據微調一下,它就可以在新任務上實現更好的性能。

他們的方法,在六項文本分類任務上超越了之前最先進的模型。詳細的說明可以讀他們的論文:買粉絲s://arxiv.org/abs/1801.06146Fast.ai網站上放出了訓練腳本、模型等:買粉絲://nlp.fast.ai/category/classification.買粉絲

這個名字,當然不是指《芝麻街》里那個角色,而是“語言模型的詞嵌入”,出自艾倫人工智能研究院和華盛頓大學的論文Deep 買粉絲ntextualized word representations,NLP頂會NAACL HLT 2018的優秀論文之一。

ELMo用語言模型(language model)來獲取詞嵌入,同時也把詞語所處句、段的語境考慮進來。

這種語境化的詞語表示,能夠體現一個詞在語法語義用法上的復雜特征,也能體現它在不同語境下如何變化。

當然,ELMo也在試驗中展示出了強大功效。把ELMo用到已有的NLP模型上,能夠帶來各種任務上的性能提升。比如在機器問答數據集SQuAD上,用ELMo能讓此前最厲害的模型成績在提高4.7個百分點。

買粉絲s://allennlp.org/elmo

它由Google推出,全稱是 B idirectional E n買粉絲der R epresentations from T ransformers,意思是來自Transformer的雙向編碼器表示,也是一種預訓練語言表示的方法。從性能上來看,沒有哪個模型能與BERT一戰。它在11項NLP任務上都取得了最頂尖成績,到現在,SQuAD 2.0前10名只有一個不是BERT變體:

如果你還沒有讀過BERT的論文,真的應該在2018年結束前補完這一課:買粉絲s://arxiv.org/abs/1810.04805另外,Google官方開源了訓練代碼和預訓練模型:買粉絲s://github.買粉絲/google-research/bert如果你是PyTorch黨,也不怕。這里還有官方推薦的PyTorch重實現和轉換腳本:買粉絲s://github.買粉絲/huggingface/pytorch-pretrained-BERT

BERT之后,NLP圈在2018年還能收獲什么驚喜?答案是,一款新工具。

就在上周末,Facebook開源了自家工程師們一直在用的NLP建模框架PyText。這個框架,每天要為Facebook旗下各種應用處理超過10億次NLP任務,是一個工業級的工具包。

(Facebook開源新NLP框架:簡化部署流程,大規模應用也OK)

PyText基于PyTorch,能夠加速從研究到應用的進度,從模型的研究到完整實施只需要幾天時間。框架里還包含了一些預訓練模型,可以直接拿來處理文本分類、序列標注等任務。

想試試?開源地址在此:

買粉絲s://github.買粉絲/facebookresearch/pytext

它能主動打電話給美發店、餐館預約服務,全程流暢交流,簡直以假亂真。Google董事長John Hennessy后來稱之為“非凡的突破”,還說:“在預約領域,這個AI已經通過了圖靈測試。”Duplex在多輪對話中表現出的理解能力、合成語音的自然程度,都是NLP目前水平的體現。如果你還沒看過它的視頻……

NLP在2019年會怎么樣?我們借用一下ULMFiT作者Sebastian Ruder的展望:

今年9月,當搭載BigGAN的雙盲評審中的ICLR 2019論文現身,行家們就沸騰了: 簡直看不出這是GAN自己生成的 。

在計算機圖像研究史上,BigGAN的效果比前人進步了一大截。比如在ImageNet上進行128×128分辨率的訓練后,它的Inception S買粉絲re(IS)得分166.3,是之前最佳得分52.52分 3倍 。

除了搞定128×128小圖之外,BigGAN還能直接在256×256、512×512的ImageNet數據上訓練,生成更讓人信服的樣本。

在論文中研究人員揭秘,BigGAN的驚人效果背后,真的付出了金錢的代價,最多要用512個TPU訓練,費用可達11萬美元,合人民幣76萬元。

不止是模型參數多,訓練規模也是有GAN以來最大的。它的參數是前人的2-4倍,批次大小是前人的8倍。

研究論文:買粉絲s://openreview.買粉絲/pdf?id=B1xsqj09Fm

前前后后,Fast.ai團隊只用了16個AWS云實例,每個實例搭載8塊英偉達V100 GPU,結果比Google用TPU Pod在斯坦福DAWNBench測試上達到的速度還要快40%。這樣拔群的成績,成本價只需要 40美元 ,Fast.ai在博客中將其稱作人人可實現。

相關地址: Fast.ai博客介紹:

今年8月,英偉達和MIT的研究團隊高出一個 超逼真 高清視頻生成AI。

只要一幅動態的語義地圖,就可獲得和真實世界幾乎一模一樣的視頻。換句話說,只要把你心中的場景勾勒出來,無需實拍,電影級的視頻就可以自動P出來:

除了街景,人臉也可生成:

這背后的vid2vid技術,是一種在生成對抗性學習框架下的新方法:精心設計的生成器和鑒別器架構,再加上時空對抗目標。

這種方法可以在分割蒙版、素描草圖、人體姿勢等多種輸入格式上,實現高分辨率、逼真、時間相干的視頻效果。

好消息,vid2vid現已被英偉達開源。

研究論文:買粉絲s://tcwang0509.github.io/vid2vid/paper_vid2vid.pdf

GitHub地址買粉絲s://github.買粉絲/NVIDIA/vid2vid

相關地址

相關地址

什么是AI人工智能

摘要:人工智能是計算機科學的一個分支,它企圖了解智能的實質,并生產出一種新的能以人類智能相似的方式作出反應的智能機器。關于人工智能AI這個新興行業,很多人會有很多誤解。今天,小編就收集了關于關于人工智能AI的七大誤解。【AI人工智能】什么是AI人工智能關于人工智能AI的七大誤解

如果你是一名企業主管(而不是數據科學家或機器學習專家),你可能已經從主流媒體的報道中接觸過人工智能。你可能在《經濟學人》和《名利場》讀過相關文章,或讀過有關Tesla自動駕駛的故事,或史蒂芬·霍金寫AI對人類的威脅的文章,甚至還看過有關人工智能和人類智能的諷刺漫畫。

所以,如果你是關心你的企業發展的高管,這些有關AI的媒體報道可能會引出兩個惱人的問題:

第一,AI的商業潛力是真是假?

第二,AI如何應用于我的產品?

第一個問題的答案是肯定的,AI具有商業潛力。今天,企業已經能應用AI改變需要人類智能的自動作業流程。AI能讓人力密集型企業處理的工作量增加100倍,同時把單位經濟效益降低90%。

神話1:AI是魔術

許多主流媒體把AI的描述得想魔術一般神奇,好像我們只需要對谷歌、Facebook、蘋果、亞馬遜和微軟這些大公司的高級魔術師使勁鼓掌。這種描述是幫倒忙。如果我們希望企業采用AI,那么我們就需要讓企業家們理解AI。AI并不是魔術。AI是數據、數學、模型以及迭代。要想讓AI為企業接受,我們需要更加透明,以下是3個有關AI的關鍵概念的解釋:

機器學習(ML):機器學習是能從訓練數據中學習模式,并讓這些模式應用于新的輸入數據的軟件。例如,接收到帶有客戶和CSR間的電子郵件線程的一個新的客戶支持ticket時,機器學習模型能預測它的分類,并告訴你它對這個預測的置信度。機器學習的主要特點是它學習新的、而非適用固有的規則。因此,它能通過消化新的數據調整自己的規則。

Human-in-the-Loop(HITL):Human-in-the-Loop是AI的第三個核心要素。我們不能指望機器學習模型絕對可靠。一個好的機器學習模型可能只有70%的準確率。因此,當模型的置信度較低時,就需要人使用Human-in-the-Loop作業流程。

所以,不要被AI是魔術的神話所迷惑。理解AI的基礎公式是:AI=TD+ML+HITL。

神話2:AI只為技術精英專屬

媒體報道很容易讓人產生一種錯覺,就是AI只屬于技術精英——大公司例如Amazon,Apple,Facebook,Google,IBM,Microsoft,Salesforce,Tesla,Uber——只有它們能夠組建大型機器學習專家團隊,并獲得億美元級的投資。這種觀念是錯的。

今天,不用10萬美元就能著手應用AI到你的業務中。所以,如果你是美國收益大于5000萬美元的26000家企業之一,你就可以把收益的0.2%投資于AI應用了。

所以,AI不是技術精英專屬。它屬于每個企業。

神話3:AI只為解決十億美元級別的問題

主流媒體的傾向于報道未來主義的事物,例如自動駕駛汽車或用于運送快遞的無人飛機。像Google,Tesla,Uber這些公司由于“贏者通吃”的心態,為了搶占未來無人車市場的龍頭老大地位,已經投資進去數百億美元。這些給人的印象是AI只用于解決十億美元級別的新問題。但這又是一個錯誤。

AI也應用于解決現存的較小的問題,例如百萬美元級別的問題。讓我解釋一下:任何一個企業的核心需求都是理解客戶。從古希臘的agora市集和古羅馬的個人買賣廣場就是如此。今天也是如此,哪怕生意買賣爆發性地轉移到了互聯網上。許多企業坐擁來自客戶的非結構化數據寶藏,這些數據來自電子郵件線程或Twitter評論。AI能應用于這些分類支持ticket的挑戰,或用于理解推文情緒。

所以,AI不僅能應用于十億美元級別的令人興奮的新問題,例如自動駕駛汽車。AI也用于現存的“無趣”的小問題,例如通過支持ticket分類或社交媒體情緒分析更好地理解客戶。

神話4:算法比數據更重要

主流媒體中有關AI的報道傾向于認為機器學習算法是最重要的要素。它們似乎把算法等同于人類大腦。它們暗示正是算法讓魔術發生作用,更精細復雜的算法能超越人類大腦。有關機器在國際圍棋和象棋中戰勝人類的報道就是例子。媒體關注的是“深度神經網絡”、“深度學習”以及機器如何做決定。

這樣的報道可能帶給企業這樣的印象:想要應用AI,他們得先聘請到機器學習專家來建一個完美的算法。但假如企業不考慮怎樣獲得更高質量、更大量的定制訓練數據以讓機器學習模型學習,就算有了完美的算法也可能得不到理想的效果(“我們有超棒的算法”和“我們的模型只有60%的準確率”間的落差)。

所以,訓練數據的質量和數量至少是與算法同等重要的。

神話5:機器>人

過去30年來,媒體一直喜歡把AI描述為比人類強大的機器,例如《終結者》的施瓦辛格和《ExMa買粉絲》的AliciaVikander。媒體這樣做也可以理解,因為媒體想建立起機器和人類之間誰會贏的簡單敘述結構。但是,這和實際情況不符。

例如,最近Google的DeepMind/AlphaGo戰勝李世石的新聞被媒體簡單描述成機器戰勝了人類。這是不準確的,真實情況不是這樣簡單。更準確的描述應該是“機器聯合許多人戰勝了一個人”。

消除這種誤解的核心理由是機器和人類具有互補的能力。請看上圖。機器的特長是處理結構化計算,他們會在“找出特征矢量”任務上表現良好。而人類的特長是理解意義和上下文,他們在“找出豹紋連衣裙”任務上表現良好,讓人類做“找出特征矢量”的任務就不那么容易了。

因此,對企業來說正確的框架是實現機器和人的互補,AI是機器和人的共同工作。

神話6:AI就是機器取代人類

主流媒體喜歡描繪反烏托邦的未來,因為它們認為這能吸引眼球。這樣或許確實能吸引讀者眼球,但是,它對真正理解機器和人類如何共同工作沒有一點幫助。

例如,讓我們再回到企業分類支持ticket的業務上來。在現今的大多數企業,這還是100%人工的過程。所以,這個過程又慢成本又高,能做的數量受到限制。假設你在分類了10000個支持ticket之后得到了一個準確率為70%的模型。30%的時候結果錯誤,但這時Human-in-the-loop就可以介入了。你可以把可接受置信度設置為95%,只接受置信度是95%或高于95%的輸出結果。那么機器學習模型最初就只能做一小部分工作,比如說5%-10%。但是當模型得到新的人工標記數據時,它就能學習、進步。因此,隨著時間的推移,模型能處理更多的客戶支持ticket分類工作,企業也能大大增加分類的ticket量。

所以,機器和人聯合可以增加工作量,同時保持質量,降低重要業務的單位經濟效益。這就消滅了機器取代人類的AI神話。真相是,AI是機器強化人類。

神話7:AI=ML

主流媒體有關AI的最后一個神話是把人工智能和機器學習當做一回事了。這可能讓企業管理層以為只要買下Microsoft,Amazon或Google的某個商用機器學習服務就能把AI轉變為產品。

實現一個AI解決方案,除了機器學習,你還需要訓練數據,需要human-in-the-loop。缺了訓練數據的機器學習就像沒汽油的汽車,雖然很貴,但去不到任何地方。缺了human-in-the-loop的機器學習也會導致不良后果。你需要人去推翻機器學習模型低置信度的預測。

所以,如果你是想把AI應用于你的業務的企業高管,那么你想在應該有一個框架了。你可以用AI的7個真相代替AI的7個神話:

真相1:AI=TD+ML+HITL

真相2:AI適用所有企業。

真相3:AI適用現存的小問題。

真相4:算法并不比訓練數據的質量和數量更重要。

真相5:機器和人類互補

真相6:AI是機器強化人類

真相7:AI=TD+ML+HITL

人工智能的魅力?

隨著現代科學技術的飛速發展,先進的技術在各個領域都得到了廣泛的應用。人工智能現在成為了相當火熱的技術,下面就為大家介紹一下人工智能的利與弊。

人工智能的利與弊

一、人工智能技術的發展對我們的益處

1、商業價值很高

就像曾經脫離了傳統農業、傳統手工業的大量勞動力,在現代工業生產和城市服務業中找到新的就業機會那樣,人工智能的進步也將如此——由當前數據密集型機器學習、通過機器學習與人工智能會話的系統而延伸出的很多領域,將會在未來帶來很多工作機遇;

3、人工智能讓人類生活更美好

比如說,人工智能的醫療應用惠及大眾。我們醫生或許難以保持最新治療方案和方法,也無法了解所有醫學例案。人工智能可以在短時間內分析大量數據,精確判斷病癥,并找到最佳的治療方案,為人們提供最好的治療;

二、人工智能帶給我們的弊端

1、大規模的失業

人工智能的發展,導致很多人失業。據人力資源和社會保障部2016年新聞發布會介紹,2016年末中國失業率達4.05%,機器人不會犯錯,不會累,不需要休息,不需要工資。這完全可以代替很多職業,例如工人,司機等等不需要思想的工作。如此便會導致大批大批的人失業,大批大批的人整日無所事事;

2、對人類的一次大淘汰

人工智能時代的到來可能是對人類的一次大淘汰。機器人對人類的大淘汰,如果處理不好有可能引發核大戰,那將是人類的災難,人類可能因此而滅亡;

3、人才爭奪戰導致壟斷、貧富分化加劇

人工智能時代的到來,必將引發空前的人才爭奪戰。誰擁有的各類一流人才數量多質量高,誰就能贏得最后勝利。同時這會導致巨頭的壟斷、貧富分化加劇;

對待人工智能,我們應該以客觀的角度去看待它,揚長避短,充分利用人工智能的優點。希望我的理解能夠幫助你們更進一步了解人工智能。

很赞哦!(84187)

Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款的名片

职业:程序员,设计师

现居:江西宜春袁州区

工作室:小组

Email:[email protected]