您现在的位置是:Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款 > 

facebook開源ai大模型(百度Paddle會和Python一樣,成為最流行的深度學習引擎嗎) - 副本

Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款2024-05-24 09:12:43【】0人已围观

简介阿里開源新一代AI算法模型,由達摩院90后科學家研發近日,阿里AI開源了新一代人機對話模型ESIM。該算法模型提出兩年多,已被包括谷歌、facebook在內的國際學術界在200多篇論文中引用,更曾在國

阿里開源新一代 AI 算法模型,由達摩院90后科學家研發

近日,阿里 AI 開源了新一代人機對話模型 ESIM。該算法模型提出兩年多,已被包括谷歌、facebook 在內的國際學術界在200多篇論文中引用,更曾在國際頂級對話系統評測大賽(DSTC7)上獲得雙料冠軍,將人機對話準確率的世界紀錄提升至94.1%。

ESIM 模型最初由達摩院語音實驗室內的90后科學家陳謙研發,現在已經成為業界的熱門模型和通用標準。這支平均年齡30歲的研發團隊宣布,即日起向全世界企業與個人開源ESIM模型,與全球開發者共享這一成果,共同推進人工智能技術發展。

在去年 DSTC 7大賽上,ESIM 橫掃 NOESIS 賽道,從麻省理工學院、約翰霍普金斯大學、IBM 研究院等近20支參賽隊伍中脫穎而出,拿下該賽道兩項比賽的冠軍。

DSTC 是學術界權威對話系統評測大賽,由微軟研究院、卡耐基梅隆大學的科學家在2013年發起,今年舉辦到了第八屆。NOESIS 賽道考察AI的人機對話能力,要求 AI根據給定的多輪人機對話 歷史 ,從成百到上萬個句子中選出正確的回復。

人機對話系統及其背后的認知智能,是人機交互中最復雜也最重要的技術,曾被比爾蓋茨形容為“人工智能皇冠上的明珠”。為讓機器快速準確理解人類的表達,ESIM給 AI 裝上一套“雷達”系統,賦予它實時檢索對話 歷史 、自動去除干擾信息的能力,使它能夠給出人類期待的回復。

這項突破將給智能客服、導航軟件、智能音箱等應用場景帶去顯著變化,阿里基于 ESIM 模型研發的智能語音點餐機、地鐵語音售票機等應用已在杭州、上海等地落地。

這不是阿里第一次開源前沿技術。2018年達摩院開源了新一代語音識別模型DFSMN,吸引眾多研究者在該模型基礎上開展工作,甚至再度刷新語音識別世界紀錄。

一文看盡2018全年AI技術大突破:NLP跨過分水嶺、CV研究效果驚人

量子位 出品 | 買粉絲 QbitAI

2018,仍是AI領域激動人心的一年。

這一年成為NLP研究的分水嶺,各種突破接連不斷;CV領域同樣精彩紛呈,與四年前相比GAN生成的假臉逼真到讓人不敢相信;新工具、新框架的出現,也讓這個領域的明天特別讓人期待……近日,Analytics Vidhya發布了一份2018人工智能技術總結與2019趨勢預測報告,原文作者PRANAV DAR。量子位在保留這個報告架構的基礎上,對內容進行了重新編輯和補充。這份報告總結和梳理了全年主要AI技術領域的重大進展,同時也給出了相關的資源地址,以便大家更好的使用、查詢。報告共涉及了五個主要部分:

下面,我們就逐一來盤點和展望,嘿喂狗~

2018年在NLP 歷史 上的特殊地位,已經毋庸置疑。

這份報告認為,這一年正是NLP的分水嶺。2018年里,NLP領域的突破接連不斷:ULMFiT、ELMo、最近大熱的BERT……

遷移學習成了NLP進展的重要推動力。從一個預訓練模型開始,不斷去適應新的數據,帶來了無盡的潛力,甚至有“NLP領域的ImageNet時代已經到來”一說。

正是這篇論文,打響了今年NLP遷移學習狂歡的第一槍。論文兩名作者一是Fast.ai創始人Jeremy Howard,在遷移學習上經驗豐富;一是自然語言處理方向的博士生Sebastian Ruder,他的NLP博客幾乎所有同行都在讀。兩個人的專長綜合起來,就有了ULMFiT。想要搞定一項NLP任務,不再需要從0開始訓練模型,拿來ULMFiT,用少量數據微調一下,它就可以在新任務上實現更好的性能。

他們的方法,在六項文本分類任務上超越了之前最先進的模型。詳細的說明可以讀他們的論文:買粉絲s://arxiv.org/abs/1801.06146Fast.ai網站上放出了訓練腳本、模型等:買粉絲://nlp.fast.ai/category/classification.買粉絲

這個名字,當然不是指《芝麻街》里那個角色,而是“語言模型的詞嵌入”,出自艾倫人工智能研究院和華盛頓大學的論文Deep 買粉絲ntextualized word representations,NLP頂會NAACL HLT 2018的優秀論文之一。

ELMo用語言模型(language model)來獲取詞嵌入,同時也把詞語所處句、段的語境考慮進來。

這種語境化的詞語表示,能夠體現一個詞在語法語義用法上的復雜特征,也能體現它在不同語境下如何變化。

當然,ELMo也在試驗中展示出了強大功效。把ELMo用到已有的NLP模型上,能夠帶來各種任務上的性能提升。比如在機器問答數據集SQuAD上,用ELMo能讓此前最厲害的模型成績在提高4.7個百分點。

買粉絲s://allennlp.org/elmo

它由Google推出,全稱是 B idirectional E n買粉絲der R epresentations from T ransformers,意思是來自Transformer的雙向編碼器表示,也是一種預訓練語言表示的方法。從性能上來看,沒有哪個模型能與BERT一戰。它在11項NLP任務上都取得了最頂尖成績,到現在,SQuAD 2.0前10名只有一個不是BERT變體:

如果你還沒有讀過BERT的論文,真的應該在2018年結束前補完這一課:買粉絲s://arxiv.org/abs/1810.04805另外,Google官方開源了訓練代碼和預訓練模型:買粉絲s://github.買粉絲/google-research/bert如果你是PyTorch黨,也不怕。這里還有官方推薦的PyTorch重實現和轉換腳本:買粉絲s://github.買粉絲/huggingface/pytorch-pretrained-BERT

BERT之后,NLP圈在2018年還能收獲什么驚喜?答案是,一款新工具。

就在上周末,Facebook開源了自家工程師們一直在用的NLP建模框架PyText。這個框架,每天要為Facebook旗下各種應用處理超過10億次NLP任務,是一個工業級的工具包。

(Facebook開源新NLP框架:簡化部署流程,大規模應用也OK)

PyText基于PyTorch,能夠加速從研究到應用的進度,從模型的研究到完整實施只需要幾天時間。框架里還包含了一些預訓練模型,可以直接拿來處理文本分類、序列標注等任務。

想試試?開源地址在此:

買粉絲s://github.買粉絲/facebookresearch/pytext

它能主動打電話給美發店、餐館預約服務,全程流暢交流,簡直以假亂真。Google董事長John Hennessy后來稱之為“非凡的突破”,還說:“在預約領域,這個AI已經通過了圖靈測試。”Duplex在多輪對話中表現出的理解能力、合成語音的自然程度,都是NLP目前水平的體現。如果你還沒看過它的視頻……

NLP在2019年會怎么樣?我們借用一下ULMFiT作者Sebastian Ruder的展望:

今年9月,當搭載BigGAN的雙盲評審中的ICLR 2019論文現身,行家們就沸騰了: 簡直看不出這是GAN自己生成的 。

在計算機圖像研究史上,BigGAN的效果比前人進步了一大截。比如在ImageNet上進行128×128分辨率的訓練后,它的Inception S買粉絲re(IS)得分166.3,是之前最佳得分52.52分 3倍 。

除了搞定128×128小圖之外,BigGAN還能直接在256×256、512×512的ImageNet數據上訓練,生成更讓人信服的樣本。

在論文中研究人員揭秘,BigGAN的驚人效果背后,真的付出了金錢的代價,最多要用512個TPU訓練,費用可達11萬美元,合人民幣76萬元。

不止是模型參數多,訓練規模也是有GAN以來最大的。它的參數是前人的2-4倍,批次大小是前人的8倍。

研究論文:買粉絲s://openreview.買粉絲/pdf?id=B1xsqj09Fm

前前后后,Fast.ai團隊只用了16個AWS云實例,每個實例搭載8塊英偉達V100 GPU,結果比Google用TPU Pod在斯坦福DAWNBench測試上達到的速度還要快40%。這樣拔群的成績,成本價只需要 40美元 ,Fast.ai在博客中將其稱作人人可實現。

相關地址: Fast.ai博客介紹:

今年8月,英偉達和MIT的研究團隊高出一個 超逼真 高清視頻生成AI。

只要一幅動態的語義地圖,就可獲得和真實世界幾乎一模一樣的視頻。換句話說,只要把你心中的場景勾勒出來,無需實拍,電影級的視頻就可以自動P出來:

除了街景,人臉也可生成:

這背后的vid2vid技術,是一種在生成對抗性學習框架下的新方法:精心設計的生成器和鑒別器架構,再加上時空對抗目標。

這種方法可以在分割蒙版、素描草圖、人體姿勢等多種輸入格式上,實現高分辨率、逼真、時間相干的視頻效果。

好消息,vid2vid現已被英偉達開源。

研究論文:買粉絲s://tcwang0509.github.io/vid2vid/paper_vid2vid.pdf

GitHub地址買粉絲s://github.買粉絲/NVIDIA/vid2vid

相關地址

相關地址

Meta 開源了語言翻譯 AI 模型

Meta(前身是 Facebook)在開源世界做出了不小的貢獻。Meta 除了專注于元宇宙Metaverse和其社交媒體平臺外,還致力于各種研究和創新工作,比如 React(一個 JaveScript 庫)。

現在,Meta 的研究人員決定開源一個叫 “不落下任何語言No Language Left Behind” 項目。

(LCTT 校注:這個直譯項目名稱不夠好聽,我來拋磚引玉,似可稱做“無人獨語”,讀者有什么建議嗎?)

目前,雖然世界上有大約 7000 個在使用中的語言,但大多數在線的內容都是以少數的流行語言來提供的,比如英語。這讓許多不懂這些語言的人處于不利的地位。

雖然現存的許多翻譯工具,但語法錯誤會讓錯誤變得難以閱讀和理解。另外,如果你想把內容翻譯為一個不流行的語言(特別是非洲和亞洲的一些語言),翻譯體驗不會很好。

因此,Meta 正在開發有最高質量的翻譯工具,可以幫助解決這一全球性的問題。

NLLB-200(不落下任何語言No Language Left Behind) 是一個人工智能翻譯模型,其可以翻譯 200 多種語言。該模型在每種語言中的翻譯結果是通過一個名為 FLORES-200 復雜數據集來確定和評估的。

正如 Meta 所說,NLLB 的翻譯結果比以前的人工智能研究方法好 40% 。對于一些最不常見的語言,其翻譯準確率甚至超過 70%。了不起的工作!

為了幫助開發項目和提高模型的翻譯質量,Meta 向所有感興趣的研究人員開放了源代碼,包括 NLLB-200 模型、FLORES-200 數據庫、模型訓練和重建訓練數據庫的代碼。

Meta 宣布向從事聯合國可持續發展目標UN Sustainable Development Goals任何領域工作和翻譯非洲語言的非營利組織和研究人員提供高達 20 萬美元的捐贈,也鼓勵其他學術領域如語言學和機器翻譯的研究人員申請。

盡管 Meta 主要打算在其數字平臺上,特別是在“元宇宙”上使用 NLLB,但 NLLB 也有可能在其他領域產生巨大影響。

許多用戶可以用他們的母語輕松地訪問和閱讀在線資源。項目開源后,社區應該能夠幫助實現這個目標。

你對 Meta 的這個項目有什么看法?

via: 買粉絲s://news.itsfoss.買粉絲/meta-open-source-ai-model/

作者:Rishabh Moharir選題:lkxed譯者:fenglyulin校對:wxy

百度Paddle會和Python一樣,成為最流行的深度學習引擎嗎

摘要:PaddlePaddle的負責人徐偉認為,沒有一家公司能夠完全主導這個領域,要單一公司的深度學習框架完全主導該領域,就等同于用同一種程序語言開發所有的軟件,未來深度學習的生態系統會因使用場景有最佳的框架使用。

PaddlePaddle會和Python一樣流行嗎?

深度學習引擎最近經歷了開源熱。2013年Caffe開源,很快成為了深度學習在圖像處理中的主要框架,但那時候的開源框架還不多。隨著越來越多的開發者開始關注人工智能,AI 巨頭們紛紛選擇了開源的道路:2015年9月Facebook開源了用于在Torch上更快速地訓練神經網絡的模塊,11月Google開源 TensorFlow,2016年1月微軟開源CNTK。最近,百度也宣布開源深度學習引擎 PaddlePaddle。

在這場深度學習的框架之爭中,究竟哪家能夠勝出?PaddlePaddle的負責人徐偉認為,沒有一家公司能夠完全主導這個領域,要單一公司的深度學習框架完全主導該領域,就等同于用同一種程序語言開發所有的軟件,未來深度學習的生態系統會因使用場景有最佳的框架使用。

Python是非常好的例子,在編程語言排行榜上,2014年Python只有第六名。但隨著大量年輕程序員的涌入,他們更愿意選擇簡單、易學、文檔好的Python作為優先的學習對象,很快C、C++程序員很多也開始使用Python編程了。

而今天發生在深度學習框架上的競爭,似乎也在重演編程語言的歷史。

去年TensorFlow發布的時候,對于它的質疑聲不絕于耳。首先是對單機版TensorFlow的質疑,認為它在和Caffe、Torch和 Theano相比并沒有優勢。而在Google開源了分布式版本后,人們說它比Caffe慢,比Torch臃腫,而且不能進行太大調整。但如今在HackerNews上關于最受歡迎深度學習工具的投票,TensorFlow獲得第一,得票率是第二名的接近2.6倍。

程序員Vonnik解釋了這個現象:使用TensorFlow的大部分都是來自Udacity課程的學生,他們大部分都沒什么經驗。但正是這些學生和初學者,而非那些經驗豐富的資深人士,把Python變成了全球最流行的語言,也把TensorFlow推到了排名第一的位置。

從Python和TensorFlow的歷史來看,我們有理由認為,最為簡單、易用的深度學習框架,將會在未來的競爭勝出。

百度 PaddlePaddle

在和幾款最常用的深度學習框架TensorFlow、Torch、Caffe比較之前,我們先重點介紹新出現的PaddlePaddle。

Paddle其實已經有多年歷史了。早在 2013 年,百度就察覺到傳統的基于單GPU的訓練平臺,已經無法滿足深度神經網絡在搜索、廣告、文本、語音、圖像等領域的訓練需求,于是在徐偉的帶領下開始搭建Paddle——一個多機并行的CPU/GPU混布的異構計算平臺。Paddle從最早的開發到如今的開源,就一直以大規模數據處理和工業化的要求不斷改進。我們可以看到PaddlePaddle有很多優異的特性。

Github上介紹,PaddlePaddle有以下特點:

· 靈活

PaddlePaddle支持大量的神經網絡架構和優化算法,支持任意復雜RNNs結構,高效處理batch,無需數據填充。簡單書寫配置文件即可實現復雜模型,比如擁有注意力(Attention)機制、外圍記憶層(External Memory)或者用于神經機器翻譯模型的深度時序快進網絡。

· 高效

為了利用異構計算資源的能力,PaddlePaddle中的每一級都會進行優化,其中包括計算、內存、架構和通信。以下是幾個例子:

1.使用SSE/AVX內聯函數、BLAS數據庫(例如MKL、ATLAS、cuBLAS)和定制化的CPU/GPU Kernal來優化數學運算。

2.高度優化RNNs網絡,在沒有Padding的情況下,也能處理不同長度的序列。

3.優化的本地和分布式訓練,同時支持高緯稀疏模型。

· 可擴展

有了PaddlePaddle,使用多個CPU和GPU以及機器來加速訓練可以變得很輕松。 PaddlePaddle能通過優化通信,獲得高吞吐量和性能。

· 與產品的連接

PaddlePaddle的部署也很簡單。在百度,PaddlePaddle已經被用于產品和服務中,擁有大量用戶。應用場景包括預估外賣的出餐時間、預判網盤故障時間點、精準推薦用戶所需信息、海量圖像識別分類、字符識別(OCR)、病毒和垃圾信息檢測、機器翻譯和自動駕駛等等。

深度學習框架對比

PaddlePaddle最主要的類比對象,來自UC伯克利的賈揚清開發的Caffe和Google的 TensorFlow。

這是一張來自Spark Summit 2016的圖,PaddlePaddle在開源前就在頂級的行業會議中進行了展示。

PaddlePaddle、Caffe和TensorFlow都可以支持分布式訓練,但相比之下PaddlePaddle 有很突出的優勢。

PaddlePaddle和Caffe在設計上有一些類似的地方,但是相比Caffe聚焦在視覺領域,PaddlePaddle可以在各種不同的場景中應用。而相比TensorFlow,PaddlePaddle的上手難度更低,也沒有太多的Abstraction,速度也會更快。

而在RNN的性能表現上,PaddlePaddle的速度也要優于TensorFlow。

總的來說

1)Caffe具有出色的CNN實現功能的開發語言,在計算機視覺領域,Caffe仍然是最流行的工具包。Caffe的開發語言支持C++和Cuda,速度很快,但是由于一些歷史性的遺留架構問題,它的靈活性不夠強。而且對遞歸網絡和語言建模的支持很差。Caffe支持所有主流開發系統,上手難度屬于中等水平。

2)TensorFlow是一個理想的RNN API實現,它使用了向量運算的符號圖方法,使得開發的速度可以很快。TensorFlow支持的比較好的系統只有各種Linux系統和OSX,不過其對語言的支持比較全面,包含了Python、C++和Cuda等,開發者文檔寫得沒有Caffe那么全面,所以上手比較難,在性能方面,也不如Caffe及PaddlePaddle。

3)Torch沒有跟隨Python的潮流,反而選擇了C語言實現,用Lua語言進行封裝。Torch對卷積網絡的支持非常好,運行在C++、C#和Jave等工業語言的速度較快,也不需要額外的編譯。但是它的上手難度也很高,對初學者缺乏規范的例子,而且需要先邁過Lua的門檻,這對初學者是很大的障礙。

4)而此次百度的PaddlePaddle性能優先并兼顧靈活,通過使用GPU異構計算來提升每臺機器的數據處理能力,獲得了業內“相當簡潔、設計干凈、穩定,速度較快,顯存占用較小”等好評。

而在關鍵的進入門檻上,相比Google TensorFlow和Facebook Torch,PaddlePaddle的上手難度低得多,且擁有非常優秀的業界特征,包括NLP和推薦等應用場景、對RNN很好的支持、高質量代碼、以及分布式訓練等,已經足以滿足大多數AI場景的需求。且PaddlePaddle更加務實,可解決實際問題。

所以我們可以初步下一個結論,在中國的開發環境下,Google TensorFlow和Facebook Torch的上手難度都比較高,TensorFlow最好的訓練環境Google Cloud也難以在中國獲得支持。而Caffe雖然已經有了多年的積累,但是畢竟目前只是在視覺領域有比較好的發展,而且相比百度能提供的產業鏈支持,在資源投入上可能會有比較大的局限。相比之下,坐擁中國的本土市場,上手難度低得多的PaddlePaddle,將會有更好的技術和生態的環境。也許不久的將來,PaddlePaddle就會和Python在編程語言中所做的事情一樣,成為最流行的深度學習引擎。

人工智能的魅力?

隨著現代科學技術的飛速發展,先進的技術在各個領域都得到了廣泛的應用。人工智能現在成為了相當火熱的技術,下面就為大家介紹一下人工智能的利與弊。

人工智能的利與弊

一、人工智能技術的發展對我們的益處

1、商業價值很高

就像曾經脫離了傳統農業、傳統手工業的大量勞動力,在現代工業生產和城市服務業中找到新的就業機會那樣,人工智能的進步也將如此——由當前數據密集型機器學習、通過機器學習與人工智能會話的系統而延伸出的很多領域,將會在未來帶來很多工作機遇;

3、人工智能讓人類生活更美好

比如說,人工智能的醫療應用惠及大眾。我們醫生或許難以保持最新治療方案和方法,也無法了解所有醫學例案。人工智能可以在短時間內分析大量數據,精確判斷病癥,并找到最佳的治療方案,為人們提供最好的治療;

二、人工智能帶給我們的弊端

1、大規模的失業

人工智能的發展,導致很多人失業。據人力資源和社會保障部2016年新聞發布會介紹,2016年末中國失業率達4.05%,機器人不會犯錯,不會累,不需要休息,不需要工資。這完全可以代替很多職業,例如工人,司機等等不需要思想的工作。如此便會導致大批大批的人失業,大批大批的人整日無所事事;

2、對人類的一次大淘汰

人工智能時代的到來可能是對人類的一次大淘汰。機器人對人類的大淘汰,如果處理不好有可能引發核大戰,那將是人類的災難,人類可能因此而滅亡;

3、人才爭奪戰導致壟斷、貧富分化加劇

人工智能時代的到來,必將引發空前的人才爭奪戰。誰擁有的各類一流人才數量多質量高,誰就能贏得最后勝利。同時這會導致巨頭的壟斷、貧富分化加劇;

對待人工智能,我們應該以客觀的角度去看待它,揚長避短,充分利用人工智能的優點。希望我的理解能夠幫助你們更進一步了解人工智能。

2021那些事兒|細數信息技術4大領域

2021年,信息技術發展突飛猛進。人工智能、大數據、開源、虛擬現實(VR)、增強現實(AR)……每個領域的發展幾乎都可圈可點。

在人工智能領域,人工智能的語言大模型、圖文大模型乃至多模態大模型的基本能力已得到了充分展現。例如,阿里巴巴達摩院公布多模態大模型M6最新進展,參數從萬億躍遷至10萬億;鵬城實驗室與百度聯合發布全球首個知識增強千億大模型——鵬城—百度·文心,參數規模達到2600億。

不僅如此,人工智能與其他科學領域的交叉融合也擦出火花。在《科學》近日公布的2021年度科學突破榜單上,AlphaFold和RoseTTA-fold兩種基于人工智能預測蛋白質結構的技術位列榜首。

在人機交互領域,扎克伯格將Facebook公司更名為“Meta”時,特斯拉和SpaceX首席執行官埃隆·馬斯克則將注意力放在腦機接口上。馬斯克認為腦機接口裝置將更有可能改變世界,幫助四肢癱瘓或有身體缺陷的人更好地生活和工作,“復雜的腦機接口裝置可以讓你完全沉浸在虛擬現實中”。此外,今年5月,斯坦福大學開發出一套皮質內腦機接口系統,可以從運動皮層的神經活動中解碼癱瘓患者想象中的手寫動作,并將其轉換為文本。

在超算領域,最值得一提的是,今年11月,我國超算應用團隊憑借“超大規模量子隨機電路實時模擬”成果斬獲國際高性能計算應用領域的最高獎項“戈登貝爾獎”。

在開源方面,RISC-V開源指令集及其生態快速崛起;由華為公司牽頭,中國科學院軟件研究所、麒麟軟件等參與的openEuler操作系統開源社區業已匯聚了7000名活躍開發者,完成8000多個自主維護的開源軟件包,催生了10多家廠商的商業發行版……

回望2021年,信息技術版邀請業內專家梳理上述四個領域的發展脈絡,展望未來發展趨勢。

作者 張雙虎

AlphaFold或是2021年人工智能(AI)領域的“一哥”。

近日,《科學》雜志公布了 2021 年度科學突破榜單,AlphaFold 和 RoseTTA-fold 兩種基于人工智能預測蛋白質結構的技術位列榜首。

此前幾天,由中國工程院院刊評選的“2021全球十大工程成就(近5年全球實踐驗證有效、有全球影響力的工程科學和技術重大成果)”中,AlphaGo和AlphaFold亦榜上有名。

在接受《中國科學報》采訪時,數位專家回望今年人工智能領域取得的成就時,均談到了AlphaFold。

“面向科學發現的AlphaFold和中國正在構建的人工智能發展生態不能不說。” 浙江大學人工智能研究所所長吳飛對《中國科學報》說。

中科院自動化研究所模式識別國家重點實驗室研究員王金橋則提名“用AI進行新冠診斷”“人工智能與生物、制藥、材料等科學融合(AI for Science)”和“三模態大模型紫東太初”。

在醫學領域,AI識別咳嗽聲早已用于肺炎、哮喘、阿爾茨海默氏癥等疾病檢測。美國麻省理工學院研究人員研發出可以通過分析咳嗽錄音識別新冠患者的AI模型,識別出新冠患者咳嗽的準確率為98.5%,其中識別無癥狀感染者的準確度高達100%。日前,有報道稱該模型已用于識別奧密克戎病毒。

“紫東太初首次實現了圖—文—音語義統一表達,兼具跨模態理解和生成能力。” 王金橋說,“目前與新華社共同發布的‘全媒體多模態大模型研發計劃’,實現對全媒體數據理解與生成的統一建模,打造全棧國產化媒體人工智能平臺,已 探索 性地應用于紡織業和 汽車 行業質檢等場景。”

12月7日, 科技 部官網公布3份函件,支持哈爾濱、沈陽、鄭州3地建設國家新一代人工智能創新發展試驗區。至此,我國已經有18個國家新一代人工智能創新發展試驗區,這將引領帶動中國人工智能創新發展。

“我國正在推動人工智能生態發展,構建良好生態。”吳飛說,“目前已有15個國家新一代人工智能開發創新平臺、18個國家新一代人工智能創新發展試驗區、8個人工智能創新應用先導區和高等學校設置的人工智能本科專業和交叉學科等人才培養載體。”

“一是大模型,二是人工智能和基礎學科的結合。”孫茂松對《中國科學報》說,“語言大模型、圖文大模型乃至多模態大模型的基本能力已得到了充分展現,確定了它作為智能信息處理基礎軟設施的地位。同時,它并非簡單地擴大規模,而是對數字資源整合能力和計算能力都提出了挑戰。雖然它的局限性也很明顯,但它所表現出的某些‘奇特’性質(如少樣本學習、深度雙下降、基于提示的任務調整等),使學者產生了超大參數規模或會引發質變的期待,從而為新的突破埋下了伏筆。”

今年,人工智能領域從“大煉模型”走向“煉大模型”階段,從千億量級到萬億量級,在大模型領域,似乎沒有最大,只有更大。

3月,北京智源人工智能研究院發布我國首個超大規模人工智能模型“悟道1.0”。6月,智源就改寫了自己的紀錄,發布悟道2.0,參數規模達到1.75萬億;9月,浪潮人工智能研究院推出了中文巨量語言模型——源 1.0,參數量達2457億;11 月,阿里巴巴達摩院公布多模態大模型 M6 最新進展,參數從萬億躍遷至 10 萬億;12月,鵬城實驗室與百度聯合發布全球首個知識增強千億大模型——鵬城—百度·文心,參數規模達到2600億。

與此相應,最近快手和蘇黎世聯邦理工學院提出了一個新的推薦系統Persia,最高支持100萬億級參數的模型訓練。

另一方面,人工智能在基礎學科領域不斷攻城略地。

7月,DeepMind公司人工智能程序Alphafold2研究成果又登頂《自然》,在結構生物學研究領域,人工智能或帶領生物學、醫學和藥學挺進新天地;11月,美國南加利福尼亞大學研究人員通過腦機連接設備,讓猴子玩 游戲 和跑步機,從而進行神經活動數據研究;12月,DeepMind開發的機器學習框架,已幫助人們發現了純數學領域的兩個新猜想,展示了機器學習支持數學研究的潛力。

“今年人工智能在各行業應用方面也取得不小的成績。”孫茂松說,“人工智能與基礎學科結合已顯示出巨大潛力,發表了多篇頂級論文,已展露出某種較強的趨勢性,即‘人工智能+基礎科學’大有可為。”

作者 張雙虎

腦機接口、AR眼鏡、智能語音、肌電手環、隔空手勢識別……2021年,從基礎研究到應用落地,人機交互領域風起云涌。不管是智能 健康 、元宇宙,還是自動駕駛領域的蓬勃發展,似乎都表明,人機交互正站在產業化落地的門口。

“我們研發的高通量超柔性神經電極已通過科研臨床倫理審批,即將開展腦機接口人體臨床試驗。”中科院上海微系統所副所長、傳感技術聯合國家重點實驗室副主任陶虎對《中國科學報》說,“安全穩定地大規模采集人體大腦的神經元信號并進行閉環調控,將實現病人感知和運動功能的修復。”

腦機接口技術給患者帶來越來越多的便利。今年5月,斯坦福大學研究人員在《自然》發表封面論文,開發出一套皮質內腦機接口系統,可以從運動皮層的神經活動中解碼癱瘓患者想象中的手寫動作,并將其轉換為文本。借助該系統,受試者(因脊髓損失癱瘓)每分鐘可以打出近百個字符,且自動更正后的離線準確率超過了 99%。

不久前,馬斯克表示,希望明年能在人類身上使用Neuralink 的微芯片裝置。該芯片將用于治療脊髓損傷、帕金森氏癥等腦部疾病和神經系統疾病。目前,相關技術正在等待美國食品藥品監督管理局的批準。

“腦機接口領域已經蓄積了相當的技術,有望成為解決大腦疾病的利器。”陶虎說,“大家都在搶占臨床應用的先機,明年可能會實現技術落地應用。預計兩三年內,國內會出現可媲美馬斯克Neuralink的獨角獸企業。”

“人機交互將引申出新的萬億級市場。”福州大學特聘教授嚴群這句判斷,也囊括了元宇宙這個巨大的市場。

有人稱2021年是“元宇宙元年”,也有人認為這不過是“舊瓶裝新酒”。但無論如何,元宇宙已是今年人機交互領域繞不開的話題。

“元宇宙是虛擬現實、增強現實和混合現實的綜合,它實際上并非新的東西。”北京郵電大學人機交互與認知工程實驗室主任劉偉告訴《中國科學報》,“元宇宙是現實世界和虛擬世界跨越未來的發展方向,但還有些技術問題未能很好地解決。”

在真實世界里,人機交互問題和人機環境系統的混合問題未能很好地解決。真實世界的人機交互中,不管是輸入、處理還是輸出過程中,客觀數據、主觀信息和知識依然不能完美融合。

劉偉認為,無論真實世界還是虛擬世界,人類和機器決策都有“快決策”和“慢決策”過程。人類決策有時依靠邏輯決策多些,有時直覺決策多些,這種“混合決策”不斷變換,而且很難找到變化規律。這方面的問題機器決策目前還未能解決。

“元宇宙還處在畫餅的前期階段。”劉偉說,“因為它的底層機理沒有解決——人在真實世界里未能完美解決人機交互的問題,帶到元宇宙里同樣不能解決。”

談到人機交互,劉偉認為第二個不能不說的問題是“復雜領域”。

“今年的諾貝爾物理學獎,也給了復雜系統預測氣候變化模型的提出者。”劉偉說,“人機交互也是一個復雜系統,它既包括重復的問題,還包括雜亂的、跨域協同的問題。”

劉偉認為,從智能的角度說,復雜系統包括三個重要組成部分,一是人,二是裝備(人造物),三是環境。這其實是多個事物之間相互作用,交織在一起、既糾纏又重疊的“人機環系統”問題。

“在人機交互中,機器強在處理‘復’的問題,人擅長管‘雜’的事——跨域協同、事物間平衡等。因為人們還沒找到復雜事物的簡單運行規律,所以解決所有智能產品、智能系統問題,要從人、機、環這個系統里找它們的結合、融合和交互點。而且,人要在這個系統中處于主導地位。”

人機交互領域引起劉偉重視的第三個現象,是“人工智能幫數學家發現了一些定律”。“最近,DeepMind研發了一個機器學習框架,能幫助數學家發現新的猜想和定理。”劉偉說,“人工智能是一個基本的數學工具,同時,數學又反映了一些基本規律。如果人工智能可以幫助數學家處理一些數學問題,那么,人們將更好地認識復雜系統的簡單規律,人機交互方面就可能會取得新突破。”

作者 張云泉(中國科學院計算技術研究所研究員)

今年是我國超算應用實現豐收的一年。

11月中旬在美國舉行的全球超算大會(SC21)上,中國超算應用團隊憑借基于一臺神威新系統對量子電路開創性的模擬(“超大規模量子隨機電路實時模擬”),一舉摘得國際上高性能計算應用領域的最高學術獎——“戈登貝爾獎”。

同時,在SC 21大學生超算競賽總決賽上,清華大學超算團隊再次奪得總冠軍,實現SC競賽四連冠。這些大規模應用軟件可擴展性和性能調優方面的成績表明,我國在并行軟件方面的發展方興未艾。

回到超算對產業的驅動來看,我們要重提“算力經濟”一詞。早在2018年,我們提出“算力經濟”概念,認為以超級計算為核心的算力經濟將成為衡量一個地方數字經濟發展程度的代表性指標和新舊動能轉換的主要手段。

綜合近幾年的發展趨勢,我們認為高性能計算當前發展趨勢已充分表明,隨著超算與云計算、大數據、AI的融合創新,算力已成為當前整個數字信息 社會 發展的關鍵,算力經濟已經登上 歷史 舞臺。

通過對2021年中國高性能計算機發展現狀綜合分析,可以總結出當前高性能計算正呈現出以下幾個特點。

首先,高性能計算與云計算已經深度結合。高性能計算通常是以MPI、高效通信、異構計算等技術為主,偏向獨占式運行,而云計算有彈性部署能力與容錯能力,支持虛擬化、資源統一調度和彈性系統配置。

隨著技術發展,超級計算與容器云正融合創新,高性能云成為新的產品服務,AWS、阿里云、騰訊、百度以及商業化超算的代表“北龍超云”,都已基于超級計算與云計算技術推出了高性能云服務和產品。

其次,超算應用從過去的高精尖向更廣、更寬的方向發展。隨著超級計算機的發展,尤其是使用成本的不斷下降,其應用領域也從具有國家戰略意義的精密研制、信息安全、石油勘探、航空航天和“高冷”的科學計算領域向更廣泛的國民經濟主戰場快速擴張,比如制藥、基因測序、動漫渲染、數字電影、數據挖掘、金融分析及互聯網服務等,可以說已經深入到國民經濟的各行各業。

從近年中國高性能計算百強排行榜(HPC TOP100)來看,超算系統過去主要集中于科學計算、政府、能源、電力、氣象等領域,而近5年互聯網公司部署的超算系統占據了相當大比例,主要應用為云計算、機器學習、人工智能、大數據分析以及短視頻等。這些領域對于計算需求的急劇上升表明,超算正與互聯網技術進行融合。

從HPC TOP100榜單的Linpack性能份額看,算力服務以46%的比例占據第一;超算中心占24%,排名第二;人工智能、云計算和短視頻分別以9%、5%和4%緊隨其后。

可以看出,人工智能占比的持續增加與機器學習等算法和應用的快速崛起,以及大數據中的深度學習算法的廣泛應用有很大關系。互聯網公司通過深度學習算法重新發現了超級計算機,特別是GPU加速的異構超級計算機的價值,紛紛投入巨資建設新系統。

綜合來看,目前的算力服務、超算中心、人工智能、科學計算等領域是高性能計算的主要用戶,互聯網、大數據,特別是AI領域增長強勁。

再次,國家層面已經制訂了戰略性的算力布局計劃。今年5月,國家發展改革委等四部門聯合發布《全國一體化大數據中心協同創新體系算力樞紐實施方案》,提出在京津冀、長三角、粵港澳大灣區、成渝以及貴州、內蒙古、甘肅、寧夏建設全國算力網絡國家樞紐節點,啟動實施“東數西算”工程,力促把東部的數據送到西部進行存儲和計算,同時在西部建立算力節點,改善數字基礎設施不平衡的布局,有效優化數據中心的布局結構,實現算力升級,構建國家算力網絡體系。

最后,人工智能的算力需求已成為算力發展主要動力。機器學習、深度學習等算法革新和通過物聯網、傳感器、智能手機、智能設備、互聯網技術搜集的大數據,以及由超級計算機、云計算等組成的超級算力,被公認為是人工智能時代的“三駕馬車”,共同掀起最新一輪的人工智能革命。

在人工智能蓬勃發展這一背景下,虛擬化云計算向高性能容器云計算演進,大數據與并行計算、機器學習融合創新就成為了產業發展的最新方向。

此外,在智能計算評測方面,我國已經提出了包括AIPerf 500在內的眾多基準測試程序,這是對傳統Linpack測試標準的有力補充。

這些發展表明超算技術向產業滲透的速度加快,我們已經進入一個依靠算力的人工智能時代,這也是未來發展的必然趨勢之一。隨著用戶對算力需求的不斷增長,算力經濟必將在未來 社會 發展中占據重要地位。

作者 武延軍(中國科學院軟件研究所研究員)

開源發展可圈可點并非只是今年的事。最近幾年,開源領域發生了很多重要的事情。

例如,RISC-V開源指令集及其生態的快速崛起。這與上世紀90年代初Linux誕生一樣。當時,UNIX和Windows是主流,很少有人能夠預料到今天以Linux為內核的操作系統已經遍及人們生活的方方面面。

如今,人們每天使用的App,超過80% 概率是運行在以Linux為內核的安卓操作系統上,而且,支撐其業務的后端服務器上運行的操作系統很大概率也是Linux發行版。

所以,今天的RISC-V也同樣可能被低估,認為其不成熟,很難與ARM和X86抗衡。但也許未來RISC-V就像Linux一樣,最終成為全球范圍內的主流指令集生態,產品遍及方方面面。

僅2020年,RISC-V International(RVI,RISC-V基金會遷入瑞士之后的新名稱)的會員數增長了133%。其實RVI遷入瑞士這件事情本身也意義重大,是一次開源領域面對大國競爭保持初心不“選邊站”的經典案例,值得全球其他開源基金會參考。

在國內,2019年底,華為公司牽頭,中國科學院軟件研究所、麒麟軟件等參與的openEuler操作系統開源社區正式成立。在短短的兩年內,社區已經匯聚了7000名活躍開發者,完成8000多個自主維護的開源軟件包,催生了10多家廠商的商業發行版。

這是中國基礎軟件領域第一個真正意義上的“根社區”,雖然與20多年 歷史 的Debian、Fedora還有差距,但邁出了重要一步,對學術研究、技術研發、產業創新來說,終于有了國內主導的、可以長期積淀的新平臺。

同時,華為在遭遇安卓操作系統GMS(谷歌移動服務)海外斷供之后,推出了鴻蒙操作系統HarmonyOS,并在開放原子開源基金會下啟動開源項目OpenHarmony。

目前OpenHarmony短時間內已經吸引了國內眾多廠商參與,也側面反映了國內產業界對新一代萬物互聯操作系統的旺盛需求。盡管其在生態規模和技術完整程度方面與安卓仍有差距,但畢竟邁出了打造自主生態的第一步。

這相當于為源代碼合理使用劃定了一個邊界,即合理使用僅限于接口,一旦深入到接口的實現代碼,則需要遵守相關許可。這對開源知識產權的法律界定具有重要參考意義。

而不論是開源軟件向圍繞開放指令集的開源軟硬件生態發展,還是開源有嚴格的法律邊界約束,抑或是國內龍頭企業正嘗試通過開源 探索 解決“卡脖子”問題,且已經取得了一定的效果……眾多案例都指向一個方向——開源趨勢不可阻擋。因為它源自人類分享知識、協同創造的天性,也是人類文明在數字時代薪火相傳的重要模式。

當然,不可否認的是,開源還存在很多問題,例如,開源軟件供應鏈安全的問題。這里的安全既有傳統意義上軟件質量、安全漏洞的問題,也有開源軟件無法得到持續有效維護的問題(如OpenSSL在出現HeartBleed問題時只有兩位兼職維護者,log4j出現問題時只有三位兼職維護者),更有大國競爭導致的“斷供”問題(如GitHub曾限制伊朗開發者訪問)。

隨著開源軟件向GitHub這類商業平臺的集中,這一問題會更加突出,甚至演變為重大風險。開源軟件這一本應屬于全人類的智慧資產,可能變為實施“長臂管轄”的武器。為了避免這一問題,開源代碼托管平臺、開源軟件構建發布平臺等公共基礎設施需要“去中心化”。世界需要多個開源軟件基礎設施,以最大程度消除政治力量對開源社區的威脅。

對于中國來說,隨著開源軟件成為眾多科研、工業等重大基礎設施的重要支撐部分,開源軟件本身也要有一個基礎設施,具備代碼托管、編譯、構建、測試、發布、運維等功能,保證開源軟件供應的安全性和連續性,進而增強各行各業使用開源軟件的信心。

未來,核心技術創新與開源貢獻引領將成為國內企業發展的新動力,或將我國開源事業推向另一個高潮。

很赞哦!(6)

Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款的名片

职业:程序员,设计师

现居:黑龙江省哈尔滨宾县

工作室:小组

Email:[email protected]