本次活動(dòng)將重點(diǎn)聚焦高性能計(jì)算(HPC)與人工智能(AI)在制造行業(yè)的深度融合,探索數(shù)字化轉(zhuǎn)型中的智能制造新趨勢(shì)。
語言識(shí)別是從多個(gè)音頻輸入樣本中識(shí)別主要語言的過程。在自然語言處理(NLP)中,語言識(shí)別是一個(gè)重要的問題,也是一個(gè)具有挑戰(zhàn)性的問題。有許多與語言相關(guān)的任務(wù),例如在手機(jī)上輸入文本、查找您喜歡的新聞文章或發(fā)現(xiàn)您可能遇到的問題的答案。所有這些任務(wù)都由NLP模型提供支持。為了決定在特定時(shí)間點(diǎn)調(diào)用哪個(gè)模型,我們必須執(zhí)行語言識(shí)別。
本文介紹了使用英特爾? PyTorch 擴(kuò)展(針對(duì)英特爾處理器進(jìn)行了優(yōu)化的 PyTorch AI 框架的一個(gè)版本)和英特爾??神經(jīng)壓縮器(一種在不犧牲準(zhǔn)確性的情況下加速人工智能推理的工具)進(jìn)行語言識(shí)別的深入解決方案和代碼示例。
該代碼示例演示了如何使用擁抱人臉語音大腦* 工具套件訓(xùn)練模型以執(zhí)行語言識(shí)別,并使用英特爾?人工智能分析工具包 (AI Kit) 對(duì)其進(jìn)行優(yōu)化。用戶可以修改代碼示例,并使用通用語音數(shù)據(jù)集識(shí)別多達(dá) 93 種語言。
在建議的解決方案中,用戶將使用英特爾人工智能分析工具包容器環(huán)境來訓(xùn)練模型,并利用英特爾優(yōu)化的 PyTorch 庫執(zhí)行推理。還有一個(gè)選項(xiàng)可以使用英特爾神經(jīng)壓縮器量化訓(xùn)練的模型,以加快推理速度。
對(duì)于此代碼示例,將使用通用語音數(shù)據(jù)集,特別是日語和瑞典語的通用語音語料庫 11.0。該數(shù)據(jù)集用于訓(xùn)練強(qiáng)調(diào)通道注意力、傳播和聚合時(shí)間延遲神經(jīng)網(wǎng)絡(luò) (ECAPA-TDNN),該網(wǎng)絡(luò)使用 Hugging Face SpeechBrain 庫實(shí)現(xiàn)。延時(shí)神經(jīng)網(wǎng)絡(luò) (TDNN),又名一維卷積神經(jīng)網(wǎng)絡(luò) (1D CNN),是多層人工神經(jīng)網(wǎng)絡(luò)架構(gòu),用于對(duì)網(wǎng)絡(luò)每一層具有移位不變性和模型上下文的模式進(jìn)行分類。ECAPA-TDNN是一種新的基于TDNN的揚(yáng)聲器嵌入提取器,用于揚(yáng)聲器驗(yàn)證;它建立在原始的 X-Vector 架構(gòu)之上,更加強(qiáng)調(diào)信道注意力、傳播和聚合。
下載 Common Voice 數(shù)據(jù)集后,通過將 MP3 文件轉(zhuǎn)換為 WAV 格式來對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,以避免信息丟失,并分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。
使用Hugging Face SpeechBrain庫使用Common Voice數(shù)據(jù)集重新訓(xùn)練預(yù)訓(xùn)練的VoxLingua107模型,以專注于感興趣的語言。VoxLingua107 是一個(gè)語音數(shù)據(jù)集,用于訓(xùn)練口語識(shí)別模型,這些模型可以很好地處理真實(shí)世界和不同的語音數(shù)據(jù)。此數(shù)據(jù)集包含 107 種語言的數(shù)據(jù)。默認(rèn)情況下,使用日語和瑞典語,并且可以包含更多語言。然后,此模型用于對(duì)測(cè)試數(shù)據(jù)集或用戶指定的數(shù)據(jù)集進(jìn)行推理。此外,還有一個(gè)選項(xiàng)可以利用SpeechBrain的語音活動(dòng)檢測(cè)(VAD),在隨機(jī)選擇樣本作為模型的輸入之前,僅從音頻文件中提取和組合語音片段。此鏈接提供了執(zhí)行 VAD 所需的所有工具。為了提高性能,用戶可以使用英特爾神經(jīng)壓縮器將訓(xùn)練好的模型量化為整數(shù) 8 (INT8),以減少延遲。
訓(xùn)練腳本的副本將添加到當(dāng)前工作目錄中,包括 - 用于創(chuàng)建 WebDataset 分片,- 執(zhí)行實(shí)際訓(xùn)練過程,以及 - 配置訓(xùn)練選項(xiàng)。用于創(chuàng)建 Web數(shù)據(jù)集分片和 YAML 文件的腳本經(jīng)過修補(bǔ),可與此代碼示例選擇的兩種語言配合使用。create_wds_shards.py
train.py
train_ecapa.yaml
在數(shù)據(jù)預(yù)處理階段,執(zhí)行腳本隨機(jī)選擇指定數(shù)量的樣本,將輸入從MP3轉(zhuǎn)換為WAV格式。在這里,這些樣本中有 80% 將用于訓(xùn)練,10% 用于驗(yàn)證,10% 用于測(cè)試。建議至少 2000 個(gè)樣本作為輸入樣本數(shù),并且是默認(rèn)值。prepareAllCommonVoice.py
在下一步中,將從訓(xùn)練和驗(yàn)證數(shù)據(jù)集創(chuàng)建 WebDataset 分片。這會(huì)將音頻文件存儲(chǔ)為 tar 文件,允許為大規(guī)模深度學(xué)習(xí)編寫純順序 I/O 管道,以便從本地存儲(chǔ)實(shí)現(xiàn)高 I/O 速率——與隨機(jī)訪問相比,大約快 3-10 倍。
用戶將修改 YAML 文件。這包括設(shè)置 WebDataset 分片的最大數(shù)量值、將神經(jīng)元輸出為感興趣的語言數(shù)量、要在整個(gè)數(shù)據(jù)集上訓(xùn)練的紀(jì)元數(shù)以及批大小。如果在運(yùn)行訓(xùn)練腳本時(shí) CPU 或 GPU 內(nèi)存不足,則應(yīng)減小批大小。
在此代碼示例中,將使用 CPU 執(zhí)行訓(xùn)練腳本。運(yùn)行腳本時(shí),“cpu”將作為輸入?yún)?shù)傳遞。中定義的配置也作為參數(shù)傳遞。train_ecapa.yaml
運(yùn)行腳本以訓(xùn)練模型的命令是:
python train.py train_ecapa.yaml --device "cpu"
將來,培訓(xùn)腳本 train.py 將設(shè)計(jì)為適用于英特爾? GPU,如英特爾?數(shù)據(jù)中心 GPU Flex 系列、英特爾數(shù)據(jù)中心 GPU Max 系列和英特爾 Arc A 系列,并更新了英特爾??擴(kuò)展 PyTorch。
運(yùn)行訓(xùn)練腳本以了解如何訓(xùn)練模型和執(zhí)行訓(xùn)練腳本。建議將此遷移學(xué)習(xí)應(yīng)用使用第四代英特爾至強(qiáng)?可擴(kuò)展處理器,因?yàn)樗ㄟ^其英特爾高級(jí)矩陣擴(kuò)展(英特爾??? AMX)指令集提高了性能。
訓(xùn)練后,檢查點(diǎn)文件可用。這些文件用于加載模型以進(jìn)行推理。
運(yùn)行推理之前的關(guān)鍵步驟是修補(bǔ) SpeechBrain 庫的預(yù)訓(xùn)練文件,以便可以運(yùn)行 PyTorch TorchScript* 以改善運(yùn)行時(shí)。TorchScript 要求模型的輸出只是張量。interfaces.py
用戶可以選擇使用 Common Voice 中的測(cè)試集或他們自己的 WAV 格式自定義數(shù)據(jù)運(yùn)行推理。以下是推理腳本 () 可用于運(yùn)行的選項(xiàng):inference_custom.py and inference_commonVoice.py
輸入選項(xiàng) | 描述 |
-p | 指定數(shù)據(jù)路徑。 |
-d | 指定波采樣的持續(xù)時(shí)間。默認(rèn)值為 3。 |
-s | 指定采樣波的大小,默認(rèn)值為 100。 |
--瓦德 | (僅限“inference_custom.py”)啟用 VAD 模型以檢測(cè)活動(dòng)語音。VAD 選項(xiàng)將識(shí)別音頻文件中的語音片段,并構(gòu)造一個(gè)僅包含語音片段的新.wav文件。這提高了用作語言識(shí)別模型輸入的語音數(shù)據(jù)的質(zhì)量。 |
--易派克 | 使用英特爾擴(kuò)展 PyTorch 優(yōu)化運(yùn)行推理。此選項(xiàng)會(huì)將優(yōu)化應(yīng)用于預(yù)訓(xùn)練模型。使用此選項(xiàng)應(yīng)可提高與延遲相關(guān)的性能。 |
--ground_truth_compare | (僅限“inference_custom.py”)啟用預(yù)測(cè)標(biāo)簽與地面真實(shí)值的比較。 |
--詳細(xì) | 打印其他調(diào)試信息,例如延遲。 |
必須指定數(shù)據(jù)的路徑。默認(rèn)情況下,將從原始音頻文件中隨機(jī)選擇 100 個(gè) 3 秒的音頻樣本,并用作語言識(shí)別模型的輸入。
在LibriParty數(shù)據(jù)集上預(yù)訓(xùn)練的小型卷積遞歸深度神經(jīng)網(wǎng)絡(luò)(CRDNN)用于處理音頻樣本并輸出檢測(cè)到語音活動(dòng)的片段。這可以通過選項(xiàng)在推理中使用。--vad
如下圖所示,將檢測(cè)到語音的時(shí)間戳是從 CRDNN 模型傳送的,這些時(shí)間戳用于構(gòu)建僅包含語音的較短的新音頻文件。從這個(gè)新的音頻文件中采樣將更好地預(yù)測(cè)所說的主要語言。
自行運(yùn)行推理腳本。運(yùn)行推理的示例命令:
python inference_custom.py -p data_custom -d 3 -s 50 --vad
這將對(duì)您提供的位于data_custom文件夾中的數(shù)據(jù)運(yùn)行推理。此命令使用語音活動(dòng)檢測(cè)對(duì) 50 個(gè)隨機(jī)選擇的 3 秒音頻樣本執(zhí)行推理。
如果要運(yùn)行其他語言的代碼示例,請(qǐng)下載其他語言的通用語音語料庫 11.0 數(shù)據(jù)集。
英特爾擴(kuò)展擴(kuò)展了 PyTorch 的最新功能和優(yōu)化,從而進(jìn)一步提升了英特爾硬件的性能。查看如何安裝 PyTorch 的英特爾擴(kuò)展。擴(kuò)展可以作為 Python 模塊加載,也可以作為C++庫鏈接。Python 用戶可以通過導(dǎo)入 .intel_extension_for_pytorch
要使用英特爾 PyTorch 擴(kuò)展優(yōu)化模型以進(jìn)行推理,可以傳入該選項(xiàng)。使用插件優(yōu)化模型。TorchScript 加快了推理速度,因?yàn)?PyTorch 以圖形模式運(yùn)行。使用此優(yōu)化運(yùn)行的命令是:--ipex
python inference_custom.py -p data_custom -d 3 -s 50 --vad --ipex --verbose
注意:需要該選項(xiàng)才能查看延遲測(cè)量值。--verbose
自動(dòng)混合精度(如 bfloat16 (BF16) 支持)將在代碼示例的未來版本中添加。
這是一個(gè)在 CPU 或 GPU 上運(yùn)行的開源 Python 庫,它:
通過在傳入模型和驗(yàn)證數(shù)據(jù)集的路徑的同時(shí)運(yùn)行腳本,可以將模型從 float32 (FP32) 精度量化為整數(shù) 8 (INT8)。以下代碼可用于加載此 INT8 模型以進(jìn)行推理:quantize_model.py
from neural_compressor.utils.pytorch import load
model_int8 = load("./lang_id_commonvoice_model_INT8", self.language_id)
signal = self.language_id.load_audio(data_path)
prediction = self.model_int8(signal)
請(qǐng)注意,加載量化模型時(shí)需要原始模型。使用 FP32 量化訓(xùn)練模型到 INT8 的命令是:quantize_model.py
python quantize_model.py -p ./lang_id_commonvoice_model -datapath $COMMON_VOICE_PATH/commonVoiceData/commonVoice/dev
以上是關(guān)于使用 PyTorch 構(gòu)建端到端 AI 解決方案的一些介紹。
- END -
我們有個(gè)AI研發(fā)云平臺(tái)
集成多種AI應(yīng)用,大量任務(wù)多節(jié)點(diǎn)并行
應(yīng)對(duì)短時(shí)間爆發(fā)性需求,連網(wǎng)即用
跑任務(wù)快,原來幾個(gè)月甚至幾年,現(xiàn)在只需幾小時(shí)
5分鐘快速上手,拖拉點(diǎn)選可視化界面,無需代碼
支持高級(jí)用戶直接在云端創(chuàng)建集群
掃碼免費(fèi)試用,送200元體驗(yàn)金,入股不虧~
更多電子書歡迎掃碼關(guān)注小F(ID:iamfastone)獲取
你也許想了解具體的落地場(chǎng)景:
王者帶飛LeDock!開箱即用&一鍵定位分子庫+全流程自動(dòng)化,3.5小時(shí)完成20萬分子對(duì)接
這樣跑COMSOL,是不是就可以發(fā)Nature了
Auto-Scale這支仙女棒如何大幅提升Virtuoso仿真效率?
1分鐘告訴你用MOE模擬200000個(gè)分子要花多少錢
LS-DYNA求解效率深度測(cè)評(píng) │ 六種規(guī)模,本地VS云端5種不同硬件配置
揭秘20000個(gè)VCS任務(wù)背后的“搬桌子”系列故事
155個(gè)GPU!多云場(chǎng)景下的Amber自由能計(jì)算
怎么把需要45天的突發(fā)性Fluent仿真計(jì)算縮短到4天之內(nèi)?
5000核大規(guī)模OPC上云,效率提升53倍
提速2920倍!用AutoDock Vina對(duì)接2800萬個(gè)分子
從4天到1.75小時(shí),如何讓Bladed仿真效率提升55倍?
從30天到17小時(shí),如何讓HSPICE仿真效率提升42倍?
關(guān)于為應(yīng)用定義的云平臺(tái):
當(dāng)仿真外包成為過氣網(wǎng)紅后…
和28家業(yè)界大佬排排坐是一種怎樣的體驗(yàn)?
這一屆科研計(jì)算人趕DDL紅寶書:學(xué)生篇
楊洋組織的“太空營(yíng)救”中, 那2小時(shí)到底發(fā)生了什么?
一次搞懂速石科技三大產(chǎn)品:FCC、FCC-E、FCP
Ansys最新CAE調(diào)研報(bào)告找到阻礙仿真效率提升的“元兇”
國(guó)內(nèi)超算發(fā)展近40年,終于遇到了一個(gè)像樣的對(duì)手
幫助CXO解惑上云成本的迷思,看這篇就夠了
花費(fèi)4小時(shí)5500美元,速石科技躋身全球超算TOP500
雖然在過去數(shù)十年中,人工智能 (AI) 的一些定義不斷出現(xiàn),但 John McCarthy 在 2004 年的論文 中給出了以下定義:“這是制造智能機(jī)器,特別是智能計(jì)算機(jī)程序的科學(xué)和工程。 它與使用計(jì)算機(jī)了解人類智能的類似任務(wù)有關(guān),但 AI 不必局限于生物可觀察的方法”。
然而,在這個(gè)定義出現(xiàn)之前數(shù)十年,人工智能對(duì)話的誕生要追溯到艾倫·圖靈 (Alan Turing) 于 1950 年發(fā)表的開創(chuàng)性工作:“計(jì)算機(jī)械和智能” 。 在這篇論文中,通常被譽(yù)為“計(jì)算機(jī)科學(xué)之父”的圖靈提出了以下問題:“機(jī)器能思考嗎?”由此出發(fā),他提出了著名的“圖靈測(cè)試”,由人類審查員嘗試區(qū)分計(jì)算機(jī)和人類的文本響應(yīng)。 雖然該測(cè)試自發(fā)表之后經(jīng)過了大量的審查,但它仍然是 AI 歷史的重要組成部分,也是一種在哲學(xué)中不斷發(fā)展的概念,因?yàn)樗昧擞嘘P(guān)語言學(xué)的想法。
Stuart Russell 和 Peter Norvig 隨后發(fā)表了“人工智能:現(xiàn)代方法”,成為 AI 研究的主要教科書之一。 在該書中,他們探討了 AI 的四個(gè)潛在目標(biāo)或定義,按照理性以及思維與行動(dòng)將 AI 與計(jì)算機(jī)系統(tǒng)區(qū)分開來:
人類方法:
理想方法:
艾倫·圖靈的定義可歸入“像人類一樣行動(dòng)的系統(tǒng)”類別。
以最簡(jiǎn)單的形式而言,人工智能是結(jié)合了計(jì)算機(jī)科學(xué)和強(qiáng)大數(shù)據(jù)集的領(lǐng)域,能夠?qū)崿F(xiàn)問題解決。 它還包括機(jī)器學(xué)習(xí)和深度學(xué)習(xí)等子領(lǐng)域,這些子領(lǐng)域經(jīng)常與人工智能一起提及。 這些學(xué)科由 AI 算法組成,這些算法旨在創(chuàng)建基于輸入數(shù)據(jù)進(jìn)行預(yù)測(cè)或分類的專家系統(tǒng)。
目前,仍有許多圍繞 AI 發(fā)展的炒作,市場(chǎng)上任何新技術(shù)的出現(xiàn)都會(huì)引發(fā)熱議。 正如Gartner 的炒作周期中所指出的,包括自動(dòng)駕駛汽車和個(gè)人助理在內(nèi)的產(chǎn)品創(chuàng)新遵循:“創(chuàng)新的典型發(fā)展進(jìn)程,從超高熱情到幻想破滅期,最終了解創(chuàng)新在市場(chǎng)或領(lǐng)域中的相關(guān)性和作用”。正如 Lex Fridman 在其 2019 年的 MIT 講座中所指出的那樣,我們正處于泡沫式期望的顛峰,逐漸接近幻滅槽。
弱 AI 也稱為狹義的 AI 或人工狹義智能 (ANI),是經(jīng)過訓(xùn)練的 AI,專注于執(zhí)行特定任務(wù)。 弱 AI 推動(dòng)了目前我們周圍的大部分 AI?!胺秶笨赡苁谴祟?AI 更準(zhǔn)確的描述符,因?yàn)樗鋵?shí)并不弱,支持一些非常強(qiáng)大的應(yīng)用,如 Apple 的 Siri、Amazon 的 Alexa 以及 IBM Watson 和自主車輛。
強(qiáng) AI 由人工常規(guī)智能 (AGI) 和人工超級(jí)智能 (ASI) 組成。 人工常規(guī)智能 (AGI) 是 AI 的一種理論形式,機(jī)器擁有與人類等同的智能;它具有自我意識(shí),能夠解決問題、學(xué)習(xí)和規(guī)劃未來。 人工超級(jí)智能 (ASI) 也稱為超級(jí)智能,將超越人類大腦的智力和能力。 雖然強(qiáng) AI 仍完全處于理論階段,還沒有實(shí)際應(yīng)用的例子,但這并不意味著 AI 研究人員不在探索它的發(fā)展。 ASI 的最佳例子可能來自科幻小說,如 HAL、超人以及《2001 太空漫游》電影中的無賴電腦助手。
由于深度學(xué)習(xí)和機(jī)器學(xué)習(xí)這兩個(gè)術(shù)語往往可互換使用,因此必須注兩者之間的細(xì)微差別。 如上所述,深度學(xué)習(xí)和機(jī)器學(xué)習(xí)都是人工智能的子領(lǐng)域,深度學(xué)習(xí)實(shí)際上是機(jī)器學(xué)習(xí)的一個(gè)子領(lǐng)域。
深度學(xué)習(xí)實(shí)際上由神經(jīng)網(wǎng)絡(luò)組成。深度學(xué)習(xí)中的“深度”是指由三層以上組成的神經(jīng)網(wǎng)絡(luò)(包括輸入和輸出)可被視為深度學(xué)習(xí)算法。 這通常如下圖表示:
深度學(xué)習(xí)和機(jī)器學(xué)習(xí)的不同之處在于每個(gè)算法如何學(xué)習(xí)。 深度學(xué)習(xí)可以自動(dòng)執(zhí)行過程中的大部分特征提取,消除某些必需的人工干預(yù),并能夠使用更大的數(shù)據(jù)集。 可將深度學(xué)習(xí)視為“可擴(kuò)展的機(jī)器學(xué)習(xí)”,正如 Lex Fridman 在同一 MIT 講座中所指出的那樣。 常規(guī)的機(jī)器學(xué)習(xí),或叫做"非深度"機(jī)器學(xué)習(xí),更依賴于人工干預(yù)進(jìn)行學(xué)習(xí)。 人類專家確定特征的層次結(jié)構(gòu),以了解數(shù)據(jù)輸入之間的差異,通常需要更多結(jié)構(gòu)化數(shù)據(jù)以用于學(xué)習(xí)。
"深度"機(jī)器學(xué)習(xí)則可以利用標(biāo)簽化的數(shù)據(jù)集,也稱為監(jiān)督式學(xué)習(xí),以確定算法,但不一定必須使用標(biāo)簽化的數(shù)據(jù)集。 它可以原始格式(例如文本、圖像)采集非結(jié)構(gòu)化數(shù)據(jù),并且可以自動(dòng)確定區(qū)分不同類別數(shù)據(jù)的特征的層次結(jié)構(gòu)。與機(jī)器學(xué)習(xí)不同,它不需要人工干預(yù)數(shù)據(jù)的處理,使我們能夠以更有趣的方式擴(kuò)展機(jī)器學(xué)習(xí)。
目前,AI 系統(tǒng)存在大量的現(xiàn)實(shí)應(yīng)用。 下面是一些最常見的示例:
人工智能的發(fā)展需要三個(gè)重要的基礎(chǔ),分別是數(shù)據(jù)、算力和算法,而云計(jì)算是提供算力的重要途徑,所以云計(jì)算可以看成是人工智能發(fā)展的基礎(chǔ)。云計(jì)算除了能夠?yàn)槿斯ぶ悄芴峁┧懔χ沃?,云?jì)算也能夠?yàn)榇髷?shù)據(jù)提供數(shù)據(jù)的存儲(chǔ)和計(jì)算服務(wù),而大數(shù)據(jù)則是人工智能發(fā)展的另一個(gè)重要基礎(chǔ),所以從這個(gè)角度來看,云計(jì)算對(duì)于人工智能的發(fā)展還是比較重要的。當(dāng)然,說到大數(shù)據(jù)還需要提一下物聯(lián)網(wǎng),物聯(lián)網(wǎng)為大數(shù)據(jù)提供了主要的數(shù)據(jù)來源,可以說沒有物聯(lián)網(wǎng)也就不會(huì)有大數(shù)據(jù)。
云計(jì)算目前正在從IaaS向PaaS和SaaS發(fā)展,這個(gè)過程中與人工智能的關(guān)系會(huì)越來越密切,主要體現(xiàn)在以下三個(gè)方面:
第一:PaaS與人工智能的結(jié)合來完成行業(yè)垂直發(fā)展。當(dāng)前云計(jì)算平臺(tái)正在全力打造自己的業(yè)務(wù)生態(tài),業(yè)務(wù)生態(tài)其實(shí)也是云計(jì)算平臺(tái)的壁壘,而要想在云計(jì)算領(lǐng)域形成一個(gè)龐大的壁壘必然需要借助于人工智能技術(shù)。目前云計(jì)算平臺(tái)開放出來的一部分智能功能就可以直接結(jié)合到行業(yè)應(yīng)用中,這會(huì)使得云計(jì)算向更多的行業(yè)領(lǐng)域垂直發(fā)展。
第二:SaaS與人工智能的結(jié)合來拓展云計(jì)算的應(yīng)用邊界。當(dāng)前終端應(yīng)用的迭代速度越來越快,未來要想實(shí)現(xiàn)更快速且穩(wěn)定的迭代,必然需要人工智能技術(shù)的參與。人工智能技術(shù)與云計(jì)算的結(jié)合能夠讓SaaS全面拓展自身的應(yīng)用邊界。
第三:云計(jì)算與人工智能的結(jié)合降低開發(fā)難度。云計(jì)算與人工智能結(jié)合還會(huì)有一個(gè)明顯的好處,就是降低開發(fā)人員的工作難度,云計(jì)算平臺(tái)的資源整合能力會(huì)在人工智能的支持下,越來越強(qiáng)大。
“一臺(tái)會(huì)思考的機(jī)器”這一構(gòu)想最早可以追溯到古希臘時(shí)期。 而自從電子計(jì)算技術(shù)問世以來(相對(duì)于本文中討論的某些主題而言),人工智能進(jìn)化過程中的重要事件和里程碑包括以下內(nèi)容:
以上就是速石對(duì)人工智能的一些介紹,想了解更多人工智能相關(guān)信息 歡迎掃碼關(guān)注小F(ID:iamfastone)獲取
- END -
我們有個(gè)AI研發(fā)云平臺(tái)
集成多種AI應(yīng)用,大量任務(wù)多節(jié)點(diǎn)并行
應(yīng)對(duì)短時(shí)間爆發(fā)性需求,連網(wǎng)即用
跑任務(wù)快,原來幾個(gè)月甚至幾年,現(xiàn)在只需幾小時(shí)
5分鐘快速上手,拖拉點(diǎn)選可視化界面,無需代碼
支持高級(jí)用戶直接在云端創(chuàng)建集群
掃碼免費(fèi)試用,送200元體驗(yàn)金,入股不虧~
更多電子書歡迎掃碼關(guān)注小F(ID:iamfastone)獲取
你也許想了解具體的落地場(chǎng)景:
王者帶飛LeDock!開箱即用&一鍵定位分子庫+全流程自動(dòng)化,3.5小時(shí)完成20萬分子對(duì)接
這樣跑COMSOL,是不是就可以發(fā)Nature了
Auto-Scale這支仙女棒如何大幅提升Virtuoso仿真效率?
1分鐘告訴你用MOE模擬200000個(gè)分子要花多少錢
LS-DYNA求解效率深度測(cè)評(píng) │ 六種規(guī)模,本地VS云端5種不同硬件配置
揭秘20000個(gè)VCS任務(wù)背后的“搬桌子”系列故事
155個(gè)GPU!多云場(chǎng)景下的Amber自由能計(jì)算
怎么把需要45天的突發(fā)性Fluent仿真計(jì)算縮短到4天之內(nèi)?
5000核大規(guī)模OPC上云,效率提升53倍
提速2920倍!用AutoDock Vina對(duì)接2800萬個(gè)分子
從4天到1.75小時(shí),如何讓Bladed仿真效率提升55倍?
從30天到17小時(shí),如何讓HSPICE仿真效率提升42倍?
關(guān)于為應(yīng)用定義的云平臺(tái):
當(dāng)仿真外包成為過氣網(wǎng)紅后…
和28家業(yè)界大佬排排坐是一種怎樣的體驗(yàn)?
這一屆科研計(jì)算人趕DDL紅寶書:學(xué)生篇
楊洋組織的“太空營(yíng)救”中, 那2小時(shí)到底發(fā)生了什么?
一次搞懂速石科技三大產(chǎn)品:FCC、FCC-E、FCP
Ansys最新CAE調(diào)研報(bào)告找到阻礙仿真效率提升的“元兇”
國(guó)內(nèi)超算發(fā)展近40年,終于遇到了一個(gè)像樣的對(duì)手
幫助CXO解惑上云成本的迷思,看這篇就夠了
花費(fèi)4小時(shí)5500美元,速石科技躋身全球超算TOP500
它是能夠模擬智能人類行為的軟件。從更廣泛的角度來看,它是一種計(jì)算機(jī)應(yīng)用程序,可以學(xué)習(xí)數(shù)據(jù)模式和洞察力,以智能地滿足特定客戶的痛點(diǎn)。
人工智能包括以下內(nèi)容:
這些功能被用來為不同的用例構(gòu)建人工智能軟件,其中最重要的是知識(shí)管理、虛擬輔助和自動(dòng)駕駛汽車。隨著企業(yè)必須梳理大量數(shù)據(jù)以滿足客戶需求,對(duì)更快、更準(zhǔn)確的軟件解決方案的需求也在增加。
1.Deep Vision
Deep Vision專為個(gè)人面部分析而設(shè)計(jì),是針對(duì)安全性,安全性和商業(yè)智能的完美AI解決方案。該軟件可有效監(jiān)視指定區(qū)域,以根據(jù)年齡,性別和其他詳細(xì)信息隨時(shí)間推移識(shí)別人員。
它使用面部人口統(tǒng)計(jì)模型來了解目標(biāo)區(qū)域內(nèi)隨時(shí)間變化的人口統(tǒng)計(jì)變化,或用于跟蹤客戶模式。此外,它還幫助廣告商和品牌與目標(biāo)受眾建立聯(lián)系,以進(jìn)行產(chǎn)品展示和廣告宣傳。該模型的創(chuàng)建是通過面部匹配來跟蹤個(gè)人,以量化訪客的訪問頻率,并幫助零售商立即找到潛在的顧客。
主要特點(diǎn)
2.Braina
它是少數(shù)支持多種語言的優(yōu)秀AI軟件之一。Braina也可以用作虛擬語音識(shí)別軟件。借助于此,可以輕松快捷地將軟件語音轉(zhuǎn)換為文本。這個(gè)以生產(chǎn)力為中心的商業(yè)智能平臺(tái)支持100多種語言。
主要特點(diǎn)
3.Google Cloud Machine Learning Engine
無論您是希望開展新業(yè)務(wù)還是計(jì)劃對(duì)現(xiàn)有業(yè)務(wù)進(jìn)行數(shù)字化轉(zhuǎn)型,Google AI技術(shù)和云解決方案都將幫助您取得令人難以置信的成功。Google Cloud Machine Learning Engine是用于訓(xùn)練,調(diào)整和分析模型的理想解決方案。它帶有Compute Engine,Cloud SDK,Cloud Storage和Cloud SQL。
該軟件還提供了安全耐用的對(duì)象存儲(chǔ)的好處。其庫和命令行工具允許用戶利用Google Cloud。此外,還有用于SQL Server,MySQL和PostgreSQL的關(guān)系數(shù)據(jù)庫。
主要特點(diǎn)
4.Engati
使用Engati,用戶可以輕松創(chuàng)建規(guī)模和復(fù)雜程度不同的聊天機(jī)器人。它帶有150多個(gè)模板,因此個(gè)人可以快速開始使用聊天機(jī)器人。另外,該軟件還包括高級(jí)“對(duì)話流”構(gòu)建器,高端集成功能以及用于在網(wǎng)站或任何可用渠道上部署漫游器的功能。
該平臺(tái)使聊天機(jī)器人的構(gòu)建比以往更加輕松。有專門設(shè)計(jì)用于部署,構(gòu)建,分析和訓(xùn)練機(jī)器人的部分。此外,使用該軟件廣播的聊天機(jī)器人用戶信息,門戶網(wǎng)站用戶,實(shí)時(shí)聊天和廣告系列將使您受益匪淺。
主要特點(diǎn)
5.Azure機(jī)器學(xué)習(xí)工作室
Azure機(jī)器學(xué)習(xí)Studio是出色的交互式編程軟件之一,最適合創(chuàng)建可用于預(yù)測(cè)分析的商業(yè)智能系統(tǒng)。它是用戶用來將對(duì)象移動(dòng)到界面的高級(jí)工具。
使用此軟件,您將有機(jī)會(huì)探索在云上構(gòu)建創(chuàng)新的,基于AI的應(yīng)用程序的新技術(shù)。Azure還提供了創(chuàng)新工具,人工智能服務(wù)和可擴(kuò)展基礎(chǔ)架構(gòu)的優(yōu)勢(shì)。此外,您還將獲得構(gòu)建智能解決方案所需的資源。
主要特點(diǎn)
6.Tensor Flow
Tensor Flow是廣受歡迎的開源軟件,對(duì)于尋求高級(jí)數(shù)值計(jì)算工具的專業(yè)人員而言,它是一個(gè)優(yōu)秀的解決方案。它具有靈活的架構(gòu),可跨多個(gè)平臺(tái)(包括TPU,CPU和GPU)進(jìn)行計(jì)算部署。另外,它可以部署在臺(tái)式機(jī),服務(wù)器,移動(dòng)設(shè)備和其他設(shè)備上。
這是Google的AI工程師和研究人員團(tuán)隊(duì)的創(chuàng)意。Tensor Flow能夠進(jìn)行深度學(xué)習(xí)和機(jī)器學(xué)習(xí)。而且,它對(duì)可在多個(gè)科學(xué)領(lǐng)域中使用的核心數(shù)學(xué)表達(dá)式提供了強(qiáng)大的支持。
它的一些核心組件包括自然語言處理,決策,聊天機(jī)器人,圖像識(shí)別,數(shù)據(jù)攝取,多語言,視覺搜索,語音識(shí)別,虛擬助手,機(jī)器學(xué)習(xí)和工作流自動(dòng)化。
主要特點(diǎn)
7.Cortana
像Google Now和Siri一樣,Cortana是一個(gè)智能的個(gè)人助理,可以幫助用戶啟動(dòng)應(yīng)用程序,安排約會(huì)以及許多其他虛擬任務(wù)。它還能夠調(diào)整設(shè)備設(shè)置,例如將Wi-Fi切換為關(guān)閉和打開模式。該工具還可以回答您的查詢,設(shè)置提醒,開燈,在線訂購(gòu)比薩等。
主要特點(diǎn)
8.IBM沃森
這是一個(gè)基于AI的計(jì)算機(jī)系統(tǒng),旨在回答用戶的問題。IBM Watson與認(rèn)知計(jì)算集成在一起-包括推理,機(jī)器學(xué)習(xí),自然語言處理,人工智能等技術(shù)的融合。該工具以IBM首任首席執(zhí)行官Thomas J. Watson爵士的名字命名,可將人工智能集成到各種業(yè)務(wù)流程中。它有助于提高組織的生產(chǎn)率和效率,從而可以獲得更好的結(jié)果。
通常,業(yè)務(wù)數(shù)據(jù)采用非結(jié)構(gòu)化的形式,例如語音數(shù)據(jù),段落等。借助IBM Watson,專業(yè)人員可以系統(tǒng)地整理和組織非結(jié)構(gòu)化數(shù)據(jù),以生成所需的信息。IBM Watson的處理速度約為80 teraflops,是人類回答問題能力的兩倍。
主要特點(diǎn)
9.Infosys Nia
Infosys Nia是一款高度評(píng)價(jià)的商業(yè)智能軟件,可以從舊版系統(tǒng),人員和流程中收集信息。它將數(shù)據(jù)聚合到一個(gè)知識(shí)庫中,并自動(dòng)執(zhí)行IT流程和業(yè)務(wù)任務(wù)。該軟件旨在減少人工工作,并找到需要想象力,創(chuàng)造力和激情的客戶問題的解決方案。
用戶可以利用該平臺(tái)來獲得深入的見解,增強(qiáng)的知識(shí)以及探索機(jī)會(huì),以簡(jiǎn)化,優(yōu)化和自動(dòng)化復(fù)雜的組織流程。
主要特點(diǎn)
10.Playment
它是一個(gè)數(shù)據(jù)標(biāo)記平臺(tái),可以為機(jī)器人模型大規(guī)模生成訓(xùn)練數(shù)據(jù)。Playment增強(qiáng)了處理無人機(jī),制圖,自動(dòng)駕駛和類似空間的業(yè)務(wù)。
該工具已由CYNGN,Drive AI和Starsky Robotics等多家知名研究機(jī)構(gòu)和組織選擇。
主要特點(diǎn)
11. PyTorch
PyTorch是一個(gè)開源的機(jī)器學(xué)習(xí)庫,基于Torch,用于自然語言處理等應(yīng)用程序。
PyTorch的前身是Torch,其底層和Torch框架一樣,但是使用Python重新寫了很多內(nèi)容,不僅更加靈活,支持動(dòng)態(tài)圖,而且提供了Python接口。它是由Torch7團(tuán)隊(duì)開發(fā),是一個(gè)以Python優(yōu)先的深度學(xué)習(xí)框架,不僅能夠?qū)崿F(xiàn)強(qiáng)大的GPU加速,同時(shí)還支持動(dòng)態(tài)神經(jīng)網(wǎng)絡(luò)。
PyTorch既可以看作加入了GPU支持的numpy,同時(shí)也可以看成一個(gè)擁有自動(dòng)求導(dǎo)功能的強(qiáng)大的深度神經(jīng)網(wǎng)絡(luò)。
2022年9月,扎克伯格親自宣布,PyTorch 基金會(huì)已新鮮成立,并歸入 Linux 基金會(huì)旗下
主要特點(diǎn)
12.H20
它聲稱任何人都可以利用機(jī)器學(xué)習(xí)和預(yù)測(cè)分析的力量來解決業(yè)務(wù)難題??梢杂糜陬A(yù)測(cè)建模、保險(xiǎn)分析、風(fēng)險(xiǎn)和欺詐分析、醫(yī)療保健、廣告技術(shù)和客戶情報(bào)。
它有兩種開源版本: Sparking Water 版和標(biāo)準(zhǔn)版 H2O ,被集成在 Apache Spark 中。也有付費(fèi)的企業(yè)用戶支持。
13.OpenNN
作為一個(gè)為開發(fā)者和科研人員設(shè)計(jì)的具有高級(jí)理解力的人工智能,OpenNN 是一個(gè)實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)算法的 c++ 編程庫。
其關(guān)鍵特性包括深度的架構(gòu)和快速的性能。其網(wǎng)站上可以查到豐富的文檔,包括一個(gè)解釋了神經(jīng)網(wǎng)絡(luò)的基本知識(shí)的入門教程。OpenNN 的付費(fèi)支持由一家從事預(yù)測(cè)分析的西班牙公司 Artelnics 提供。
14.NuPIC
由 Numenta 公司管理的 NuPIC 是一個(gè)基于分層暫時(shí)記憶Hierarchical Temporal Memory,HTM理論的開源人工智能項(xiàng)目。
從本質(zhì)上講,HTM 試圖創(chuàng)建一個(gè)計(jì)算機(jī)系統(tǒng)來模仿人類大腦皮層。他們的目標(biāo)是創(chuàng)造一個(gè) “在許多認(rèn)知任務(wù)上接近或者超越人類認(rèn)知能力” 的機(jī)器。
除了開源許可,Numenta 還提供 NuPic 的商業(yè)許可協(xié)議,并且它還提供技術(shù)專利的許可證。
15.Oryx 2
構(gòu)建在 Apache Spark 和 Kafka 之上的 Oryx 2 是一個(gè)專門針對(duì)大規(guī)模機(jī)器學(xué)習(xí)的應(yīng)用程序開發(fā)框架。它采用一個(gè)獨(dú)特的三層 λ 架構(gòu)。
開發(fā)者可以使用 Orys 2 創(chuàng)建新的應(yīng)用程序,另外它還擁有一些預(yù)先構(gòu)建的應(yīng)用程序可以用于常見的大數(shù)據(jù)任務(wù)比如協(xié)同過濾、分類、回歸和聚類。大數(shù)據(jù)工具供應(yīng)商 Cloudera 創(chuàng)造了最初的 Oryx 1 項(xiàng)目并且一直積極參與持續(xù)發(fā)展。
16.OpenCyc
由 Cycorp 公司開發(fā)的 OpenCyc 提供了對(duì) Cyc 知識(shí)庫的訪問和常識(shí)推理引擎。它擁有超過 239,000 個(gè)條目,大約 2,093,000 個(gè)三元組和大約 69,000 owl:這是一種類似于鏈接到外部語義庫的命名空間。
它在富領(lǐng)域模型、語義數(shù)據(jù)集成、文本理解、特殊領(lǐng)域的專家系統(tǒng)和游戲 AI 中有著良好的應(yīng)用。
該公司還提供另外兩個(gè)版本的 Cyc:一個(gè)可免費(fèi)的用于科研但是不開源,和一個(gè)提供給企業(yè)的但是需要付費(fèi)。
17.SystenML
最初由 IBM 開發(fā), SystemML 現(xiàn)在是一個(gè) Apache 大數(shù)據(jù)項(xiàng)目。
它提供了一個(gè)高度可伸縮的平臺(tái),可以實(shí)現(xiàn)高等數(shù)學(xué)運(yùn)算,并且它的算法用 R 或一種類似 python 的語法寫成。
企業(yè)已經(jīng)在使用它來跟蹤汽車維修客戶服務(wù)、規(guī)劃?rùn)C(jī)場(chǎng)交通和連接社會(huì)媒體數(shù)據(jù)與銀行客戶。它可以在 Spark 或 Hadoop 上運(yùn)行。
18.Torch
Torch 把自己描述為:“一個(gè)優(yōu)先使用 GPU 的,擁有機(jī)器學(xué)習(xí)算法廣泛支持的科學(xué)計(jì)算框架”,特點(diǎn)是靈活性和速度。
另外,Torch可以很容易的通過軟件包用于計(jì)算機(jī)視覺、機(jī)器學(xué)習(xí)、信號(hào)處理、并行處理、視頻、圖像、音頻和網(wǎng)絡(luò)等方面。依賴一個(gè)叫做 LuaJIT 的腳本語言,而 LuaJIT 是基于 Lua 的。
19.MLlib
MLlib 是 Spark 的可擴(kuò)展機(jī)器學(xué)習(xí)庫。它集成了 Hadoop 并可以與 NumPy 和 R 進(jìn)行交互操作。
它包括了許多機(jī)器學(xué)習(xí)算法如分類、決策樹、推薦、主題建模、集群、功能轉(zhuǎn)換、模型評(píng)價(jià)、生存分析、ML 管道架構(gòu)、ML 持久、頻繁項(xiàng)集和序列模式挖掘、分布式線性代數(shù)和統(tǒng)計(jì)。
20.Mahout
它是 Apache 基金會(huì)項(xiàng)目,Mahout 是一個(gè)開源機(jī)器學(xué)習(xí)框架。
主要特點(diǎn):
目前使用 Mahout 的公司有 埃森哲咨詢公司、Adobe、英特爾、領(lǐng)英、Twitter、Foursquare、雅虎和其他許多公司。
21.Deeplearning4j
Deeplearning4j 是一個(gè) java 虛擬機(jī)(JVM)的開源深度學(xué)習(xí)庫。它運(yùn)行在分布式環(huán)境并且集成在Apache Spark 和 Hadoop 中。這使它可以配置深度神經(jīng)網(wǎng)絡(luò),并且它與Scala 、 Java和 其他 JVM 語言兼容。
22.Caffe
Caffe是由賈揚(yáng)清在加州大學(xué)伯克利分校讀博時(shí)創(chuàng)造的, 是一個(gè)基于表達(dá)體系結(jié)構(gòu)和可擴(kuò)展代碼的深度學(xué)習(xí)框架。使它聲名鵲起的是速度,這使它非常受到研究人員和企業(yè)用戶的歡迎。
根據(jù)其網(wǎng)站所言,它可以在一天之內(nèi)只用一個(gè) NVIDIA K40 GPU 處理 6000 萬多個(gè)圖像。它是由伯克利視野和學(xué)習(xí)中心(BVLC)管理的,并且由 NVIDIA 和亞馬遜等公司資助來支持它的發(fā)展。
- END -
我們有個(gè)AI研發(fā)云平臺(tái)
集成多種AI應(yīng)用,大量任務(wù)多節(jié)點(diǎn)并行
應(yīng)對(duì)短時(shí)間爆發(fā)性需求,連網(wǎng)即用
跑任務(wù)快,原來幾個(gè)月甚至幾年,現(xiàn)在只需幾小時(shí)
5分鐘快速上手,拖拉點(diǎn)選可視化界面,無需代碼
支持高級(jí)用戶直接在云端創(chuàng)建集群?
掃碼免費(fèi)試用,送200元體驗(yàn)金,入股不虧~
更多電子書歡迎掃碼關(guān)注小F(ID:iamfastone)獲取
你也許想了解具體的落地場(chǎng)景:
王者帶飛LeDock!開箱即用&一鍵定位分子庫+全流程自動(dòng)化,3.5小時(shí)完成20萬分子對(duì)接
這樣跑COMSOL,是不是就可以發(fā)Nature了
Auto-Scale這支仙女棒如何大幅提升Virtuoso仿真效率?
1分鐘告訴你用MOE模擬200000個(gè)分子要花多少錢
LS-DYNA求解效率深度測(cè)評(píng) │ 六種規(guī)模,本地VS云端5種不同硬件配置
揭秘20000個(gè)VCS任務(wù)背后的“搬桌子”系列故事
155個(gè)GPU!多云場(chǎng)景下的Amber自由能計(jì)算
怎么把需要45天的突發(fā)性Fluent仿真計(jì)算縮短到4天之內(nèi)?
5000核大規(guī)模OPC上云,效率提升53倍
提速2920倍!用AutoDock Vina對(duì)接2800萬個(gè)分子
從4天到1.75小時(shí),如何讓Bladed仿真效率提升55倍?
從30天到17小時(shí),如何讓HSPICE仿真效率提升42倍?
關(guān)于為應(yīng)用定義的云平臺(tái):
當(dāng)仿真外包成為過氣網(wǎng)紅后…
和28家業(yè)界大佬排排坐是一種怎樣的體驗(yàn)?
這一屆科研計(jì)算人趕DDL紅寶書:學(xué)生篇
楊洋組織的“太空營(yíng)救”中, 那2小時(shí)到底發(fā)生了什么?
一次搞懂速石科技三大產(chǎn)品:FCC、FCC-E、FCP
Ansys最新CAE調(diào)研報(bào)告找到阻礙仿真效率提升的“元兇”
國(guó)內(nèi)超算發(fā)展近40年,終于遇到了一個(gè)像樣的對(duì)手
幫助CXO解惑上云成本的迷思,看這篇就夠了
花費(fèi)4小時(shí)5500美元,速石科技躋身全球超算TOP500