- 相關(guān)推薦
人工智能與機器學(xué)習的區別
人工智能早已不是一個(gè)新名詞,它的發(fā)展歷史已經(jīng)有幾十年。下面是小編分享的,歡迎大家閱讀!
【人工智能與機器學(xué)習的區別】
從80年代早期開(kāi)始,當時(shí)計算機科學(xué)家設計出可以學(xué)習和模仿人類(lèi)行為的算法。在學(xué)習方面,最重要的算法是神經(jīng)網(wǎng)絡(luò ),但由于模型過(guò)于強大,沒(méi)有足夠的數據支持,導致不是很成功。然而,在一些更具體的任務(wù)中,使用數據來(lái)適應函數的想法獲得了巨大的成功,這也構成了機器學(xué)習的基礎。在模仿方面,人工智能在圖像識別、語(yǔ)音識別和自然語(yǔ)言處理方面有著(zhù)廣泛的應用。專(zhuān)家們花費了大量時(shí)間去創(chuàng )建邊緣計算,彩色型材,N-gram語(yǔ)言模型,語(yǔ)法樹(shù)等,不料所獲成績(jì)平平。
傳統的機器學(xué)習
機器學(xué)習(ML)技術(shù)在預測中發(fā)揮了重要作用,機器學(xué)習已經(jīng)經(jīng)歷了多代,有一套完備的模型結構,如:
·線(xiàn)性回歸
·Logistic回歸
·決策樹(shù)
·支持向量機
·貝葉斯模型
·正則化模型
·集成模型
·神經(jīng)網(wǎng)絡(luò )
每一個(gè)預測模型都基于一定的算法結構,參數可進(jìn)行調整。訓練預測模型涉及以下步驟:
1.選擇模型結構(例如,邏輯回歸、隨機森林等)。
2.用訓練數據(輸入和輸出)對模型進(jìn)行反饋。
3.學(xué)習算法將輸出最優(yōu)模型(即具有特定參數的模型,使訓練誤差最小化)。
每個(gè)模型都有自己的特點(diǎn),在某些任務(wù)中表現很好,在其他方面也卻不盡人意。但一般來(lái)說(shuō),我們可以把它們分為低功耗(簡(jiǎn)單)模型和大功率(復雜)模型。在不同的模型之間進(jìn)行選擇是一個(gè)非常棘手的問(wèn)題。傳統上,使用低功耗/簡(jiǎn)單模型比使用高功率/復雜模型要好,原因如下:
·在我們擁有大量的處理能力之前,訓練高功率模型需要花費很長(cháng)時(shí)間。
·直到我們有一個(gè)龐大的數據量,培養高功率模型會(huì )導致過(guò)擬合問(wèn)題(由于高功率模型具有豐富的參數,可以適應多種數據的形狀,我們可能最終會(huì )訓練出一個(gè)與當前訓練數據非常相關(guān)的模型,而不是對未來(lái)數據進(jìn)行預測)。
然而,選擇低功耗模型存在著(zhù)所謂的"欠擬合"問(wèn)題,即模型結構過(guò)于簡(jiǎn)單,無(wú)法在較復雜的情況下適應訓練數據。(假設下面的數據有一個(gè)二次關(guān)系:y=5*X的平方;沒(méi)有方法可以擬合一個(gè)線(xiàn)性回歸:y=A,B,B,B,無(wú)論我們選擇什么樣的A和B。)
為了減輕"不適合的問(wèn)題",數據科學(xué)家通常會(huì )應用他們的"領(lǐng)域知識"來(lái)產(chǎn)生"輸入特性",它與輸出有更直接的關(guān)系。(例如,返回到二次關(guān)系y=5*X的平方),然后通過(guò)選取a=5和b=0,擬合線(xiàn)性回歸。
機器學(xué)習的一個(gè)主要障礙是這個(gè)特征工程步驟,它要求領(lǐng)域專(zhuān)家在進(jìn)入培訓過(guò)程之前識別重要的信號。特征工程步驟非常手工,需要大量的領(lǐng)域專(zhuān)門(mén)知識,因此成為當今大多數機器學(xué)習任務(wù)的主要瓶頸。換句話(huà)說(shuō),如果我們沒(méi)有足夠的處理能力和足夠的數據,那么我們必須使用低功耗/簡(jiǎn)單的模型,這需要我們花大量的時(shí)間和精力來(lái)創(chuàng )建適當的輸入特性。這是大多數數據科學(xué)家花時(shí)間做的事情。
神經(jīng)網(wǎng)絡(luò )的回歸
在2000年代早期,隨著(zhù)大容量數據時(shí)代大量的細粒度事件數據的收集,隨著(zhù)云計算和大規模并行處理基礎設施的進(jìn)步,機器處理能力得到了極大的提高。我們不再局限于低功耗/簡(jiǎn)單的模型。例如,當今最流行的兩種主流機器學(xué)習模型是隨機森林和梯度增強樹(shù)。然而,盡管它們都非常強大,并提供非線(xiàn)性模型擬合訓練數據,數據科學(xué)家仍然需要仔細地創(chuàng )建功能,以達到良好的性能。
與此同時(shí),計算機科學(xué)家重新使用了許多層的神經(jīng)網(wǎng)絡(luò )來(lái)完成這些人類(lèi)模擬任務(wù)。這給新出生的DNN(深度神經(jīng)網(wǎng)絡(luò ))在圖像分類(lèi)和語(yǔ)音識別的任務(wù)提供了一個(gè)重大的突破。
DNN的主要區別是,你可以發(fā)出原信號,(例如,RGB像素值)直接到DNN沒(méi)有創(chuàng )造任何特定于域的輸入特征。通過(guò)多層次的神經(jīng)元(這就是為什么它被稱(chēng)為"深"的神經(jīng)網(wǎng)絡(luò )),能夠自動(dòng)生成相應的功能,通過(guò)各層最后提供了一個(gè)很好的預測。這大大節省了"特征工程"的努力,也是數據科學(xué)家遇到的一個(gè)主要瓶頸。
DNN也演變成許多不同的網(wǎng)絡(luò )結構,所以我們美國有線(xiàn)電視新聞網(wǎng)(卷積神經(jīng)網(wǎng)絡(luò )),RNN(神經(jīng)網(wǎng)絡(luò ))、LSTM(長(cháng)短期記憶)、GAN(生成對抗網(wǎng)絡(luò )),遷移學(xué)習,注意模型…整個(gè)光譜被稱(chēng)為"深度學(xué)習",這是當今全機器學(xué)習界關(guān)注的焦點(diǎn)。
強化學(xué)習
另一個(gè)關(guān)鍵的'部分是如何模仿一個(gè)人(或動(dòng)物)學(xué)習。想象一下感知/行為/獎賞周期的非常自然的動(dòng)物行為。一個(gè)人或動(dòng)物首先會(huì )通過(guò)感知他或她處于什么狀態(tài)來(lái)理解環(huán)境;谶@一點(diǎn),他或她會(huì )選擇一個(gè)"動(dòng)作"把他或她帶到另一個(gè)"狀態(tài)",然后他或她會(huì )得到一個(gè)"獎勵",如此循環(huán)重復。
這種學(xué)習方法(稱(chēng)為強化學(xué)習)與傳統的有監督機器學(xué)習的曲線(xiàn)擬合方法有很大的不同。特別是,強化學(xué)習的發(fā)生非常迅速,因為每一個(gè)新的反饋(如執行一個(gè)動(dòng)作和獲得一個(gè)獎勵)立即被發(fā)送來(lái)影響隨后的決定。強化學(xué)習已經(jīng)獲得了巨大的成功在自動(dòng)駕駛汽車(chē)以及AlphaGO(下棋機器人)。
強化學(xué)習也提供了一個(gè)平滑的預測和優(yōu)化集成,因為它保持一個(gè)信念的當前狀態(tài)和可能的轉移概率時(shí)采取不同的行動(dòng),然后作出決定,哪些行動(dòng)會(huì )帶來(lái)最好的結果。
深度學(xué)習+強化學(xué)習=人工智能
與經(jīng)典機器學(xué)習技術(shù)相比,深度學(xué)習提供了一個(gè)更強大的預測模型,通常能產(chǎn)生良好的預測。與經(jīng)典的優(yōu)化模型相比,強化學(xué)習提供了更快的學(xué)習機制,并且更適應環(huán)境的變化。
【人工智能與機器學(xué)習的區別】相關(guān)文章:
人工智能機器人論文11-04
人工智能機器人論文(7篇)11-05
人工智能機器人論文7篇11-04
人工智能學(xué)習心得11-02
人工智能機器人論文匯編7篇11-05
人工智能學(xué)習心得3篇11-03
人工智能教育論壇學(xué)習心得體會(huì )09-26
人工智能作文08-23
人工智能心得12-01
人工智能與生活07-28