一個與​​Wojciech Zaremba 的 AI 入門

iTunes的
Google Play
縫合
RSS


克雷格大砲[00:00] - 嘿,這是Craig Cannon,你正在聽Y Combinator的播客。 今天的客人是Wojciech Zaremba,他是OpenAI的聯合創始人。 OpenAI是一家非牟利的AI研究公司。 他們專注於發現和製定安全人造一般情報的途徑。 這一集是AI的一個引言,因為我們有幾個人工智能訪談,而且它們往往比這個更具體。 好的,我們走了。 嘿,今天我們有Wojciech Zaremba,我們會談論AI。 那麼,Wojciech,你能給我們一個快速的背景嗎?

Wojciech Zaremba [00:30] - 我是OpenAI的創始人,我正在從事機器人技術,我認為深度學習和人工智能是機器人技術的重要應用。 在此之前,我在Google Brain工作了一年,並在Facebook AI Research工作了一年,同時畢業於...我在紐約大學完成了博士學位。

克雷格大砲[00:55] - 你能解釋一下你怎麼把它拉下來嗎? 這似乎很少見

Wojciech Zaremba [00:58] - 所以,這兩個組織的偉大之處在於它們專注於研究,所以在我的博士期間,我實際上是在那裡發表論文。 我強烈推薦這兩個組織,當然還有OpenAI。

克雷格大砲[01:15] - 是的,好的,所以大多數人可能不知道OpenAI是什麼,那麼你可以給出一個快速的解釋?

Wojciech Zaremba [01:21] - 所以,OpenAI著重於人性化建設AI,我們是一群研究人員和工程師,共同合作,基本上試圖弄清楚人造,一般人工智能的缺失是什麼,以及如何在 最有利於整個人類的方式。 OpenAI得到Elon Musk和Sam Altman的大力支持,我們總共投資了10億美元。

克雷格大砲[02:04] - 這是相當多的 那麼,是什麼意思,我知道一些,但是什麼是OpenAI項目?

Wojciech Zaremba [02:10] - 所以呢,還有幾個大型的項目同時進行。 我們也有,我們也在做基礎研究,所以讓我先列舉大型項目。 這些是機器人技術,所以在機器人技術方面,我們正在努力操縱,我們認為操縱是完整的,它是機器人技術中最無法解決的部分之一。

克雷格大砲[02:37] - 對不起,只是為了澄清,這是什麼意思?

Wojciech Zaremba [02:40] - 所以這就意味著在機器人中基本上有三個主要的任務。 一個是運動,這意味著如何擺脫,讓我們說如何走,如何從A點移動到B點。其次是導航,它在復雜的環境中移動,例如平面或建築物,以及 實際上,你必須弄清楚你以前訪問過哪些房間,哪個不是,哪裡去了。 最後一個是操作,所以這意味著你想要抓住一個對象,就是說打開一個對象,把對象放在不同的位置。 第三個是目前最困難的一個。 所以,事實證明,當涉及任意對象時,當前的機器人不能僅僅掌握任意對象。 對於任何對象,可以手工編碼一個解決方案,所以說,只要在工廠裡說,我們有同樣的對象,像我一樣,我不知道,我們正在生產眼鏡,而且存在 手編解決方案,有一種方法,通過代碼來寫程序,說:“讓我們把手放在玻璃的中間,然後讓我們關閉它。”但是到目前為止,沒有辦法, 寫一個程序,使它能夠掌握任意對象。

克雷格大砲[04:13] - 好的,有了你,然後,很快,其他的OpenAI項目呢?

Wojciech Zaremba [04:19] - 所以,另一個與玩複雜的電腦遊戲有關,第三個與玩大量的電腦遊戲有關,你可能會問為什麼有趣? 在某種意義上,我希望看到,所以人類...有一個令人難以置信的技能,能夠非常快地學習,它與以前的經驗有關。 所以說,即使你沒有打過排球,如果你是第一次嘗試,在10到15分鐘之內,你就能掌握如何實際,如何玩。 它與以前從不同遊戲中獲得的經驗有關。 如果你把一個孩子,等等,如果你把一個嬰兒放在排球場上,並要求他或她玩,這將會失敗慘敗。 但是,我的意思是說,由於它有大量其他遊戲的經驗,或者讓我們說其他生活的情況,它能夠實際轉移所有的知識。 所以,在OpenAI,我們可以把大量的電腦遊戲和電腦遊戲結合起來,很容易量化你在電腦遊戲中的表現。 目前最好的AI系統,所以,首先,許多電腦遊戲可能會編寫一個很好的解決方案,或者播放得很好的程序。 還有結果來自於強化學習的結果,或者在所謂的深度強化學習方面,表明可以學習如何玩電腦遊戲,這些都是類似的,初步的結果來自DeepMind。 但同時,同時,要實時執行需要很長時間才能學習玩電腦遊戲。 所以,例如,Atari遊戲,例如,在實時執行方面,需要大約三年的時間來學習玩簡單的遊戲。 我的意思是說,它可能會非常麻痺,所以在現在的電腦上訓練它需要幾天的時間,但對於人來說,這樣做的時間要短一些。 在10分鐘內,

克雷格大砲[07:12] - 教會如何玩和贏?

Wojciech Zaremba [07:13] - 是。

克雷格大砲[07:13] - 好的。 那是通過你,給它反饋嗎?

Wojciech Zaremba [07:17] - 所以在電腦遊戲的情況下它的運作方式,反饋來自於分數,所以它會看看遊戲中的得分,並嘗試優化它。 而且,我會說這是合理的,但我會同時說,這對我來說並不那麼令人滿意。 那麼,為什麼對我來說並不那麼令人滿意,所以,這種基礎強化學習的假設是,那就是有一些環境和環境,你是一個代理人,你是通過執行行動和獲得獎勵而在環境中行事的 環境。 而獎勵可能被認為是讓我們說,快樂,等等。 而主要的問題是,找出現實世界中的獎勵是不容易的。 此外,其他潛在的假設是能夠重置環境,以達到重複相同的情況,因此系統可以嘗試數千或數百萬次來實際完成遊戲。 所以有一些小的差異。 人們還認為,以某種方式將硬編碼成系統獎勵可能是有可能的,但我會說,這實際上是一個很大的問題,那是一個未解決的問題。 像我的侄子玩電腦遊戲的時候,他實際上並沒有看得過分,因為他看不懂。

克雷格大砲[08:46] - 哇,好的

Wojciech Zaremba [08:46] - 是的,他們可以打得很好。 所以,我的意思是說,可能是獎勵有點不一樣,可能是獎勵來自於喜歡看到一個很好的,在遊戲中聽到一個很好的聲音,但是我會說這是一個什麼是非常不清楚如何 建立一個系統,什麼系統應該優化,所以在某種意義上說,如果我們有一個要優化的指標,可以建立一個可以優化的系統,但事實證明,在許多情況下, 不是那麼容易 我會說,這實際上是為什麼我想要機器人工作的動機之一,因為在機器人的情況下,它更接近我們關心的系統。 所以,我的意思是說,比方說,你想讓你的機器人為你準備炒雞蛋,所以問題是,我應該如何建立獎勵? 而在電腦遊戲中,實際上,你會看到的很好的東西是非常頻繁地得到獎勵,所以,讓我們說,任何時候你殺死敵人,或者說,不會死,這是非常好的,但是如果炒蛋,它 這意味著人們如何寫系統的獎勵,這意味著從手到平底鍋的距離。 然後,我們要說,不管怎樣,我們必須量化蛋如果你能夠打開一個雞蛋,或者說,如果你把它充分炒好,那麼如何量化就變得非常困難了 沒有辦法重置系統,如何將系統重置到同一個地方? 所以,這些都是一個根本的問題,而且他們是為什麼我對機器人的個人興趣,實際上這些挑戰會告訴我們如何解決這個問題。

克雷格大砲[10:49] - 所以,我們首先定義一些事情。 那麼,什麼是人工智能,什麼是機器學習,那麼什麼是深度學習?

Wojciech Zaremba [10:57] - 好的,這些都是不錯的問題。

克雷格大砲[11:00] - 好的。

Wojciech Zaremba [11:02] - 因此,人工智能實際上是非常廣泛的,它是非常廣泛的領域,機器學習是這個領域的一部分,在某種意義上,人工智能包括任何寫作,任何試圖通過一些智慧解決一些問題的軟件。 它可能是手工編碼的解決方案,基於規則的系統,是的,所以,實際上很難說什麼是人造智能。 你可以這麼說,所以,初始版本,例如穀歌搜索,是基於,它是避免任何機器學習,它是...有一個明確定義的算法,稱為PageRank,基本上PageRank計數了多少來 鏈接來自其他網站,這就是人工智能。 它本質上是為您做智能的系統。 然後,Google搜索開始使用機器學習,因為它有助於提高結果,但同時他們希望避免一段時間,因為更難解釋結果,而且更難實際了解系統的功能。 那麼什麼是機器學習? 機器學習,本質上是一種構建方式,或者讓我們說,基本上,你有數據,而您希望通過一些行為來生成基於數據的程序。 所以,最常見的例子是機器學習的分支,所謂的“監督學習”,所以你有一對例子,X逗號Y,這意味著“我想把X映射到 例如,即使電子郵件是垃圾郵件也不是垃圾郵件,或者說,甚至是圖像,什麼是圖像的類別,或者例如,我應該向誰推薦給定的產品? 並且,根據這些數據,你想生成程序,某種類似的,一個黑框或一些功能,對於新的例子,可以給你一個奇怪的答案。 這是監督學習的一個例子。 但是,這個意義上,機器學習意味著你想從數據生成程序。

克雷格大砲[13:59] - 好的。

Wojciech Zaremba [14:00] - 這通常是一種統計機器學習方法,所以不管怎樣,你計算偶數事件多少次,發生事件發生等等。

克雷格大砲[14:11] - 好的,有了你,然後第三個深入學習。

Wojciech Zaremba [14:14] - 所以,深入學習,這也是機器學習的一個範例,背後的想法是荒謬的簡單。

克雷格大砲[14:32] - 好的。

Wojciech Zaremba [14:34] - 所以,人們意識到,如我所說,如果你想,機器學習意味著你獲取數據作為輸入,並將程序作為輸出,深入的學習說,計算的程序,那麼我實際上在做什麼 這個數據應該涉及很多步驟。 不是一步,而是很多。

克雷格大砲[15:03] - 好的。

Wojciech Zaremba [15:05] - 而且,就這一點而言,在深度學習的意義上。 所以,你可能會問,為什麼現在這麼受歡迎,以及它與以前有什麼不同? 所以如果你假設你做一個計算步驟,我們假設你收集你的數據,你有一個if語句,或者是少量的if語句,那麼就像例如說,如果你有 不,我們假設你的數據是股票市場上的一個錄音,而你說的是,你會根據大於或者小於某事的價值出售或購買,或者說,根據誰是新總統, 或許你正在作出一些決定。 因此,從某種意義上說,在模型基於單步的情況下,人們能夠在數學上證明大量的東西,而在需要多個計算步驟的模型方面,數學證明非常弱。 長期以來,具有單步計算的模型,它們是執行許多計算步驟的性能不佳的模型。 但是最近呢這種改變了,對很多人而言,很長一段時間才明白,真正的智慧不能一步到位,但這需要很多的步驟。 但是,到目前為止,很多系統實際上是以他們的方式工作的,非常淺,非常淺,但同時卻非常巨大。 那是什麼意思呢 可以讓我們說出感興趣的任務,讓我們說推薦,你可以產生大量的功能。 我們來談幾千。 這些功能就是說,比如說我們想做電影推薦,你可以說,“電影是長於還是短於兩個小時? 是比一個小時還是短一個小時?“那就是兩個功能。 你可以說,“這是戲劇,它是驚悚片,還有別的嗎?”你可以產生這些數量,然後,或者讓我們說100,000,這實際上是一個合理的價值,然後你的淺分類器可以基本確定 在這些功能的組合上,要么向你推薦它,要么不推薦它。

克雷格大砲[17:41] - 好的。

Wojciech Zaremba [17:43] - 在深入學習的情況下,您可以說:“讓我們把它結合起來進行多個步驟”。這實際上是完全不一樣的,在深入學習的情況下,深入學習的最成功實例就是神經網絡。

克雷格大砲[18:07] - 好的,我們來定義一下。

Wojciech Zaremba [18:09] - 所以神經網絡也是非常簡單的概念。 這是很久以前人們想出來的,這意味著,這就是...它有...你有一個輸入,這可能是說,矢量,或者它可能有一些額外的結構,比如,讓我們說圖像,所以它是好的 矩陣,二維和...神經網絡,它是一系列層,層由矩陣表示,您所做的是將您的輸入乘以矩陣,並應用一些非線性運算,並再次乘以 通過一個矩陣,並應用非線性運算,你可能會問:“為什麼我甚至需要應用這個非線性運算?”事實證明,如果你可以乘以兩個矩陣,它可以減少乘以單個 矩陣。 像兩個線性運算符的組合可以寫成單線性運算符。 您可以將這些矩陣相乘在一起,結果可以將其壓縮成單矩陣。 而且,非線性是類似的,它們是古典的非線性,但是,就我所說的而言,它們是非常多的變體,但是我剛剛描述的就是所謂的工作 神經網絡,所以它本質上是採取輸入,乘以一個矩陣,非線性乘以矩陣,非線性的例子是,有一些稱為,一個是古典的,稱為Sigmoid,所以sigmoid是一個 具有“S”字符形狀的“S”字母的函數,它接近於零。 對於負值,它增長到零的一半,然後在值越大時變為1,調製輸入的種類,這是激活函數的最經典版本。 事實證明,一個更簡單的經驗工作方式更好,這被稱為ReLU,整改線性單位,而這一個,這是荒謬的簡單。 ReLU最大為0,x。 所以,當你的負數值為零時,你有正值,只需複制該值就可以了。 所以,你可能會問。 首先,深入學習的成功是什麼,為什麼我們實際上相信它有效,為什麼,什麼變化,以及為什麼與之前有很大的不同,還有一些差異。

克雷格大砲[21:27] - 是啊。

Wojciech Zaremba [21:29] - 這是一個很好的問題-

克雷格大砲[21:30] - 不,這正是我要去的地方,但是我事先要問,為什麼神經網絡現在是一件事情,而不是過去呢?

Wojciech Zaremba [21:41] - 主要的區別是突然間我們可以訓練他們來解決各種各樣的問題,讓我們說一系列的問題,這就是監督學習中的問題,所以比任何其他的方法都更好,可以將這些例子映射到標籤上, 然後在保留測試數據的數據,他們勝過其他任何事情,在許多情況下,他們獲得超人的結果。

克雷格大砲[22:06] - 這只是我們可以訪問的計算能力的一個功能嗎?

Wojciech Zaremba [22:10] - 當涉及到模型,而神經網絡是模型的一個例子,總是有這個問題。 那麼,如何找出一個模型的參數。 所以有一些訓練程序,而神經網絡最常見的過程就是所謂的隨機梯度下降,程序也很簡單,事實證明,它在經驗上是非常有效的。 所以,人們出來了大量的學習算法,隨機梯度下降是一種學習算法的一個例子,還有其他的。 假設有一些叫做Hebbian學習的東西是受到人類大腦神經元學習的動機。 但是,到目前為止,這一點在經驗上是最好的。

克雷格大砲[23:00] - 好的,那麼讓我們去看看你自己問的問題,那就是“為什麼現在呢?”現在呢,讓人們關心現在呢?

Wojciech Zaremba [23:12] - 所以,20年前,人們如何訓練神經網絡有幾個小小的差異。 而且計算能力大大增加。 所以,我可以談論重大進展。 所以,我會說,這是一個先進的事情,這是一個超前,其實是一個老的,但它似乎是非常關鍵的,這就是所謂的捲積神經網絡。

克雷格大砲[23:47] - 好的,這是什麼意思?

Wojciech Zaremba [23:52] - 這實際上是一個非常簡單的概念。 所以,讓我們說你的輸入是一個圖像,我們假設你的圖像大小是200 x 200,也就是說三種顏色,所以總共的數值實際上是12萬,所以如果你願意的話 實際上將它壓縮成一個矢量,這個矢量將是這個大小,可以,你可以想,如果你願意,讓我們說應用神經網絡,基本上乘以一個矩陣,讓我們說,如果你會 喜歡有類似大小的乘法的輸出,我們說120,000,那麼突然之間,矩陣,乘以它,將是一個巨大的大小。 而學習,學習包括神經網絡估計參數。 事實證明,從經驗上說,這根本不起作用,如果你使用反向傳播的算法,你會得到相當差的結果。 人們意識到,在圖像的情況下,您可能需要乘以一點點特殊的矩陣,也允許做更快的計算。 因此,您可以將神經網絡視為對輸入應用一些計算,因此神經網絡對輸入應用一些計算,您可能希望在某種意義上約束該計算,因此您可能會想到,因為您將有幾個層 也許最初你想做很本地的計算,而且在每一個地方應該是非常相似的。 所以,你想在中心應用相同的計算方法,也許在後面你需要一些多樣化,但是你想以相同的方式對圖像進行預處理。 所以這個想法是,當你拍攝一張圖像,或者任何一個實際上是二維的結構時,那麼另一個例子就是你可以聽到聲音,並且可以通過應用傅里葉變換來將聲音變成圖像 ,所有的,就像a-

克雷格大砲[26:26] - 那麼,很像波形呢?

Wojciech Zaremba [26:28] - 是的,所以你採取一個波形,你應用傅里葉變換,本質上,在X軸你有時間,因為演講下降,在Y軸上你有不同的頻率,這是一個圖像,和言語 - 識別系統,它們也可以處理聲音,因為它將是一個形象。

克雷格大砲[26:55] - 我沒有意識到,這真的很酷。 好的。

Wojciech Zaremba [26:58] - 這就是為什麼我在說,技術...而且,作為一種側軌,關於神經網絡的很酷的事情是,以往是專門處理文本,圖像,聲音的人? 而且,這幾天,這是同一群人。

克雷格大砲[27:21] - 嗯,真的很棒。

Wojciech Zaremba [27:23] - 他們使用相同的方法。 所以,回到什麼是卷積神經網絡,正如我所提到的,你想在整個放置圖像上應用相同的計算,本質上卷積神經網絡說,當我們拍攝圖像時,讓我們連接神經元與本地值 圖像,讓我們一遍又一遍地複制相同的波形。 所以,這樣你會倍增,種種。 在中心,角落中乘以矩陣中相同的值。 因此,卷積的輸入是一個圖像,輸出也是一種圖像,你可以認為,還有一些具體的詞彙,所以在這種三維圖像中,你有高度,你有 還有深度,所以讓我們說,如果圖像是三維的,然後你應用卷積,你可以改變深度尺寸的數量,通常人們去,讓我們說,我不知道,100維等等。

克雷格大砲[28:48] - 好的,給你

Wojciech Zaremba [28:49] - 然後你有幾個這些層,然後有所謂的“完全連接的層”,這只是傳統的矩陣。 所以,我會說,這是一個進步,實際上發生在20年前,已經。 另外一個可能聽起來很有趣,但很長一段時間以來,人們不相信可以訓練深層神經網絡,而且他們正在考慮什麼是正確的學習算法,而且 原來,所以,我們來說,當你訓練一個神經網絡時,你可以通過將權重初始化為一些隨機值來開始,事實證明,小心你初始化的大小是非常重要的。 而且,如果你把它設置為正確的值,我甚至可以給你一些,就說直覺是什麼意思,結果是,最簡單的算法,這被稱為隨機梯度下降,實際上是很好的。

克雷格大砲[30:00] - 好的。

Wojciech Zaremba [30:01] - 所以,在某種意義上說,就像我所說的,我們說,神經網絡的層次,它們是多重的,它們乘以矩陣的輸入和你想要保留的屬性,你不希望值的大小來吹 你也不希望它縮小。 而且如果你是多重的,如果你選擇隨機的初始化,那麼很容易選擇一些初始化,你會知道,這個大小會不斷增加,然後如果你有10層,那就說 他們,你乘二兩兩兩兩?

克雷格大砲[30:42] - 是啊。

Wojciech Zaremba [30:43] - 那麼突然之間的產出是完全不同的,學習不再發生了。 如果你只是選擇它們,這是一個選擇像初始權重大小的變體的問題,如果你設置它,可以說,輸出與輸入的大小相同,那麼一切正常。

克雷格大砲[31:05] - 所以,基本上只是調整這些數值,證明你可以用神經網絡來做到這一點?

Wojciech Zaremba [31:10] - 是。

克雷格大砲[31:11] - 哦,哇,好的

Wojciech Zaremba [31:12] - 這太可笑了,讓我們說,人們長期以來沒有意識到這一點,但這是什麼。

克雷格大砲[31:17] - 什麼時候,何時何地發生這種情況?

Wojciech Zaremba [31:20] - 實際上發生在多倫多大學。

克雷格大砲[31:23] - 哦好的。

Wojciech Zaremba [31:24] - 所以在杰弗裡·亨頓實驗室。 所以瘋狂的是,人們在如何訓練深層神經網絡方面有幾個方案,一個叫做生成性預訓練。 所以讓我們說有一些方案的工作要做,為了達到神經網絡的這種狀態,突然間你可以使用這個算法叫隨機梯度下降,所以有一個完整的涉及程序,在 有一點,杰弗裡問他的學生,你知道,將它與最簡單的解決方案進行比較,這將是調整大小,並且顯示出有多大的差異。

克雷格大砲[32:14] - 太瘋狂了,男人。 哦,我的上帝啊,好的。 有一個更廣泛的問題就是這樣,那麼過去發生的事情呢,說五年來激動人們呢?

Wojciech Zaremba [32:27] - 所以,我會說最令人驚嘆的是所謂的ImageNet結果。 那麼首先我應該告訴你,五年前電腦視野在哪裡? 然後我會告訴你什麼是ImageNet,然後我會告訴你關於結果。 因此,計算機視覺是一個領域,本質上,您嘗試使圖像有意義,像計算機試圖解釋圖像上的內容。 而且說得很簡單,“哦,在圖像上有一隻母牛,一匹馬,”但對於一台電腦來說,圖像只是數字的集合。 所以,它是一個龐大的數字矩陣,很難說,哦,如何解釋什麼是內容是非常困難的。 而且,人們出現了各種各樣的方案,你知道,你可以想像,我不知道,讓我們量化一下棕色的顏色,這樣你可以說是一個 馬。 像一個簡單的東西 人們當然出來了更聰明的解決方案,但係統相當糟糕。 我的意思是,你可以給系統餵一張天空的照片,這是告訴你有一輛車。

克雷格大砲[34:00] - 所以,不是那麼好

Wojciech Zaremba [34:01] - 是的,是的。 費飛李,費飛李是斯坦​​福大學的教授。 她和她的學生一起收集了大量的圖像數據,數據集稱為ImageNet,它由1,000個類別中的一百萬張圖像組成,實際上是最大的圖像數據集。

克雷格大砲[34:33] - 而一個課堂,只是為了澄清,像“汽車”可能是一個課嗎?

Wojciech Zaremba [34:37] - 是的,所以,有...數據集,我會說,不完美,它有例如它不包含人,這是在那裡的約束之一。 它含有大量的狗品種。 所以這是一個奇怪的事情,但與此同時,我的意思是,這本質上是深入學習的數據集。

克雷格大砲[35:05] - 狗的種類

Wojciech Zaremba [35:07] - 不,事實如此之大。 那麼,發生了什麼事情呢,真的有很多團隊參與了ImageNet的比賽。 讓我們說,即使我在說,在那裡有一千個課,所以如果你有一個猜測,一個隨機的猜測,那麼你的猜測是正確的概率基本上是0.1%。 這個度量有些不同,你實際上,如果你做了五個猜測,如果其中一個是正確的,那麼你是好的,因為可能還有一些其他的對象,等等。 我記得,當我看到有人製作了這個系統的時候,有人創建了那個有50%錯誤的系統,我印象深刻,好的,我就像“哦,男人”,就像1000個班 它可以說有50%的錯誤是什麼,我感到非常深刻的印象。 但是,在競爭中,就像所有的隊伍都有25%左右的錯誤率,差距在1%左右,比如阿姆斯特丹大學的一個團隊,日本隊,像很多人一樣 在世界各地,以及由杰弗裡·亨頓(Geoffrey Hinton)領銜的多倫多大學的團隊,自己的團隊是亞歷克斯·克里傑夫斯基(Alex Krizhevsky)和伊利亞·斯克斯克(Ilya Sutskever),他們實際上已經達到了15%。 所以,讓我們說,所有其他的球隊,他們都是25%,差距是1%,而這兩個人,他們達到了15%,好嗎? 而且,瘋狂的事情是,我們...所以我們已經在這個數據集上三年了,錯誤大幅下降,我記得像明年這樣的錯誤就像11%,8%,我是那樣,你 記住,當時我在想,“有什麼限制? 你好嗎?“而且我在想5%,那是最好的。 即使他們有力量看到他們能獲得多遠,他們花費了大量的時間,讓我們來看看其他的圖像和比較,以便能夠弄清楚是什麼,我的意思是說,這不是 對人而言簡單 例如,如果你有很多品種的狗,而且,就像誰知道。 但是讓我們說,如果你可以使用一些外部的圖像來比較一下,那就有所幫助。 但從某種意義上說,在幾年之內,人們就下了3%的錯誤,這實際上是超人的表現。 而且,正如我所說,以前的計算機視覺系統需要拍攝天空,他們告訴你這是一輛汽車。 突然間,你正在超人的表現,事實證明,這些結果不僅僅局限於計算機視覺,人們可以獲得驚人的其他系統,讓我們說,語音識別,

克雷格大砲[38:38] - 因為這是根本的問題,對吧? 因為,不是,我的意思是,對於不在現場的人,像我一樣,計算機視覺,計算機圖像識別,將種植人工智能並不一定是直觀的。 那麼我的意思是後來呢?

Wojciech Zaremba [38:55] - 所以,從某種意義上說,瘋狂的是,同樣的架構可以用於各種任務,突然之間,似乎無關緊要的領域,他們開始受益於彼此。 所以,同時,語言識別中的問題可以非常相似的方式解決,你可以基本上講話,應用傅里葉變換,然後語音開始看起來像一個圖像。 而且你應用類似的對象識別網絡來識別那裡的聲音,像一個音素,所以音素就像是一種聲音,所以你可以把它變成文本。

克雷格大砲[39:52] - 所以這是正確的,所以它去了圖像後的演講,然後,是的。

Wojciech Zaremba [39:56] - 而下一件大事本質上是一個翻譯。 翻譯對於人來說非常令人驚訝,這是Ilya Sutskever的結果。 所以,翻譯是另一個實際上由它自己跳過的領域的例子。 關於翻譯的一個瘋狂的事情是,輸入是長度可變的,輸出的長度是可變的,甚至不清楚如何用神經網絡消費它,如何產生可變長度輸入,可變長度輸出。 Ilya出來了一個想法。 有一種叫做循環神經網絡的東西,所以,意思就是說復現神經網絡和卷積神經網絡,他們分享一個想法,這就是...你可能想要使用相同的參數,如果你做類似的東西,而在卷積的情況下 網絡,這意味著讓我們在空間中分享相同的參數,所以讓我們在角落中應用與圖像中間相同的變換,等等,在復現神經網絡的情況下,他們評估...將讀取文本 左到右。 我可以消費第一個字,可以創建一些隱藏的狀態表示,然後,下一步,當我消耗下一個單詞時,我可以把它與這個隱藏的表示,通用的下一個隱藏的表示,你正在應用相同 功能再次,這個功能消耗隱藏的表示和下一個字,隱藏的表示和單詞,隱藏的表示和單詞。 所以這比較簡單,很酷的是,如果你這樣做,不管輸入的長度,你有一樣的網絡大小。 而且,他的模式如何工作,這就是描述一種名為“序列到序列”的文章。序列本質上是消耗逐字,一個你想要翻譯的句子,然後當你要生成翻譯時, 你基本上開始逐字排出,最後,當你遇到一個點時,那就結束了。

克雷格大砲[42:34] - 這太酷了。

Wojciech Zaremba [42:35] - 這對人們來說是非常令人驚訝的,當時他們得到了體面的表現,他們無法打敗一個基於短語的系統,現在它的表現還不錯。 喜歡,很久以前已經。 還有,是的。 另一個問題是人們所擁有的,所以如果神經網絡系統像翻譯一樣,大規模部署它的問題就是計算量很大,而且在深入的學習文獻中,有各種各樣的想法 做事情的方式,訓練後計算方式便宜,所以有可能丟棄大量的權重,或者,基本上把32位浮標變成更小的數字,等等。 而且,很大程度上,這就是為什麼東西在很大程度上部署在生產系統中的原因,但基於神經網絡的解決方案實際上是出乎意料的。

克雷格大砲[43:49] - 還有幾件我想要定義的東西,一般的聽眾? 所以,有幾個字被扔在很多,所以,狹窄的AI,一般AI,然後超級智能。 你能打破分歧嗎?

Wojciech Zaremba [44:04] - 當然。 所以,我們所有的AI幾乎都是狹窄的AI。 沒有人建成,到目前為止,一般AI。 沒有人建立超級智能。 所以,狹義的AI意味著人工智能,所以就像一塊解決單一預定義問題的軟件。 通用AI意味著它是一個軟件,可以解決巨大的,大量的問題,所有的問題。 所以你可以說人類是一般的,它是一般的智能,因為你可以給任意問題,人類可以解決它,但是,例如,開瓶器,只能解決瓶子開啟。

克雷格大砲[44:52] - 對。

Wojciech Zaremba [44:53] - 所以,很多時候,當我們看到任何軟件,我們的軟件,它很好地解決單一問題的任何工具。 例如,我們的象棋遊戲程序不能開車。 而且,對於任何問題,我們必須創建一個單獨的軟件,一般的人工智能是一個可以解決任意問題的軟件。 那麼,我們怎麼知道它甚至是可行的? 因為我們有一個具有這樣一個屬性的生物的例子。

克雷格大砲[45:40] - 那麼,超級智慧就是,我假設下一步是嗎?

Wojciech Zaremba [45:45] - 基本的超級智能意味著它比人類更聰明,是的。

克雷格大砲[45:54] - 涼。 所以考慮到這一點,考慮到這一點,我們基本上處於一個狹窄的AI的狀態,在這一點上,你覺得是什麼樣的,這個東西的現狀是什麼? 在未來五年左右,你會看到哪裡?

Wojciech Zaremba [46:11] - 所以,正如我所說的那樣,機器學習本質上是有各種各樣的範式,所以其中一個是監督學習,有一些叫無監督的學習,還有一些叫強化學習的東西,到目前為止,監督的學習範式 是唯一一個非常有效的工作,它可以應用於商業應用程序。 所有其他人不是真的在那裡。 所以你問我我們在哪裡,所以我們可以解決這個問題,其他問題,他們需要進一步的工作,很難計劃,想法,使它們工作需要多長時間。 與當代人工智能非常不同的是我們正在使用完全相同的技術。 同時,大多數業務問題都可以被視為監督學習,因此只要我們有足夠數量的輸入示例,以及我們想要預測的內容,就可以用現有的技術來解決,正如我所說,第一個可以 非常豐富,就像輸出可能是一個句子一樣,而現在的系統也很好地運行,但是它需要專家來訓練它。

克雷格大砲[47:58] - 那麼,那麼我們看到相當可觀的炒作,你怎麼看呢?

Wojciech Zaremba [48:06] - 這個領域同時被低估和過度誇張,所以。 從業務應用的角度來看,只要有一對示例,表示映射的對,就像輸入的是什麼,輸出是什麼? 我們可以經常得到超人的表現,但在所有其他領域,我們仍然不在,而且還不清楚需要多長時間。 所以,我們來舉一些例子,就像推薦系統一樣,你經常有像亞馬遜這樣的公司,他們有數百萬用戶的例子,他們知道他們買的是什麼,當他們高興的時候,這就是一個例子 一個非常適合神經網絡的任務,學習向新用戶推薦的內容。 同時,Google知道您是什麼好的搜索查詢,因為在“搜索結果”頁面上,您點擊您感興趣的鏈接,因此應首先顯示。 而在其他領域,實際上往往更加困難。 如果說,蘋果採摘機器人,很難提供有監督的數據,告訴我們如何將手臂向蘋果移動,這樣就更複雜了。 同時,檢測蘋果在哪裡的問題,它在哪裡更好地定義,並且可以外包給人來註釋大量的圖像,並給蘋果本地化,而且很多時候,這個問題的其餘部分可以由工程師編寫 ,但是如何將手指放在蘋果上,或如何抓住它的問題,這是不是很好科學地解決了。

克雷格大砲[50:22] - 那麼現在我有幾個問題呢。 如果人們有興趣更多地學習AI,也許在OpenAI工作或做某事,你會如何推薦他們參與和教育自己?

Wojciech Zaremba [50:40] - 所以說,開始的好地方是Coursera,Coursera很不錯。 還有很多TensorFlow教程,TensorFlow是一個訓練神經網絡的框架的例子。 此外,Andrej Karpathy在斯坦福大學的課程非常方便,您可以在YouTube上找到它。

克雷格大砲[51:10] - 是的,然後在實際練習?

Wojciech Zaremba [51:16] - 在TensorFlow教程的許多問題的情況下,所以,我相信安德烈的課程,可能會有功課,而在TensorFlow練習的情況下,經常會容易的提出一些隨機的想法,讓我們說你 比如說,你可以選擇一個簡單的任務,讓我們分類數字,然後分類數字圖片,讓我們分配他們的課程,你可以嘗試下載一些圖片 其他來源,像一個Flickr,讓我們嘗試對它進行分類或標記。

克雷格大砲[52:05] - 好的,因為你們正在努力,機器人在這一點上,其他的事情就是自動化,特別是很多這些低級的藍領工作。 對未來,也許在未來10年,你對這些工作有什麼看法?

Wojciech Zaremba [52:29] - 所以我相信我們必須向人們提供基本的收入。 我非常強烈地認為,這其實是唯一的辦法。 所以,我不認為40歲的士司機可能會每十年改造一次。 我認為這可能是非常困難的。 另一個瘋狂的事情是...人們通過工作來定義自己,這可能是另一個大的社會問題。 同時,他們甚至不喜歡他們的工作,比如說,如果你問一個人,“你想讓你的孩子在超級市場上賣,在超級市場上做賣家嗎?”他們會回答“不,”也許這是可能的 生活在世界上,資源豐富,人們只能享受生活。

克雷格大砲[53:45] - 我想我們必須找出一個方法。 也許人們總是會找到目的,但我覺得,如果自動化實際上發生在人們談論的程度上,這樣會更容易找到目的,將來會更加重要。 那就像對你的影響呢? 這可能激發了你在機器人和AI工作,有沒有你真正喜歡的書籍或電影或媒體?

Wojciech Zaremba [54:13] - 有一本非常好的書叫“Homo Deus”。 它實際上描述了人類的歷史,然後說出來,對未來或我們前進的方向有各種預測。 這是一個很好的 我的意思是沒有列表,有很多有關AI的電影,怎麼會出錯。

克雷格大砲[54:47] - 什麼是最好的?

Wojciech Zaremba [54:48] - 我覺得她很好

克雷格大砲[54:50] - 好的。

Wojciech Zaremba [54:51] - 是的,前Machina也不錯。

克雷格大砲[54:54] - 很好,你有什麼其他的最後一件事嗎?

Wojciech Zaremba [54:59] - 不,謝謝。

克雷格大砲[55:01] - 好的,很酷,謝謝,男人。 好的,謝謝你的聽。 請記住訂閱該節目,並在iTunes上查看。 做完之後,你可以永遠跳過這一節。 如果您想了解有關YC的更多信息,或者閱讀演示筆記,可以查看blog.ycombinator.com。 下週見。