您现在的位置是:Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款 > 

04 facebook是怎么發展起來的(Airbnb 是怎樣發展起來的)

Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款2024-05-14 02:00:14【】4人已围观

简介從開源項目到公司,從0到100萬美元ARRMattTurck:你們是如何從學術性的開源項目(Spark)變成一家公司,然后從0做到1000萬美元ARR的?這背后是否有任何決定性的時刻,或其他特別的增長

從開源項目到公司,

從0到100萬美元ARR

Matt Turck: 你們是如何從學術性的開源項目(Spark)變成一家公司,然后從0做到1000萬美元ARR的?這背后是否有任何決定性的時刻,或其他特別的增長手段?

Ali Ghodsi: 我們從0到100萬美元ARR的旅程非常特別,與其他的旅程非常不同。我們經歷了三個階段,第一個階段是PMF(產品與市場契合)階段,當你有了一個產品,你能找到它與用戶之間的契合點么?這對任何公司都存在挑戰。

你一旦你找到PMF,接下來就得弄清楚什么是能將該產品與市場聯系起來的渠道,你的產品或許符合市場需求,但怎么通過渠道銷售呢?事實上,我們一開始在這方面走了彎路,花了幾年時間才確定正確的發展方向。在這幾年里,為了弄清楚Databricks的正確模式我們進行了大量的實驗。

接下來,讓我們從產品開始,然后再談談渠道。

產品方面,我們有在伯克利建立的開源技術,但這不一定符合大企業的需要,因為在大企業,他們沒有來自伯克利的博士。因此,我們需要為他們大簡化問題,我們開始在云中托管它,但事實證明,即使是云版本對他們來說也太復雜了,無法使用。

因此,我們開始與用戶一起進行迭代。我們在這之后削減了很多特性和功能,甚至可以說重新構建了一個產品。我們問自己:"如果我們知道現在的一切,回去再做一次,會怎么做?"

于是,我們重新做了另一個開源項目,Delta,你可以把它看作Spark為大型企業所做的非常簡單和自動化的軟件。當我們在伯克利時,我們的產品設想是提供盡可能多的功能和設置項,因為可能是一個博士在用它做研究。但當我們把產品在企業中推廣時,我們意識到不是每個人都有博士學位,大家不知道如何使用它。這就是早期我們遇到的問題。在渠道方面,錯誤在于,我們在早期真的是非常相信這種產品主導的增長。

關于銷售,當時我們的設想是,有了一個簡化的產品,我們把它做成基于云的產品,就會有人會使用它,會為它刷信用卡,我們會非常成功。我們可以雇用銷售人員,給年輕人打電話進行推銷,我們不會雇傭企業的銷售人員。我們更喜歡這種模式,它更便宜,更簡單。

但那是一個錯誤。你不能憑空選擇你的渠道。你有一個產品和相應的市場,必須找到正確的渠道來連接它們。

Databricks如何開發產品,

數據倉庫VS數據湖

Matt Turck: 我們一會再繼續談進入市場。現在讓我們先談談產品,我在Databricks觀察到的令人著迷的事情之一是,你們發布新產品并將其轉化為一個平臺的速度。從Spark到機器學習到AI工作臺再到Lakehouse,請向我們介紹一下產品的思路——一個產品如何導致另一個產品的出現。

Ali Ghodsi: 我們從Spark開始起步,它讓用戶可以訪問所有數據;于是人們開始在企業中創建數據庫,并在其中積累了大量數據。但過了一段時間,企業高管會問:“我不在乎我們獲得和存儲了多少數據,你能用這些數據為我做什么? ” 這就是我們試圖建立其他應用程序的原因。

起初我們的收入很少,然后我們意識到它太復雜了,有太多的選項和配置。我們就問自己:"如果必須重做,必須簡化,會做什么?"這種思路后的第一個創新是Delta,它重新定義了Spark,以一種真正企業友好的簡化方式。但最初我們沒有將它開源。

接下來,我們想:“如果拓寬數據庫的用途,不僅僅是數據科學家和機器學習工程師,而是真正廣泛的用例,應該怎么做? ” 這就是我們開始重視商業分析師的原因。

商業分析師習慣于像Tableau那樣的操作軟件。如果他們想做一些更復雜的事情,只能使用SQL。因此,我們在四年前開始致力于構建數據倉庫能力,把它建立在我們稱為Lakehouse的核心基礎設施中,然后在前年較大規模的推廣。

我們的秘訣是:看企業的問題,弄清楚那是什么,通過實際的客戶問題來深入了解它,把問題帶回來,解決這個問題,在云中與客戶快速迭代。一旦它有了產品的市場適應性,就把它開放出來。建立巨大的開源勢頭,幾乎像一個B2C病毒式的形式。然后,用基于云的SaaS版本將其變現。

這是受AWS的啟發,當創立Databricks時,我們認為AWS是地球上最好的云計算開源公司。他們本身不進行開發,其盈利模式基于開源軟件,托管它并在上面賺很多錢。我們只是在這一點上進行了調整和演變。我們認為:“這是一個偉大的商業模式。我們將在云上托管開源軟件。但不同的是,我們將自己創建開源軟件。這樣一來,就獲得了相對于其他任何想做同樣事情的人的競爭優勢。 ” 否則,任何人都可以建立任何開源軟件并在云中托管它。

Matt Turck: 接下來,讓我們從Lakehouse開始,了解一下數據湖和數據倉庫的演變,以及Lakehouse是如何在這兩個領域中取得最好的成績。

Ali Ghodsi: 這很簡單。人們在數據湖里存儲所有的數據:數據集,視頻、音頻、隨機文本,這既迅速又便宜。利用各種各樣的數據集,你可以基于數據湖進行AI創新,AI與數據湖密切相關。如果你想做BI,而不是AI,你就使用數據倉庫,數據倉庫和BI有一個單獨的技術堆棧,但是它其實和AI一樣,有很多同樣的數據集。

Matt Turck: 實現這一點靠的是什么重大的技術突破么?是Delta Lake?還是Iceberg?那是如何工作的?

Ali Ghodsi: 是的, 我認為有四個技術突破是在2016、2017年同時發生的,Hudi、Hive ACID、Iceberg、Delta Lake,我們貢獻的是Delta Lake。問題是這樣的,在數據湖里有人們收集了所有的數據,這些數據非常有價值,但很難對它們進行結構化查詢。之前的傳統方式是利用SQL數據庫,然后應用在BI領域。因此,你需要一個單獨的數據倉庫。

為什么這么難?因為數據湖是為大數據、大數據集建立的,它并不是為真正的快速查詢而建立的。它太慢了,而且沒有任何方法來結構化數據,并以表格的形式展現數據,這就是問題所在。那么,你如何把像一個大的數據塊存儲的東西,變成一個數據倉庫?這就是這些項目的秘訣。我們找出了解決這些數據湖效率低下的方法,并使用戶能夠直接從數據湖的數據倉庫中獲得相同的價值。

Matt Turck: 這種方法有什么取舍嗎?

Ali Ghodsi: 事實上并非如此,我們做到了魚與熊掌可以兼得。我知道這聽起來很瘋狂,但試試就是如此。我們減少了很多在80、90年代由數據倉庫供應商發明的技術,調整它們,使它們在數據湖上工作。你可以問:“為什么這在10或15年前沒有發生? ” 因為開放標準的生態系統并不存在,它是隨著時間的推移慢慢出現的。所以,它從數據湖開始,然后有一個很大的實際技術先導突破。我們在這里談論的,是數據的標準化格式。他們被稱為Parquet和ORC,但這些是數據格式,行業要將所有的數據集標準化。

這些類型的標準化步驟是需要的,以獲得數據湖的突破。這有點像USB,一旦你有了它,你就可以把任何兩個設備相互連接起來。所以,正在發生的事情是,開源領域的一個生態系統正在出現,在那里你可以在數據湖的范式中做所有的分析。最終,你將不需要所有這些自八十年代以來的專有舊系統,包括數據倉庫和其他類似系統。

數據空間是巨大的。將會有很多供應商參與其中。我認為Snowflake將獲得成功,他們現在有一個偉大的數據倉庫,可能是市場上最好的數據倉庫。而它肯定會與Databricks共存。事實上,Databricks與Snowflake共存于可能70%的客戶中。我認為這種情況將繼續存在,人們將使用數據倉庫進行商業智能。

為什么Databricks能夠不斷產出創新產品?

Matt Turck: 我想了解你的產品和工程團隊是如何組織的?對于一家公司,能夠在第一個產品成功的基礎上做第二個產品是非常罕見的。但在這里,我們正在談論,如何成功的做出三個、四個、五個不同的產品。你的公司是如何管理好團隊組織結構和其他資源,以不斷創新?

Ali Ghodsi: 我們從創立Databricks時,就在試圖找到這個問題的答案。我們不想靠一個單一的產品生存。當我們有了Spark,卻并沒有把它當成公司的名字,因為如果Spark變得落后了,我們就會把它迭代掉,然后繼續向前,我們想不斷找到數據的最佳答案。那么如何不斷的有創新產品出現?我認為非常重要的是,要把創新和現有的現金流業務分開。

有一本關于這個問題的好書,叫Zone To Win。書中談到,當你創造出一些新東西時,你需要快速迭代。你需要讓工程師直接與客戶交談,甚至不一定要讓產品經理來做,快速的創新迭代是最要緊的。而在在企業端,你需要一個慢得多的周期來迭代。

另外,所有的工程和產品團隊組織被分成兩個不同的部分。一部分專注于企業客戶需要的東西:加密,安全,認證,穩定性等。另一部分則專注于創新,而且你應該把這些分開,分別的投入資源,否則前者(企業那部分)將得到所有的資源。你會傾向于不斷地建立那些擴大你的TAM的東西。TAM擴展實際上是安全能力,它本身并沒有任何創新。

我認為

很赞哦!(4354)

Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款的名片

职业:程序员,设计师

现居:山东日照莒县

工作室:小组

Email:[email protected]