0
本文作者: 吳華秀 | 2025-02-05 18:27 |
在一年一度 CES 2025 上,AI 陪伴機器人成為新的熱點。其中,美國玩具公司 TOMBOT 和國內大象機器人分別推出了AI大模型仿生寵物,既有仿生拉布拉多犬,也有仿生熊貓;日本公司 Yuaki Engineering 展示了可掛于背包或手腕上的小型毛絨陪伴玩具 Mirumi。
同樣將目光望向 AI 陪伴機器人這片藍海的,還有躍躍欲試的珞博智能——一家成立于 2024 年、聚焦于 AI 情感陪伴機器人的別樣具身智能公司。
珞博智能的創(chuàng)辦者孫兆治,此前是一位連續(xù)創(chuàng)業(yè)者,也是一位深耕汽車與機器人領域多年的行業(yè)老兵。
孫兆治 2011 年碩士畢業(yè)于英國考文垂大學汽車內飾設計專業(yè)。這所院校坐落于二戰(zhàn)前的全球汽車城考文垂,具備濃厚的汽車文化底蘊,是汽車設計領域知名院校。畢業(yè)后,孫兆治在汽車行業(yè)開啟了長達十年的職業(yè)生涯。
起初,孫兆治在歐洲從事汽車設計,曾參與過上一代奔馳 S 的交互架構、寶馬 3 和阿爾法?羅密歐 Giulia 的內飾造型等設計工作。
2015 年,國內造車新勢力如火如荼,孫兆治選擇回國加入小鵬汽車,負責整個小鵬汽車的內飾設計,參與定義了中國新能源汽車引領全球的內飾座艙用戶體驗。2017年,孫兆治加入滴滴,擔任滴滴造車項目的產品負責人,深度參與了共享出行及無人駕駛時代交通工具的產品定義。
2020 年底小鵬成立機器人公司鵬行智能,孫兆治受邀加入,負責機器人全線產品設計及品牌工作,毅然加入這一波具身智能的技術浪潮之中。至此,孫兆治正式開啟由汽車行業(yè)轉向機器人的新征程,再一次嘗試去定義全新的產品品類。
作為一名由自動駕駛賽道切換至機器人領域的創(chuàng)業(yè)者,孫兆治長期浸淫在技術的前沿高地。期間,他親歷了智能化技術為汽車帶來的深刻變革,也參與了機器人技術的發(fā)展推演與應用探索,這讓他對技術發(fā)展與產品創(chuàng)新之間的節(jié)奏關聯(lián)有了深刻認識。
尤其是自動駕駛技術的創(chuàng)業(yè)歷程,讓他意識到,尋找技術進程中的“溢出點”并快速實現商業(yè)化是一條可行路徑。
自動駕駛火熱時,L4、L5 被高高捧上王座,連 L3 都成了瞧不上眼的存在。但哪怕是在 AI 狂奔十年后的當下,真正意義上的 L4、L5 級別商業(yè)化應用仍然還沒能問世。反倒是自動駕駛技術發(fā)展過程中的一些技術溢出,如 SLAM 技術的成熟,滋養(yǎng)了一批掃地機器人公司,接連傳來上市的敲鐘聲。
同樣,具身智能浪潮中,具備高智能水平的人形機器人就如同自動駕駛的終局 L4、L5,想象空間大、令人神往,同時技術難度極高、實現漫長。從商業(yè)落地角度考慮,探索技術溢出也將成為 2025 年具身智能的一大分支。
2021 年 ChatGPT 橫空出世后,孫兆治就跟朋友打賭:大模型帶來的交互模態(tài)的變革和交互體驗的躍升,一定會催生出一批新的硬件形態(tài)。在鵬行期間,孫兆治與團隊曾嘗試引入大模型算法賦能機器人,他發(fā)現:相比人形中難度更高的運動控制,C 端用戶最先感知到的其實是與機器人的交互體驗。
珞博智能的創(chuàng)業(yè)初衷由此誕生:基于大模型的語言交流與感知交互提升,打造一款面向 C 端的、能更快落地的智能硬件——AI 情感陪伴類機器人。
珞博智能創(chuàng)始人孫兆治
從自動駕駛切換到陪伴類機器人是一個較大的跨越,但孫兆治認為后者是一個“被低估的賽道”。近日,AI 科技評論與孫兆治進行了一次交流:
AI 科技評論:你此前一直在汽車領域,為什么會轉向機器人賽道?
孫兆治:我之前在汽車行業(yè)長達十年,目睹了智能化給汽車行業(yè)帶來的深刻變革,今天的智能汽車就是一個標準意義上的機器人:能夠自主感知、自主決策、自主執(zhí)行。我過往創(chuàng)業(yè)也有做過智能硬件創(chuàng)業(yè),我很堅信“AI+硬件”將會成為下一輪技術浪潮的核心驅動力,而機器人是其中極其重要的一個品類。
如果要投身于 AI+硬件的浪潮中,加入一家具有技術實力的機器人公司顯然是快速學習積累的最好選擇,所以 2020 年我就去了鵬行。對我來說,這也是一個跨領域學習的寶貴過程。
AI 科技評論:從汽車行業(yè)切換進機器人賽道,是一個比較大的跨越嗎?
孫兆治:我認為汽車與機器人雖然說是兩個行業(yè),但這是兩個離得相對近的行業(yè)了。
我當時負責的工作主要是產品設計。從產品設計上講,很難找到一個像機器人這么復雜的產品體系和形態(tài),基本上只有汽車能匹配得上這樣的復雜度。
我們當時組建機器人的產品團隊和設計團隊時,其中也有相當一部分人才來自汽車行業(yè),如果過去做過的產品復雜度不夠,其實是很難 handle (應對)機器人這樣一個復雜的品類。
AI 科技評論:在鵬行時,你主要參與了哪些重要成果?
孫兆治:我主要負責鵬行的產品及設計工作,同時也帶品牌團隊。比較顯性的成果,比如鵬行前后發(fā)布的 PX1、PX2 兩代機器馬,以及 PX5 人形機器人,它們的外觀設計和體驗設計都是我的團隊做的。
比如,2023 年我們發(fā)布的 PX5 人形機器人。與很多人形機器人不同,首先 PX5 人形機器人的個頭不大,大概一米五左右;另外,它長得沒有那么像人類,就是一個機器人模樣。我們沒有采用非常堅硬或冷冰冰的材料去設計一款機器人,而是想讓機器人擁有一個非常具有親和力的外形。我們對這些外形都有過深度思考,并不是簡單追求一個酷炫的外形設計。
另外,針對四足機器人、人形機器人在特定場景應用,以及技術演進過程中可能會出現的一些機器人形態(tài),我們之前也做了大量的思考和推演。雖然這些工作沒有對外展示,但在內部對產品未來的一系列迭代是有指導作用的。就像汽車行業(yè)會有大量概念車的討論,對內有指導意義,對外并不公布。
AI 科技評論:汽車作為一個成熟產業(yè),以汽車作類比,機器人如何才算得上是量產?
孫兆治:通常而言,量產產品是指用量產工藝進行生產,并達到流程化驗收標準的產品。
現在機器人一年可能只是幾十臺、幾百臺的產量,規(guī)模比較小,基本上還不會用到量產工藝。不過,只要產量能達到千臺以上,就有機會去進行規(guī)?;僮?。
像汽車行業(yè),如果年銷量超過 3 萬臺,那就能夠支撐起一款車型從沖壓、焊接到涂裝等所有產線的投產運營。所以一旦機器人產量達到上萬臺,就意味著機器人進入到規(guī)?;慨a階段了。
AI 科技評論:你在汽車領域長達十年,得到了哪些啟發(fā),可以應用在具身智能領域?
孫兆治:汽車已經被發(fā)明一百多年了,技術還在持續(xù)迭代,但這不妨礙每個時代都有非常經典的車型。我們會把技術的發(fā)展視為一個螺旋上升的過程,每一個階段技術所達到的程度都會不同。我們傾向于利用近未來出現的關鍵技術變量去做一個能商業(yè)化落地的產品。
比如 2013、2014 年時,汽車行業(yè)里自動駕駛很火熱,自動駕駛初創(chuàng)團隊不斷涌現。那時候大家熱衷于談論 L4、L5 級別自動駕駛,還看不起做 L3 級別的公司。但從實際情況來看,即便近十年 AI 和整個智能化的基礎能力發(fā)展已經很快了,真正意義上的 L4、L5 級別商業(yè)化應用直到今天也還未出現。
在這一過程中,很多自動駕駛公司垮掉了,就是因為因為商業(yè)化路徑不清晰,不僅長時間沒有收入,還得持續(xù)依靠公司自身輸血維持。最終存活下來的公司,要么是能找到應用場景、有客戶的;要么是背后有大資本支持,可以持續(xù)燒錢十年、八年。
反而是自動駕駛技術的溢出,讓其他領域發(fā)展了起來,比如掃地機器人。 掃地機器人這一產品類型的出現,本質上是自動駕駛技術溢出的結果,具體來說是 SLAM 技術,以及傳感器成本大規(guī)模下降。人們一直都有掃地的清潔需求,只是以前技術供給不成熟,掃地機器人產品力欠缺。
現在技術成熟了,掃地機器人市場也相應爆發(fā)了。國內外幾家大型掃地機器人公司的市值,有不少是超過汽車公司的。掃地機器人也算是首個走進千家萬戶的機器人產品類別了。
在具身智能技術的長期發(fā)展過程中,也一定會產生技術溢出,會支持一些新硬件或產品的出現。
AI 科技評論:所以你們是從商業(yè)化落地的視角上去考慮產品。
孫兆治:最終大家都要考慮商業(yè)化。技術也好,設計也好,品牌也好,最終都要能轉換為用戶價值,才有機會獲得商業(yè)價值。我們做產品的出發(fā)點是思考清楚能創(chuàng)造怎樣的用戶價值。
AI 科技評論:你是怎么發(fā)掘機器人提供怎樣的用戶價值的?
孫兆治:一部分來自于觀察實際用戶的反應。我舉個例子,在小鵬機器人的項目中,我們花了很長時間去調整機器人的一些運動表現,比如讓它走得更好看、更平穩(wěn),行走時聲音更小、更安靜。
當時受 ChatGPT 的啟發(fā),我們一個小團隊還做了這么一件事:把機器人的表情、聲音以及一些動作和模型關聯(lián)起來,這樣就能和機器人對話、逗它笑、摸它的頭,它也會有各種各樣的反應。
我們在機器人的交互和運動能力兩方面的技術投入比例并不同,很顯然運動控制難度更大。但在展示時我們發(fā)現,不管是我們自己的團隊成員,還是參與測試的用戶,都對交互體驗展現出了極大的興趣,因為這是他們最能直觀感受到的,甚至愿意為此付費。而對于機器人走得更穩(wěn)這類運動控制方面的改進,大家?guī)缀鯖]什么特別的感受。所以用戶價值有時候跟技術含量沒有關系,需要帶入用戶視角思考或觀察。
AI 科技評論:這一過程相當考驗產品想象力和用戶需求的挖掘。
孫兆治:產品想象力是設計師和產品經理的強項,大部分人很難具備。
我們所做的創(chuàng)業(yè)歸根結底遵循的是非常商業(yè)化的底層邏輯。關鍵在于如何一步步地將技術價值以及自身對市場的洞察,轉化為用戶價值,最終形成企業(yè)的商業(yè)價值。
AI 科技評論:你是從具身智能技術棧去思考最靠近落地的技術。
孫兆治:我們不局限于人形機器人的形態(tài),而是著眼于具身智能賽道的發(fā)展階段,探究這一技術棧能催生出什么樣的產品形態(tài)、為用戶創(chuàng)造怎樣的價值。
目前,具身智能涵蓋機器人的行走、手臂操作、大腦任務規(guī)劃以及自然交互等能力,這些構成了完整的技術棧。那么,當下最易實現商業(yè)化落地的場景是什么?我們覺得得益于大模型的發(fā)展,自然交互與智能規(guī)劃方面的體驗將會有質的飛躍。相比之下,雙足行走和雙臂操作距離消費級應用還很遙遠。
在交互智能與規(guī)劃智能方面,能更快實現商業(yè)化落地的產品應該是小型情感陪伴機器人,而不是通用或人形機器人。因此,我們選擇聚焦在消費級情感陪伴機器人,將本體定義為 AI 硬件。
AI 科技評論:交互智能和規(guī)劃智能屬于機器人中的“大腦智能”。
孫兆治:對,確實如此。要是去了解一下人類神經學原理就會發(fā)現,整個人腦的進化歷程中,有一部分人腦在古哺乳動物早期就已經出現了,我們稱之為“古哺乳動物腦”。它最初的作用就是解決基礎的移動、部分操作,以及類似反射行為那樣的感知與決策問題。這塊其實也是今天很多具身智能團隊還在解決的問題。
一旦說到交互,就必然會涉及語言理解、大量的視覺理解以及各種感知的融合。所謂的規(guī)劃智能,對應的其實是人腦前額葉區(qū)域,這是人腦最后才進化出來的區(qū)域。
如果做一個粗略的仿生方面的比喻,珞博智能正在做的事情,其實就是整個人腦在中后期進化出的這塊區(qū)域相關的工作,它與語言、復雜視覺緊密相關,并且和邏輯推理、決策相聯(lián)系。從生物進化角度來講,這部分是最后才進化出來的。但從技術發(fā)展角度看,恰恰因為如今大模型技術取得了突破,使得與之相關的事有望更快地變?yōu)楝F實。
AI 科技評論:你們采用的是哪一家模型?
孫兆治:我們主要聚焦于多模態(tài)大模型應用,這也是我們的核心能力。產品的設計架構具備插拔特性,方便測試各類模型,等最終量產產品推出時,我們會公布所選用的模型。在交互方面,海外與國內產品所搭載的模型會存在差異。
此外,我們自主搭建了記憶系統(tǒng),其中長期記憶分為兩種。一種是觀察記憶,通過各種傳感器收集基礎信息,比如人們說的話、看到的場景等;另一種是反思記憶,它會基于過往記憶,利用定期觸發(fā)機制進行總結與反思,生成更高維度的信息。整個反思記憶系統(tǒng)由大模型來驅動。由于不同任務有著不一樣的要求,不同環(huán)節(jié)需要調用不同模型來處理。
AI 科技評論:現在能實現的效果是什么樣的?
孫兆治:事實上,我們現階段所打造的機器人,賦予了它近似人體的外觀構造,配備了脖子和胳膊,由特定數量的自由度構成。當前設定為六個自由度,具體分布為脖子處兩個,每個胳膊在肩膀位置各有兩個。在此基礎上,我們進行了一項大膽的嘗試:完全憑借大模型來操控機器人的行為舉止。
我們針對大模型實施了專門的訓練,清晰告知大模型每個自由度的邊界,以及這些自由度所大致代表的意義,之后就完全讓大模型自主進行編程,對機器人的所有行為實施控制。這時候,就會出現一個好玩的現象:以前的交互機器人,如果要求它表演跳舞,它的舞蹈動作往往是預先設定好、固定不變的。但是我們設計好的機器人,每次接到跳舞指令,所呈現出來的舞蹈動作都不一樣,很有意思。
AI 科技評論:你們團隊組成的特點是什么?目前產品迭代情況如何?
孫兆治:我們團隊有近期實現商業(yè)化的目標,為此搭建了一個能短期內將產品推向市場的團隊。但目前還是以研發(fā)工作為主,涵蓋軟件與硬件兩方面。
2024 年年中,我們正式開始做,接著 9 月做出第一版功能原型機,10 月、11 月依次推出第二版、第三版,基本保持一月一次迭代的節(jié)奏,每次迭代軟硬件都有較大的更新變化。
AI 科技評論:你們現在機器人形態(tài)是什么樣的?
孫兆治:我們前三輪產品迭代都是做了一個桌面形態(tài)的機器人,高度是十四五厘米高、很小。我們并不希望讓這個硬件有多像機器人,而是讓它足夠可愛有趣,并且適用于多模態(tài)大模型的交互能力。
AI 科技評論:這個桌面機器人會是你們的一個過渡產品形態(tài)嗎?
孫兆治:我們現在做的情感陪伴機器人不一定完全就是桌面形態(tài),未來我們也有可能會做更輕量、更小型的產品,可以隨身帶在身上。
另外,我們也認為地面移動類機器人也非常適合承載我們的技術和思考,我們后續(xù)也會有這方面的探索。
AI 科技評論:在研發(fā)小型情感陪伴機器人的過程中,你們有沒有遇到什么難題?
孫兆治:延遲是大家普遍關注的問題。目前大部分大模型實時交互的硬件產品,延遲長達 4-8 秒,顯然沒法滿足溝通需求。為此,我們投入大量技術精力進行優(yōu)化,力求將延遲控制在了 2 秒范圍,只有這樣,產品才能在各類場景中有效發(fā)揮作用。
再一個是大模型的幻覺問題。當下我們嘗試讓大模型操控機器人的動作、語言、情緒以及記憶等方面,偶爾會有幻覺,但整個場景的容錯率還是比較高的。要是把它應用在嚴肅的工作場景里,可能會引發(fā)不少棘手問題,畢竟這些場景對機器人的精準度、可靠性要求極高。但如果只是將它當作一個用于情感陪伴的“小家伙”,那即便它偶爾出現動作失誤、情緒異常,這也可以理解,用戶關注的重點更多是它所給予的陪伴感。
我們也有和做人形機器人的團隊交流過,發(fā)現如果把我們這套技術運用在人形機器人上的話,是沒法讓大模型去控制機器人這么多的自由度的,因為機器人首先可能站都站不穩(wěn),甚至可能還會出現意料之外的后果。
AI 科技評論:有人認為,AI 陪伴是一個偽命題。您怎么看?為什么會選擇 AI 陪伴機器人賽道?
孫兆治:我們認為機器人能夠創(chuàng)造的情緒價值,天花板一點也不比生產力價值低。
機器人提供的價值大致分為生產力價值與情緒價值兩類。特斯拉的機器人未來能進工廠擰螺絲,替代工人勞動。這是一個潛力巨大的市場,一旦機器人真能取代人力,影響力難以估量。
但從另一方面看,智能體所承載的情緒價值,我們認為絲毫不亞于生產力價值。
不妨設想一下,當機器人成功取代人類勞動力,社會生產力大幅躍升,人們衣食無憂之際,消費重心會轉向何處?必然是那些能夠滿足精神需求、提供情緒滋養(yǎng)的產品。
再舉個身邊的例子,你知道中國現在有多少只貓和狗嗎?有數據統(tǒng)計,中國至少有 6000 萬只貓,狗的數量也差不多。而在美國,貓和狗的數量差不多是中國的兩倍,日本的數量也和中國相近。這些小貓、小狗提供的幾乎都是情緒價值?,F在養(yǎng)貓,很少有人是為了讓貓抓老鼠了。那些養(yǎng)貓養(yǎng)狗的朋友,他們每年在貓身上的花銷并不少。所以情緒價值的市場空間很大。
AI 科技評論:除了情感陪伴外還有其他功能嗎?比如協(xié)助導航、知識問答等。
孫兆治:我們很可能會限制機器人去解答復雜的技術類問題,也不會讓它具備太多工具屬性的功能,因為那樣會破壞整體的感覺,讓人覺得不協(xié)調。
我們希望把機器人定義為一個專注于提供情緒價值的產品,我們的目標是希望用戶能夠與小機器人結交為朋友。
AI 科技評論:國內陪伴機器人市場競爭激烈,你們的競爭優(yōu)勢是什么?
孫兆治:大模型在情感陪伴領域的效果調優(yōu),我們在這塊有很大優(yōu)勢。我們聯(lián)創(chuàng) Yuna(潘雨楠),她曾參與過字節(jié)豆包團隊以及 MiniMax 團隊在情感陪伴領域項目的調優(yōu)工作。此外我們團隊也挖掘了不少算法人才,專門針對情感方面的效果做調優(yōu)。
其實這不僅僅是個技術問題,還考驗對用戶和場景的理解。比如近期很流行的戀愛類游戲,像上海疊紙開發(fā)的《戀與深空》,它厲害的地方就在于能深入地把握女孩子的情感需求,打造出非常細膩的情感交互體驗,所以玩家才樂意玩。
我們團隊小伙伴過去也曾做過大量類似產品,積累了大量相關數據以及優(yōu)化方式,能更好地在交互體驗方面對模型進行調優(yōu),讓智能體更具人性、更有人情味。這里面其實蘊含著一些比較微妙、難以言傳的經驗。
AI 科技評論:所以你們主要的競爭力是在大模型的算法上嗎?
孫兆治:對,從技術層面來看,這是最主要的部分。
另一方面是產品設計能力,我本身是汽車設計出身。對于這類注重情感價值的硬件而言,有充分的經驗。不管是外觀,還是體驗設計,像機器人動作中所呈現的姿態(tài)、表情,以及觸感等方面,都會涉及大量精細的設計工作。這一塊我們明顯做得比同類產品更好。
AI 科技評論:你預計什么時候可以商業(yè)落地?
孫兆治:我們計劃是 2025 年上半年與下半年分別發(fā)布一款產品。我們現在已經在做一些用戶基礎測試,我們發(fā)現這個市場其實比我們想象的還要大,大家非常喜歡這類產品。一旦產品實現商業(yè)化落地,就可以得到的大量數據,這可以反哺優(yōu)化我們的模型效果,形成一個用戶數據飛輪。
AI 科技評論:當你真正開始創(chuàng)業(yè)后,對機器人這一賽道有什么不同的感受?
孫兆治:我認為從長期來看,它所具備的價值要遠超當下絕大多數人所預想的價值。而從短期來講,它面臨的難度同樣也比現在絕大多數人所認為的難度更大。
雷峰網(公眾號:雷峰網)雷峰網
雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。