首頁 資訊 36氪專訪

36氪專訪

來源:泰然健康網(wǎng) 時間:2025年06月05日 22:48

在心理健康領域,人工智能到底可以走到多遠?

在此前的一些相關報道中(報道1、報道2),36氪通過部分內(nèi)容初步探討了在供給側(cè)嚴重不足的心理健康行業(yè),人工智能存在的潛在機會及挑戰(zhàn)。

近年來,人工智能因為算法不可解釋性、魯棒性及安全性等問題,以及弱AI時代人工智能性能低下、過于依賴數(shù)據(jù)驅(qū)動等問題,引起了大眾對人工智能的懷疑。

人工智能自誕生之日起便背負倫理枷鎖,如今AI想切入心理健康賽道,涉足人的精神和心智,則倫理要求與風險更高。除此之外,人工智能解決方案在組織方式及交付體驗上,與人工服務存在根本性的差異。倫理風險與體驗差異,都使得我們需要進一步探討,AI解決方案與人工服務、甚至AI與人類之間應該是什么關系?

同時,AI心理的解決方案難度也很高,需要AI+心理健康跨領域團隊對心理健康業(yè)務場景形成極深的洞察,對場景與不同流派的療法做數(shù)字化解構,重新設計數(shù)據(jù)標簽體系,形成算法邏輯、知識圖譜、策略,花費高企的數(shù)據(jù)成本訓練模型……當中存在很多需要突破的難點及局限。在36氪過往報道中,也曾有讀者針對心理AI的性能水平,留下懷疑的評論。

謹慎與懷疑,樂觀與勇氣,它們都是我們在危險、可能性、價值與真知中穿梭前行的航帆。技術懷疑者與技術樂觀者都同等重要。

國內(nèi)人工智能-自然語言處理領域?qū)<摇⑶迦A大學計算機科學與技術系副教授黃民烈,于2021年創(chuàng)辦了人工智能心理健康企業(yè)「聆心智能」,聆心智能也是目前該賽道NLP(Natural Language Processing)基因領先的創(chuàng)業(yè)團隊之一。

聆心智能自主研發(fā)精神心理領域的數(shù)字療法與AI情緒對話機器人,并通過心理咨詢服務線上平臺聆心悠然、AI數(shù)字療法App聆憂與AI情緒對話機器人emohaa,服務不同需求層次的用戶。

作為國內(nèi)自然語言處理領域的前沿學者、AI心理健康的前沿實踐者,黃民烈教授帶領聆心智能創(chuàng)始團隊接受了36氪的采訪,分享了他們對于自然語言處理以及AI心理健康的認知與經(jīng)驗。36氪借他們視角,試圖為自己、也為感興趣的讀者提供一份探求答案的素材。

(以下采訪內(nèi)容經(jīng)摘錄簡化、編輯與脫密)

01 AI+心理健康的定位

36氪:怎么理解AI+數(shù)字療法在精神心理健康行業(yè)里面的定位?

黃民烈團隊:這個行業(yè)很大,用戶需求也分成不同層次。對于輕度的、亞健康的人群,AI方案主要做情緒陪伴和支持。對于輕中度健康狀態(tài)的人群,通過數(shù)字療法+AI進行干預。重癥人群必須接受問診治療,AI切入的角度可能是個性化、精準化診療,同時幫助患者在院外去進行康復干預等等。不同層次AI扮演角色會不一樣。

目前來看行業(yè)還是在百家爭鳴的狀態(tài),沒有一個玩家能夠整合整個產(chǎn)業(yè)鏈。大家都是基于自己的稟賦、發(fā)揮自己的強項,不同業(yè)態(tài)進行互補。

36氪:怎么理解自然語言處理和數(shù)字療法在解決方案里面的功能?

黃民烈團隊:自然語言處理在整個方案的不同節(jié)點都起到關鍵作用。比如,我們通過自然語言對話系統(tǒng),對用戶不同層級的需求予以滿足,包括但不限于情緒、陪伴、給予建議等等。在輔助診療方面,我們通過自然語言處理相關技術,將用戶的輸入信息處理為符合精神心理診斷體系的計算機符號表達,并且將該表達與醫(yī)學專業(yè)診斷之間的關聯(lián)和映射為理解用戶輸入提供底層架構上的支持。

最后,在數(shù)字療法-數(shù)字藥的開發(fā)方面,自然語言處理一方面作為理解用戶需求的最基本工具,結合與其需求相契合的循證算法模型,為用戶提供醫(yī)學上最有用的數(shù)字療法解決方案;另一方面,我們的自然語言處理技術本身在生成模型上就帶有了情感支持的能力,因此本身也會作為數(shù)字療法的一個組成部分,這也是市場上所獨有的技術。

無論是自然語言處理也好,還是其他的技術、算法相關其實都是作為研發(fā)人員去考慮的,那么我們最后形成的解決方案才是用戶或者來訪者能夠感知到的,那么治療效果的準確性、專業(yè)性和效率我們是一定要優(yōu)先保障的。數(shù)字療法對于我們來說就是產(chǎn)品中核心的一環(huán),通過他來反推算法的要求,反推不同其他衍生的功能與設計。

02 關于數(shù)字療法

36氪:聆心智能整體治療的作業(yè)過程大致是如何的?

黃民烈團隊:首先,從篩查和評估開始入手。然后,是干預康復,也就是提供所謂的數(shù)字藥,包括但不限于CBT、DBT等等所有已被印證可以治愈情緒障礙的循證療法。最后是康復期及穩(wěn)定期過程中,對用戶狀態(tài)的長期跟隨健康管理。

我們的干預方案也會受到用戶自身狀態(tài)變化而動態(tài)調(diào)整。我們的算法模型會更多去感知用戶本身的認知通路,比如每個人的說話方式能反映出他背后的思維方式和邏輯鏈路。用戶認知一旦被算法很好地捕捉到后,我們就能夠更好地根據(jù)用戶自身的特點為用戶提供治療,能夠更好地提高用戶的依從性和治療的有效性。當然我們也還在臨床實驗階段,還在不停地迭代和完善。

我們以認知、情緒和行為三個維度去構建了整個療法模型,所以療法包括了CBT、DBT、IPT、正念等多種療法。雖然CBT目前科研中的有效證據(jù)較多,但這是因為CBT更容易被量化、更容易發(fā)成型的論文,所以有效性證據(jù)更多,還是因為它真的是最有效的?這是仍待經(jīng)過更多驗證的。此外,從臨床的角度來看,我們一直認為本土化的CBT研究沒有發(fā)展得很好。所以,我們更多還是會結合臨床經(jīng)驗,看什么樣的框架能夠?qū)栴}做有效拆解,并最終決定采用認知、情緒和行為三個維度,將邏輯做融合,再用AI去實現(xiàn)。

36氪:能否向我們具體舉例介紹一下,AI是如何圍繞這認知、情緒和行為三個維度去開展回復策略的?

黃民烈團隊:比如一個情緒低落的用戶使用聆心智能的聊天機器人。首先,機器人去探索用戶的問題類型和關鍵事件。然后用戶可能說,我心情不好是因為我跟女朋友分手了。這時機器人會可能會進行相對應的策略,例如共情,也就是情感映射,說,嗯分手通常是一件難過的事情。然后,機器人會進一步探索說,那你現(xiàn)在有什么想說或者想做的嗎?

我們借鑒心理咨詢理論,把這個交互過程分成探索、安撫、提供建議三個階段。在每一個階段,我們都設計了豐富的策略,包括提問、自我暴露、情感映射、提供信息、確認、奇跡問題等等。比如自我暴露策略,是機器人回復用戶說,我也曾經(jīng)有過類似的痛苦經(jīng)歷,然后希望能跟用戶能夠產(chǎn)生更多情感連接。這些策略都是有心理學理論支撐的。

在心理咨詢的過程中,人和機器有一個比較大的區(qū)別,就是人能產(chǎn)生非常強烈的共情。人類共情之后,再與來訪者探討問題。雖然機器也能共情,但其濃烈程度肯定沒有人那么豐富。

那我們怎么辦?我們現(xiàn)在采用的方法,就是在與用戶對話過程中,更多去調(diào)動用戶自身的思考能力——也就是他的認知,并通過一些技術性和策略性的方式,回避機器人不太容易理解的、多樣摻雜在一起的復雜情緒。

比如,我跟機器人說我工作好累。如果是一個人回復我,他可能會告訴我,累的時候他自己會做什么?于是,我們在編寫算法過程中,會給機器人賦予一個穩(wěn)定人設,針對不同情景,這個機器人的人設會有自己的反應。擁有人設的機器人會告訴我,它累的時候會做什么,它覺得這個事情為什么起效——這個就是機器人在使用自我暴露策略。

其次,機器人聽到用戶說很累時,可能會問用戶感覺壓力大的時候,用戶自己通常會做什么,用戶自己覺得這個事情有效嗎?如果這個事情暫時沒有效果,用戶要不要試一下其他辦法?然后機器人就會引入一些干預和練習。我們通過這些策略安撫用戶情緒,同時讓用戶自主思考什么事情對自己最有效果。

36氪:整個數(shù)字療法的設計開發(fā)過程中,主要難點是什么?

黃民烈團隊:最難的地方,在于把咨詢師的認知和語言,“翻譯”成AI邏輯。打個比方,CBT療法咨詢師在評估一位患者是否達到預期治療效果時,其標準通常是患者的社會功能是否已恢復至正常水平。那對AI來說,什么叫做個體層面的正常?在AI算法開發(fā)過程中,我們就需要將這個目標量化。

這跟我們平時做心理咨詢會有所不同,原因在于,我們?nèi)斯ぷ稍儠幸粋€動態(tài)評估的過程。我們目前根據(jù)數(shù)據(jù)和案例,持續(xù)不斷調(diào)整評估的量化指標權重以期待達到最精準的動態(tài)評估。

類似這種“翻譯”,聽起來不難,其實在實踐中很不容易,需要AI人才和心理咨詢?nèi)瞬胖g非常多的碰撞,才能重新設計出來。

36氪:聆心智能的循證醫(yī)療臨床實驗和真實世界研究是如何組織的?基于隱私及倫理方面等問題,您覺得數(shù)據(jù)方面的局限和困難有哪些?樣本偏差是如何的,如何控制和平滑樣本偏差帶來的影響?

黃民烈團隊:我們訓練模型的數(shù)據(jù)都是真實世界數(shù)據(jù),隱私和倫理是我們會首要考慮的。我們的真實世界數(shù)據(jù)在收集過程中,機構和咨詢師會取得來訪者的許可。取得數(shù)據(jù)時,我們的數(shù)據(jù)已經(jīng)被脫敏過,所以在這個層面上很大程度能避免隱私泄露。

我們現(xiàn)在的數(shù)據(jù)來源不光是心理咨詢,還有很多其他非心理咨詢的數(shù)據(jù)來源。我們盡可能地確保我們的數(shù)據(jù)能夠覆蓋所有人群樣本和大部分人們可能遇到的議題。

因此,我們在做數(shù)據(jù)標注時,會對所有可能的維度進行一個更精細的標注,然后,在使用樣本數(shù)據(jù)時,盡可能地去避免樣本偏差。但是必須承認是不可能完全避免偏差,需要注明的一點是,用于臨床的機器人是有適應癥或人群限定的,我們不期待用一個數(shù)據(jù)源去面對所有年齡段的所有來訪者的種類。

36氪:請您介紹聆心智能目前取得NMPA批準情況。您是如何展望數(shù)字療法后續(xù)的監(jiān)管發(fā)展及政策變化?

黃民烈團隊:我們目前已經(jīng)開始在做臨床實驗,后續(xù)去取得醫(yī)療器械認證。

我們對政策很樂觀,認為趨勢和節(jié)奏會越來越快。美國心理健康機器人Woebot已取得FDA認證,海外的趨勢肯定也會促進國內(nèi)的監(jiān)管政策發(fā)展。同時,國家正在大力推行社會心理服務體系,比如我國北京、海南都已設立數(shù)字療法認證中心,而我們的方向是這個大體系下非常重要的環(huán)節(jié),能夠普惠大眾。

當然,我們可能需要一點時間,讓監(jiān)管完成對各方面風險評估,但因為數(shù)字療法的副作用當前來看會非常小,甚至可以認為幾乎沒有,所以數(shù)字療法跟其他治療比如傳統(tǒng)藥物相比,獲得監(jiān)管認可的速度會更快。

也正是政策的利好與支持,也希望行業(yè)內(nèi)的同仁們,真正從實踐中發(fā)現(xiàn)臨床價值,而不是純粹為了逐利,每一件事都做深做扎實做到真正詢證有效,但凡是真正惠及于民的有用有效的產(chǎn)品,才能促進行業(yè)標準、規(guī)范、監(jiān)管體系的形成,真正促進一個行業(yè)的大發(fā)展。

03關于自然語言處理

36氪:您如何理解自然語言領域里面,關于可信AI最常提到的,算法可解釋性、算法魯棒性等方面的局限?

黃民烈團隊:關于可信人工智能,學術界一直在做相關的研究,也取得了一些可喜的進展。

比如在安全方面,我們最近就在做關于對話系統(tǒng)安全性的研究,讓對話AI擁有價值觀和更多倫理知識,讓人工智能知道什么是對的、什么是錯的。比如說,讓AI知道不要冒犯用戶、知道自殺是不好的、知道什么是真善美等等。

讓人能安全信任,也包括算法的可解釋性。因為現(xiàn)在AI算法絕大多數(shù)是個黑箱,使得我們對于算法到底是如何做出決策,缺乏足夠了解。這很大程度限制了我們的算法和模型應用場景,尤其是在醫(yī)療領域。在聆心智能的研究里邊,不論是情緒情感支持機器人,還是篩查/輔助診療算法等方面,都將算法的可解釋性考慮在內(nèi)。我們的可解釋性主要體現(xiàn)在,AI的決策始終與其所擔任的角色行為邏輯保持一致。我們通過知識圖譜將心理醫(yī)生專業(yè)知識中的關鍵概念對齊起來,從而知道人工智能算法的決策是如何生成的。在這方面,我們還在持續(xù)探索、還要持續(xù)進步。

在語言理解方面,多一個詞、少一個詞,可能識別出來的類別就會有很大的區(qū)別,這就是所謂的魯棒性問題。我們也有相應的算法研究和技術解決方案。在語言生成方面,可能用戶輸入稍微有點變化,但生成的結果就變得千差萬別,這也是AI模型的魯棒性問題。

36氪:您是如何理解人類及人工智能的關系——如何理解獨立AI以及輔助性AI?獨立AI和輔助性AI只是技術上的成熟度差異所帶來的階段性差異,還是基于什么根本性變量產(chǎn)生區(qū)別?

黃民烈團隊:我個人認為是獨立AI和輔助AI是基于應用場景風險特征來劃分的。有一些應用存在很高的風險,一旦犯錯代價會非常大;另外一些場景應用的風險容忍度會更大。比如在醫(yī)療診斷領域,我們能做的都是輔助性AI,因為一旦診斷錯誤,倫理風險及代價會非常高——即便是模型準確率達到百分之九十五以上,就能做獨立診斷嗎?這個首先在監(jiān)管上就過不去了。再比如說,現(xiàn)在刷臉的獨立AI準確率已經(jīng)達到99%以上,我們可能也未必敢直接用刷臉支付,可能還需要輔助認證手段,比如做一些動作,如眨眨眼、搖搖頭之類的。

因此,這首先跟應用的安全性密切相關。比如做手語AI,錯一點兒沒太大關系;又比如智能客服推銷產(chǎn)品,推銷一個保險產(chǎn)品和銀行理財產(chǎn)品,AI打個電話、通過固定話術和策略推銷、然后結束。這些情景做獨立AI沒有問題。

另外,還有一些因為技術限制暫時無法做到獨立AI的情形,比方說我們曾經(jīng)做過銀行催貸業(yè)務,因為它非常復雜,在目前的技術水平下,還是需要AI結合人一起工作。

36氪:您能否向我們概況性地介紹一下,截至目前為止自然語言處理在多輪對話中的語義理解及語言生成方面,已克服了過往什么樣的技術困難,已達到什么水平?仍然待攻克的瓶頸大概有哪些?

黃民烈團隊:我簡單談談自己的體會。自然語言處理經(jīng)過了幾十年的發(fā)展,終于在最近幾年取得了非常大的突破,無論是語言理解還是語言生成方面,性能都有非常顯著的提升。

我們就拿對話系統(tǒng)為例。從1966年開始到2010年左右,人工智能對話系統(tǒng)主要還是基于規(guī)則。但是從2020年開始,出現(xiàn)了基于神經(jīng)網(wǎng)絡與大數(shù)據(jù)的大模型對話系統(tǒng),這種對話系統(tǒng)的開放對話能力上,跟過往完全不是一個水平——包括我們自己最近做的emohaa對話機器人,其對話能力是我們3年前根本不敢想象的。在這個技術發(fā)展過程中我的感覺是,技術發(fā)展忽然就跳到了另外一個顯著更高的平臺上。除了對話,我們已經(jīng)看見了各種技術突破:閱讀理解、圖像分類、作詩等方面開始出現(xiàn)了超越人類性能的情況,AI甚至可以寫文章、經(jīng)過簡單修改、然后發(fā)表在了《英國衛(wèi)報》上。

但是即使這樣我們?nèi)匀幻媾R很多問題,AI跟人的水平還有很大的距離。這是因為人有大量的知識、有大量的推理,凡是涉及到知識、推理的時候,數(shù)據(jù)驅(qū)動的算法就做得不太好。我們過于依賴數(shù)據(jù)驅(qū)動,還不能做語言理解上的泛化、不能去做推理,模型見過的東西能做到很好、沒有見過的東西可能就做的不好。這讓我們在對話過程中遇到前后矛盾、答非所問的情況。同時,也依然面臨可解釋性、魯棒性等問題。

36氪:在自然語言處理技術發(fā)展仍然有限的情況下,您覺得一個良好的心理健康解決方案,NLP需要到什么水平?過于依賴數(shù)據(jù)驅(qū)動的問題,大概有什么解決的方向呢?

黃民烈團隊:基于規(guī)則的AI系統(tǒng)對于數(shù)據(jù)的依賴就小很多,但今天的深度學習模型卻極度依賴數(shù)據(jù)。在深度學習模型中,我們也可以將專家知識通過規(guī)則、通過符號的方式,跟數(shù)據(jù)驅(qū)動結合起來。這樣對數(shù)據(jù)的依賴會大大減少。因為有專家的知識和規(guī)則,AI也能處理它沒有見過的東西、處理未知,推廣性能更好。

所以心理健康的AI方案,最重要的還是將算法與該領域?qū)I(yè)知識結合。我們將心理健康的專業(yè)知識遷移到AI模型上,比如我們emohaa機器人能夠掌握自我暴露、傾聽、提問、情感映射等心理咨詢領域發(fā)展了上百年的技術。同時,我們也要很清楚AI模型哪些方面有短板,要知道怎么樣用心理健康專業(yè)知識去補AI能力當前的短板,做技術性規(guī)避。

04 關于模型與數(shù)據(jù)

36氪:在提煉、解構和設計出合適的數(shù)據(jù)標簽方面存在哪些困難?在情緒識別這種連正常自然人都很難做好的環(huán)節(jié),人工標注過程中,是否存在什么困難及局限?

黃民烈團隊:心理咨詢理論已經(jīng)發(fā)展了100多年,形成了相對成熟而完整的理論。比如,對于某類來訪者,咨詢師應該采用什么技術去更好地提供服務,其實已經(jīng)自發(fā)生長出一套標簽體系。但是,把這些類別和標簽全封不動地搬到AI模型內(nèi)會面臨困難:首先,這個數(shù)據(jù)標注不是一般人能標注的,需要專業(yè)資源來標注,從而導致標注成本很昂貴。其次,類別體系越細致和越復雜,AI模型可能學不會,比如可能受到數(shù)據(jù)標注一致性的影響。

以情緒類別為例,我們原來在學術界做細粒度情感分析,在主流研究中采用六個情緒類別,喜、怒、哀、樂、悲、與其他。但是在心理咨詢中情緒可以細分為32個類別,哪怕是聘請心理專業(yè)人士去標注,標簽太細也很難區(qū)分,不同人有不同的理解,這會讓數(shù)據(jù)標注存在一致性問題。所以聆心智能目前設計出一個10類情緒的標簽體系。

除了情緒類別,比如在咨詢師技術體系上,對于來訪者意圖識別等方面,我們也按照類似的方法重構了一套標注體系。通過這種方式既平衡了資源、成本,也保證了專業(yè)性和有效性。這是以我們團隊深入的心理健康專業(yè)理解為基礎的。

在人工標注的一致性方面,培訓、質(zhì)量控制和標注者的專業(yè)背景都很重要。我們很多的標注工作都是心理專業(yè)的學生、實習心理咨詢師、執(zhí)業(yè)心理咨詢師,我們和專業(yè)的心理咨詢機構合作。因此,數(shù)據(jù)標注成本非常貴,時間成本也很高。

36氪:評價成本是不是也很高?

黃民烈團隊:我們分為算法自動評價和人工評價。算法自動評價,通過讓AI做一些測試題并評分,成本就很低。但是人工評價就比較貴,比如我們評價我們emohaa機器人,會找很多用戶跟它聊天,然后根據(jù)交互情況,對結果進行打分。

36氪:我們目前預訓練模型的參數(shù)規(guī)模大致到了什么級別?數(shù)據(jù)源大概有哪些?除了貴,一個高性能的預訓練模型通常還有什么壁壘?

黃民烈團隊:我們的預訓練模型參數(shù)在100億規(guī)模左右,在整個業(yè)界即使不是最大,也是非??款^部的前幾名。在數(shù)據(jù)源方面,主要包括公開社交媒體、合作授權的專業(yè)心理健康數(shù)據(jù)以及我們實驗室在過去6-7年自主積累的數(shù)據(jù)。數(shù)據(jù)量在幾十億到幾百億單詞量之間。

一個參數(shù)巨大的預訓練模型不是一般機構能搞得出來的,第一是算力很貴,第二是數(shù)據(jù)比算力更貴、更難獲取,這當中還存在大量的dirty work,需要長年的積累。

而且,單純創(chuàng)建出一個模型,距離產(chǎn)品應用還很遠。如果只是做研究,那隨便怎么樣都能弄出一個模型來玩。但是,要做產(chǎn)品,就會涉及非常多的功能優(yōu)化,會發(fā)現(xiàn)模型有很多case處理不了、或者處理不好,需要工程力量去優(yōu)化、改進和規(guī)避。目前我們的工程能力在業(yè)界是非常拔尖的水平。

36氪:遷移方面是怎么做的呢?

黃民烈團隊:一方面主要是通過跟特定人群相關的數(shù)據(jù)對模型進行微調(diào),另一方面根據(jù)特定場景去構造知識圖譜。基本能夠比較快地調(diào)整完畢并投入使用。

05 角色轉(zhuǎn)變

36氪:從科學家身份,轉(zhuǎn)型為科學家+企業(yè)家雙重身份,有什么個人感受,有什么挑戰(zhàn)困難?

黃民烈:兩個身份的相通之處都是帶團隊、找資源——當科學家培養(yǎng)學生、找項目經(jīng)費;當企業(yè)家是帶領各種更復雜的社會人,創(chuàng)造營收和找融資。同時,兩種身份都是解決問題、規(guī)劃方向。

科學家所面臨的問題更加簡單和純粹一些,探索一些科學問題和先進技術,相對而言,確定性在可控范圍內(nèi)。但商業(yè)更復雜、不確定性更大、要考慮的變量更多,決策起來也會更難一點,我覺得這是最大的不同。

面臨的最大挑戰(zhàn)是如何走通 “技術—產(chǎn)品—商品”的通路,因為每個階段的思維是不同的。技術,是科學家研究出來的算法、模型、原型系統(tǒng)。產(chǎn)品,是工程化后的、折中了用戶可使用的服務或者實物。商品,是可以重復售賣,能換來現(xiàn)金的產(chǎn)品。

希望未來的投資人能有社會情懷和前瞻性,認可AI+心理健康這個賽道,在醫(yī)療、心理、AI方向有一些資源,愿意和公司一起耕耘,不急于短期變現(xiàn)。

責任編輯:王與桐

相關知識

小紅書賣藥,靠給這些人種草|36氪專訪
36氪是做什么的
36氪研究院
36氪發(fā)布「2024中國健康家電消費及趨勢研究報告」,洞察中國家電行業(yè)消費新趨勢?近日,?36氪?研究院$36氪(KRKR)$?發(fā)布「2024中國健康家電消費及趨勢研究報告」,通過研究健康家電的市場規(guī)模...
36氪獨家
36氪首發(fā)
36氪獨家丨健康營養(yǎng)品牌「薄荷健康」完成D輪融資,投后估值超20億元
36氪獨家丨健康營養(yǎng)品牌“薄荷健康”完成D輪融資,投后估值超20億元
36氪每日投融資筆記(12月16日):智能手機、大數(shù)據(jù)、游戲社交、調(diào)查平臺
36氪首發(fā)|一年獲3次融資,“ffit8”由蛋白質(zhì)切入健康零食市場

網(wǎng)址: 36氪專訪 http://www.gysdgmq.cn/newsview1369255.html

推薦資訊