時間:2017-11-14 來源:互聯網 瀏覽量:
10月19日 下午,微軟亞洲研究院在微軟大廈舉辦第二屆院友年度大會。眾所周知,微軟亞洲研究院被稱為人工智能的“黃埔軍校”,其院友都作為最重要的力量,活躍在各大AI巨頭和創業公司裏。例如這一場以“人機交互”為主題的分論壇中,就集結了微軟亞研院副院長周明、今日頭條人工智能實驗室主任李航、小魚在家創始人兼 CEO 宋晨楓、百度技術委員會主席吳華以及清華大學教授徐迎慶。
了解到,參加分論壇的幾位大咖,均在當前最熱門的領域、最熱門的公司就職,他們分別介紹了目前負責的主要工作,還圍繞“人機交互”這個基本話題做了展開討論,詳細說明了目前對話式人機交互發展的現狀,以及接下來要解決的關鍵問題。
以下為現場速記,在不改變原意的前提下,做了刪減精編:
| 每一輪人機交互都是革命
在北京最美好的季節裏,我們微軟亞洲研究院熱烈歡迎各位院友參加本次院友會人機交互論壇。
我是周明,是微軟亞洲研究院剛成立的時候自然語言組的負責人,現在也管一些自然語言、人機交互、知識圖譜有關的研究,先說說今天的主題:
人機交互這個技術,從鍵盤、鼠標、圖形、用戶界麵、手勢、觸摸到自然語言、語音一路走來,未來我們可以用腦機結合,你想什麼電腦就感知什麼。作為計算機發展的裏程碑的事件,每一次新的人機交互都革命性地推動了信息技術的發展。現在熱門的智能搜索、語音助手、機器人、智能音箱、智能汽車、物聯網等重要產品裏,自然便利和無所不在的人機交互成為產品的瓶頸問題,自然人機交互技術在深度學習和大數據時代的最新進展,麵臨的挑戰,新的技術方向,以及有關的研發經驗,引起了大家廣泛的關注。
下麵,有請嘉賓上台,我在這裏按照姓氏筆畫介紹一下。
首先有請李航博士,李航是原微軟亞洲研究院主管研究員、原華為諾亞方舟實驗室主任,現今日頭條人工智能實驗室主任,他是著名的機器學習和自然語言專家。第二位嘉賓宋晨楓,是小魚在家創始人兼 CEO,他是智能家庭助手,和家庭陪伴機器人的市場開拓者。下一位吳華,吳華是我老鄉,也是湖南人,曾任 ACL 程序委員會主席,現任百度技術委員會主席,自然語言處理負責人,著名自然語言處理專家。最後一位徐迎慶,是教育部長江學者獎勵計劃特聘教授,現任清華大學信息藝術設計係主任、清華大學終身學習實驗室主任、清華大學無障礙發展研究院副院長。
| AI,有時候是唉聲歎氣的“唉”
我想先代表在座的各位問你們,你們現在都幹什麼工作了?能不能做一個自我介紹。
宋晨楓:
我是2004年-2007年在西雅圖 XBox 團隊。那個時候其實就和咱們的微軟亞洲研究院有非常非常多的合作,那個時候跟我們的徐老師在人臉識別,包括卡通有很多的合作。所以今天非常高興,又回到微軟大家庭。
十年過去了,一直在創業,過去的三年是在做小魚在家,主要是家庭智能助手,其實我們這個品類在過去三年也有過不同的嚐試。但是,直到亞馬遜在今年4月份也推出了同品類的產品 Echo Show,所以說現在基本上我們做的產品品類會被定在智能音箱這個大的品類裏麵。無論是智能音箱,還是智能家庭助手,我們內部管它叫做對話式電腦。
相信在鼠標、鍵盤時代之後,觸屏時代之後,自然語言交互作為一種新的交互方式將會把人們獲取信息服務的方式變得更加的便利,去降低所有人獲取這些信息服務的門檻。小魚在家也是希望能夠把最先進的人工智能,還有自然交互的技術落地於家庭,能夠讓家裏麵的孩子、老人,婦女,他們可能對咱們今天的科技,還有這種手機時代的信息獲取還沒有那麼熟悉,能夠讓他們也非常便利的進入到咱們的信息時代,咱們新的內容時代。我們同時也會借用未來的交互方式去重新定義在家庭場景下的內容和服務。
李航:
我是2001年-2012年在微軟亞洲研究院,2012年加入華為,當時在香港成立一個諾亞方舟實驗室,其實就是華為人工智能方向的實驗室,一個多月以前離開華為,加入今日頭條。
大家問為什麼加入今日頭條,我先回答這個問題。
華為也是一個非常了不起的公司,大家知道華為70%的業務是在海外,規模也非常大。諾亞方舟實驗室是公司人工智能領域的主要研究部門,我們會有很多優秀的同事,做得很好。今日頭條也是一個非常了不起的公司,大家知道,成立了五年,已經規模發展的非常大,一會兒我可以介紹一下技術上的挑戰,有意思的問題。對我來說,今日頭條這塊人工智能,特別是自然語言處理,機器學習方麵很有意思,希望能夠跟頭條的同事一起把這個問題解決,這是我主要考慮的因素,一個多月以前加入頭條,加入以後確實有很多有意思的問題,感覺每天都很充實和愉快。
吳華:
我是2001年-2003年在微軟亞洲研究院,在周老師那個組,之後我去了東芝,2010年去了百度,但是我一直在做 NLP 相關的工作,我起初是做百度翻譯,後來負責 NLP 的技術,所以,我們建了很多 NLP 的方向,比如說問答,現在比較火的對話係統,還有理解生成,生成和摘要等等。現在整個NLP的技術在百度內部是支持幾乎所有的產品線路。我們有一個技術平台,每天在內部調用的量大概是2000多億。我最近比較關注的一個方向是對話係統,所以跟今天的主題也很相關。現在在對話係統這塊,我們在外也提供了一個理解和交互平台,主要是麵向具體任務完成類的一些對話。
我現在花的主要精力是在研究通用對話係統,為了解決計算機用自然語言和人交互的問題。
徐迎慶:
今天的話題是深AI未來,雖然我知識不多。但是我知道這個是人工智能的意思。
這個AI對我們來說,有時候是唉聲歎氣的“唉”,因為我們離人工智能比較遠。人工智能是千軍萬馬,萬馬奔騰,滾滾紅塵,我們做的是一騎紅塵妃子笑,無人知是荔枝來。我們做的是讓大家吃荔枝舒服一點,好吃一點,開心一點,我們是做這個事的。
其實現在我們也在考慮所謂做智能人機交互,大家都提人工智能,你要不談點智能好像你沒文化一樣。首先,這方麵麵臨的挑戰是什麼?
第一,其實人機交互裏麵,人的這種自然的交互行為,和物理空間的這種狀態的變化是多通道的、非精確的,而且是動態多樣的。它沒有一個非常穩定的模態。第二,計算機在人機交互裏麵,人要告訴計算機,它們作為認知的主體,如何理解人的自然交互行為,意圖和問題,並且精確的反饋,這其實是一個很大的挑戰。
關於自然感知的準確性,實時性和魯棒性還有很大的提高。還有就是說,人的生理變化,心理變化都會影響他今天交互的狀態,以及周圍的環境變化怎麼適應,這是我們麵臨的挑戰。
研究的內容是我們要做的。現在因為我一直認為,大學的實驗室和企業的實驗室應該有所不同。企業的實驗室應該是做靠譜的事,偶爾發點瘋,做一點點不靠譜的。大學的實驗室應該是以不靠譜為主,以探險為主,做一點點靠譜的。
我們現在希望能夠在幾個方麵開展一些工作:
第一,是研究如何讓計算機能夠自適應感知人類的自然行為;
第二,自然習得運動技能和生理的自然變化如何讓計算機理解。
第三,這個過程要流暢,用戶不能受交互行為的幹擾,我發一個命令它半天才感知出來,或者我發一個命令,它不理解。
我的實驗室在做幾件事情,第一是跟情感計算相關的,我們剛剛開始。2001年我在微軟發了一篇文章,叫做Emotion Detection from Speech to Enrich Multimedia Content,當時我還帶著研究生。那篇文章,當時是這個領域的第二篇,發完之後沒有人理,突然這一兩年火起來了。
當時我們做每一個研究都要找人講背景,當時請的是北京電影學院台詞課的老師給我們講課,人說的語音的講法非常不一樣,他講了“你好”兩個字,當場說出了140多種不一樣的情感。不同情感下的“你好”是完全不一樣的,但是我們的語音識別出來的都是你好。我們當時能夠在40毫秒檢測出你的四種情緒之一。另外,當時我的研究生標了1000部電影,他說徐老師你把我害了,我以後不再看電影了。
我們希望把人的情感,微表情,微動作怎麼去結合?還有身體語言,人講話75%、80%都是身體語言,為什麼審訊犯人要把犯人綁起來,他們是怕他反抗。但是從我的角度來講,你綁起來,沒有人身體語言之後,說話就不自然,什麼話一問你就說出來了。這個可能是他們沒有想到的。第二,多通道的智能人機交互裝置,我們現在開始做基於嗅覺的交互,主要是還有一個基於手機的行為。這裏有兩塊,一塊是說未來三五年可能是物聯網搜索的世界,換句話我搜索不是在輸入關鍵詞,關鍵詞還會保留,但是我拿一個蘋果,一張照片,電子鼻一聞,它說這個和國光蘋果的相似率是85%,和富士相似率72%,和黃香蕉是30%,和蘋果醬是百分之多少,我們希望做這樣的東西。
另外,中醫的望聞問切,現在“望”和“問”小魚在家都能夠解決了,“切”很多手腕,聞這件事情還沒有解決,如果望聞問切真的解決了。中醫的家庭化也就解決了。所以,我們現在希望能夠在“聞”這方麵幫著做點事。基於手機的行為計算,當你走動的時候,我們希望能不能從這裏偵測出走路的步態和姿勢,特別是對老人的護理,青少年的護理。這方麵非常之難,但是我們有希望和一些公司開始做一些探討。
另外,因為我們的專業,雖然我來自於美院,但是我們的研究生來自所有的專業,是一個交叉學科。所以我們希望能夠做一些新的傳感器的東西。
這個就是最近在做的。
| 接下來要解決精確語言理解的問題
周明:沈向洋講了一個叫做自然語言理解,從感知到認知,到推理這樣的一個非常好的話題。沈向洋在上麵講,懂語言者,得天下。我當時聽完以後覺得搞自然語言的春天來了。但是實際上我們搞語言理解跟認知智能是一脈相承的。認知智能無非就是語言理解,知識、推理,然後解決問題。
現在想問在座的各位專家,你們認為語言理解也好,或者是更廣義的人機交互也好,現在到了什麼程度了?從研究上有哪些機會?有哪些瓶頸,產業上有哪些機會和瓶頸?
徐迎慶:
我覺得確實不懂,自然語言發展到什麼程度了,但是我現在也在用一些設備,小魚在家我買了兩台,阿裏送了一個天貓精靈,我都在用,以前我覺得是非常不屑的。除了小魚在家以外,因為我家裏有老人。後來我用起來覺得非常有意思,他們那個智能程度非常智能。比如說前兩天天貓精靈突然自己唱起歌來了。我學生開玩笑說天貓精靈誰讓你唱歌,閉嘴。天貓精靈說,知道了,下麵播放歌曲閉嘴。這個非常驚訝,真的有閉嘴這首歌,唱的非常好聽。
吳華:
我是一直做自然語言處理的,但是很遺憾的是,雖然是自然語言的春天來了。但是我們其實受到非常大的挑戰。剛才沈老師說的,實際上理解問題沒有解決。其實舉個簡單的例子,我們現在一直想說,計算機能跟人自然的交流,用自然語言,但是我們在特定的領域,在指定的一個領域,比如說天氣,或者你問天氣的方式都有很多種。一個很小很小的問題我們都沒有解決,就是自然語言理解的問題,精確理解的問題沒有解決。
這也是阻礙現在所有的人機交互的硬件的一個發展的技術。所以,我們接下來實際上要做的就是把具體領域的精確語言理解的問題解決。然後不要依賴太多的標注數據,這個是我們要解決的一個問題。
所以,我們現在叫它模式匹配理解,不是精確理解。接下來,如果這個問題能夠有效的解決,我們可以往更通用的聊天的角度去做。我認為聊天實際上是通用領域的,是貫穿整個人機交互始終的一個基本紐帶。因為現在我們做的事,基本上是把特定領域的任務完成類的、聊天以及解答問題這幾種類型分開做的。但是實際上聊天應該是說,它是執行任務,解答問題的基礎。你在特定領域裏麵回答問題的時候,有可能涉及到聊天,可能小魚在家也涉及到這樣一些問題。所以,我們要從通用領域的角度去探索聊天這個裏麵需要的技術。
比如說它需要去了解對話之間,人和人之間對話,人和機器之間對話的邏輯,就是它們內在的關係是什麼,為什麼可以海闊天空的聊。還有人的常識是怎麼獲取的,甚至特定場景下我們需要什麼樣的常識,以及人的記憶等等這些。我們發現在聊天的過程當中,有很多問題,比如說人會在聊天的過程,對人、事物、事件都會有一個主觀的評判,我們怎麼建模人的主觀傾向,這些都是沒有解決的問題。接下來是學習的問題,其實人是在有一定常識的基礎上,有一定理解機製的基礎上,你是通過什麼機製進化的,進一步強化自己。我理解進化機製有兩方麵,一方麵人是有一個閱讀理解能力,也就是通過讀書,獲取知識,然後武裝自己,使得自己越來越像一個專家。還有一個跟環境之間交互,怎麼通過對方的反饋學習進化的。其實自然語言的路還有好長好長。
李航:
我簡單介紹一下我對人機交互的想法。大家可能知道,人得到信息80%多是從通過視覺,大概10%多是聽覺,剩下很少的百分比是其他的感官。所以,對人來說,得到信息主要是通過眼睛看。那麼人對外產生影響的時候,大概70%、80%的信息是通過語音對話發生執行的。從人的角度來說,輸出主要是語音和語言。我們要做人機交互,從計算機的角度來說,理解人的對話是一個最核心的部分了。當然我們都知道,其實我們人就是通過五官整體感知、認知的。計算機反過來也是需要以語言為主,以語音識別基礎的對話為主來去跟人進行交互。在我看來,語言交互,人機交互,其實在一定程度上最基本的東西已經應用地非常普遍了。推薦和搜索就是最成功的人機交互,搜索是什麼呢?是人找信息,推薦是信息找人。
人機交互之間,我們最簡單就是用關鍵詞,推薦的時候就是零關鍵詞,不需要關鍵詞信息也可以照樣找到人。所以這個也是非常適用化,我們天天使用推薦和搜索。現在單輪對話的時代,我們看到各種各樣的例子,我們看到搜索中大家使用頻繁的問句,基本上是自然的問句,以單輪對話計劃為主實現的,加一些簡單的多輪對話的機製,讓你感覺到好像在做多輪對話,其實本質上,我們整個業界的水平就是隻能把單輪對話做得不錯,像問答,一定程度上,一定場景下能滿足大家的需求。語音對話在一定場景下能夠滿足大家的需求。如果到了多輪對話,情況就更加複雜了,我們對多輪對話的認識,現在整個業界都還沒有達到一個真正認真去研究多輪對話的狀態。首先數據不夠,無論是大公司,還是小公司,都是沒有足夠多的數據進行認真的研究,這方麵如果沒有真正的突破,多輪對話很難真正走向實用化。
可喜的是,現在從單輪對話出發,如果技術做得越來越好,跟用戶做不斷的交互,能收集到更多的數據,給我們奠定一個非常好的基礎。在這個基礎上能夠去往前推動。多輪對話,又分兩種,一種是閑聊,沒有邊界的。另外一種是任務驅動的,當然這個怎麼定義什麼叫做閑聊,什麼叫做任務驅動,中間不是很清晰的畫一條線。讓我來推斷,就是任務驅動的多輪對話可能更容易突破,但是真正像人一樣的能夠聊得很好,就更難,不是不重要,技術挑戰就更大。
但是不管是任務驅動的,還是說閑聊,多輪對話都麵臨著沒有足夠的數據,技術上麵還有待於繼續突破的狀態。但是可喜地是說,單輪對話的技術不斷深入到我們的工作生活當中,我們有越來越多的數據收集起來了。技術上麵最近這些年也有一定的突破,深度學習也幫助單輪對話的技術有很多以前想都不敢想,做都不敢做的事情。這塊也在不斷的進步,未來我還是非常樂觀的,未來五年、十年,隨著數據不斷增加,技術不斷進步,我們可以看到更多的對話係統,人機交互,以語言為中心,跟其他的模態結合起來,能夠實現我們人機之間非常好的互動,使得我們計算機真正的成為我們人的得力助手,這是我對這個領域基本的看法。
宋晨楓:
我們正好是做這個領域,首先人機交互最核心的地方當然是在自然語言理解這個部分。但是實際上當你把它落到一個場景的時候,這個時候影響用戶體驗和人機交互還有很多其他的因素,咱們就拿剛才徐老師講的智能音箱的品類為例。因為我們都認為自然語言能夠帶來最大價值的場景,可能一個是在家裏,一個是在車裏。現在,在家裏的話我們把體驗落地,其實有多個模塊,前端要有音頻處理,然後有ASR,經過ASR之後,然後是NLP的理解,之後還要對接相應的資源,隻有把這個多個模塊真正能夠在家庭環境下把它串起來,才能夠去為用戶提供他滿意的體驗。
我們在過去這兩年的實踐當中,我們看來也許在一個理想的場景下,這些係統串起來能夠達到90%的滿意度。但實際上,今天我們如果把用戶一天中所有的環節算下來,真正用戶交互,然後得到他滿意答案的是不足70%的,60%多,我們的團隊在不斷的剖析問題在哪裏。這裏麵就說到現在幾個技術瓶頸。
第一,實際上,在家庭場景下所謂的雞尾酒會問題還是沒有得到解決,而且這是一個非常普遍的場景。再加上,目前所有的人機交互都需要有一個喚醒。但是這個喚醒第一體驗是有點反人類的。你跟一個人去交流的時候,不會每次都叫一下他的名字。這個是影響體驗的。同時,其實由於在不同的噪音,混響,還有家裏設備擺放的場景,交互的方式,其實喚醒率,還有徐老師說的誤喚醒是比較大的問題。然後再到ASR,在遠場情況下的ASR,因為人說話不是那麼有完全句式的,很多時候夾雜英文,有的時候會吞吞吐吐,有的時候說一句話的時候,會回過頭來更正他前麵說的一兩個詞之類的。
就是ASR加上NLP,能夠把這些人自然交互情況下的表達能夠順利的理解,在我們看來還是很多的問題,所以我們看很多數據,都是話說到一半就切掉了,一句話裏麵有兩個人不斷的混在一起。這些都影響到了整體的交互體驗。對我們來講,從產品角度,如果想等這個技術完美了再解決問題,然後再推出產品,可能還需要五年的時間。我們今天是否已經可以為用戶提供一些價值,解決他們的一些問題,我覺得這個答案還是可以的。我們在這裏麵有幾方麵的探索,剛才李航老師講的我非常的讚同,今天純音箱,沒有屏幕的音箱,在我們看來是一個人機交互的過度落地方案,畢竟人與機器交流的方式最高效是語言。但是機器與人交流的方式,是需要語音和視覺輔助的。當你沒有屏幕的時候,信息表達,還有對用戶的引導是缺失很多。所以我們小魚在家一直在探索自然語言交互和屏幕之間的關係,所以我們也圍繞著叫做體驗和虛擬助手這樣一種設計理念完整設計一套全新的交互模式和交互界麵。
在這裏麵,其實我們就看到了一些比較好的用戶反響,或者反饋,我們終於可以做運營了。因為當產品不能讓用戶隨時問他所想要的所有問題的時候,如何能夠設定預期,就變成了一個問題,當你有了這個屏幕之後,其實你能夠在不同的場景下給他做智能的推薦,當你問了你想聽什麼歌的時候,這個時候助手就可以推薦你,你還可以問什麼,你可以說下一首,上一首,暫停,問關於這首歌的情況,這種事情,當你沒有屏幕的時候都是很難進行的。
所以,我們在初期做用戶的自然語言整個成長體係是很重要的。讓用戶知道,其實我現在隻能在18個垂類裏麵問問題。然後邊界是哪裏?讓用戶有一個穩定的預期,這個產品在不斷的成長,可能今天你問的這個問題,問的這種方式,它在這個領域裏沒有很好的解決。但是我們能夠在下一個迭代裏麵就把這個問法加進去。我覺這個是做產品的時候一點點心得。
另外,這個設備放在家庭中不同的場景,用戶的行為是完全不一樣的。在客廳、廚房、書桌上,客戶交互的姿態,場景限定了他在那個情況下可能問的問題。所以我們另外做的是什麼呢?讓我們在某個家庭的設備自己認知我是在哪裏,並且爭取了解跟誰在交互?因為不同的人在家裏的語言結構是不一樣的。可能就那麼幾類問題,大人可能有不同的問題,所以牽扯到用戶畫像,我們有一個團隊在做用戶畫像。能夠讓你時刻知道,用戶在什麼場景下跟誰交互,這個時候你的推薦、運營也能夠做得更加準確,讓用戶有更好的體驗。
| 實體交互是什麼
周明:謝謝以上四位嘉賓分享了他們的經驗,我要問一下老徐,你做的終身學習是什麼意思?實體交互是幹什麼?
徐迎慶:終身學習就是不僅你從小要學,到你老了還要學,這就是終身學習。
是這樣,我簡單說,因為有廣告嫌疑,不能多說。清華大學終身學習實驗室,是樂高基金會支持的實驗室。樂高在全球有四個實驗室,麻省理工,哈佛、清華和英國劍橋,我們是其中一個。我們做的是怎麼樣來推廣動手學習的理念。我們都知道,我們國家學習基本上孩子們都是讀書、默寫、背誦,動手學習的機會不多。動手學習對整個學習的推動和推進是什麼?這個在國外已經做了很多,我們在這個領域一直在做一些工作,我們實驗室做了一年多,還是做了一些很有意思的東西。我們除了完成了一些研究課題和研究項目以外,另外一個也正在幫助一些孩子們怎麼去學,去更好的學習計算機,怎麼編程。
我們現在基本上就三個團隊,我們這個實驗室請了七位員工,有從牛津,斯坦福回來的,從波士頓回來的,都是專門做這個方向。我們有一個團隊專門研究兩到四歲的孩子。什麼事吸引了他們的學習,他們玩耍的興趣是怎麼得到的?怎麼激活玩法的興趣。另外,針對四到六歲孩子,我們做了很多玩具,比如說有一個玩具,我們做的工作不一定非得跟樂高有關,可以是任何的創新,
我們基於樂高,把芯片放到樂高模塊裏頭,讓小孩子很快搭出一個小汽車。這個小汽車,比如說是小卡車,搭完以後,程序自動呈現在屏幕上,然後小孩就可以通過用戶界麵,直接在屏幕上把每一個部件拖來拖去,把車的形狀都放好了,放到裏麵,一點,這個程序就跑起來了。或者搭一個甲殼蟲,一碰這個車就可以動起來。這些對於幫助孩子理解什麼是程序很重要,我們不要求四到五歲的孩子學編程,太難了。但是通過這樣一些學習,讓他們對程序有了興趣。我們有另外一個團隊,從6到8歲開始教他們怎麼用類似於圖形用戶界麵去編程和體驗,我們有很多兄弟的孩子都在那體驗過,我相信每個孩子都是非常高興的。
除此之外,我們針對清華大學的大學教育,我們也做了很多大學生的教育。比如說是非技術類的,學生的藝術教育我們也做了一些工作。這是一類。
另外,比如說我們在實體交互。實體交互就是用實物進行交互,並不是說通過一個界麵,通過鼠標的交互。其實我從微軟就開始做這個項目,跟微軟合作。但是我們現在已經做了全新的第三代。我們做了九年,給盲人做了一台計算機,觸摸的。盲人的學習跟我們的課本差不多,他們也要學電路,也要學化學分子式,以前這些東西很難表達,他們摸不出來,語音是聽不到圖形的。於是我們可以在屏幕上呈現這種觸摸、凸凹點的圖形,這個項目現在做到第七年了。前五年都是我們自己在往裏投入,加上微軟往裏投了資金,英特爾,百度都給了很多支持。那麼,到了第五年的時候,我們很高興,這個項目變成了國家重點研發計劃的項目。所以我們現在在做國家計劃項目,這個就讓盲人通過觸摸來完成。
所以,在實體交互方麵還有很多,我們的研究生開發了骨架機器人的東西。我們用骨架機器人讓動畫師控製骨架機器人,但是背後真正的三維動畫會隨著它一起動。大象的鼻子,四條腿都可以動,可以方便的編輯這些東西。我也很高興在這跟大家說一聲,我們尋求更多的合作,大家知道,馬雲在達摩會上,和他們的院長都宣布了未來的六大研究方向。其中有一個方向叫做下一代的用戶體驗研究。我們很榮幸,這個項目在跟我合作,我們下個月會宣布我們的實驗室。
這個實驗室將來主要是圍繞下一代的用戶界麵,以及未來基於物聯網的搜索是什麼樣的?基於物聯網的交互是什麼樣的,所以這是基本的概念。謝謝大家。