首頁 資訊 AI讓手機任務自動跑起來!我國高校最新研究,簡化移動設備操作

AI讓手機任務自動跑起來!我國高校最新研究,簡化移動設備操作

來源:泰然健康網(wǎng) 時間:2024年12月06日 13:34

2024-10-31 15:29:41 來源:量子位

基于視覺的移動任務自動化方案

MOE KLINNS Lab投稿

量子位 | 公眾號 QbitAI

AI解放碳基生物雙手,甚至能讓你的手機自己玩自己!

你沒聽錯——這其實就是移動任務自動化。

在AI飛速發(fā)展下,這逐漸成為一個新興的熱門研究領域。

移動任務自動化利用AI精準捕捉并解析人類意圖,進而在移動設備(手機、平板電腦、車機終端)上高效執(zhí)行多樣化任務,為那些因認知局限、身體條件限制或身處特殊情境下的用戶提供前所未有的便捷與支持。

幫助視障人群用戶完成導航、閱讀或網(wǎng)上購物 輔助老年人使用手機,跨越數(shù)字鴻溝 幫助車主在駕駛過程中完成發(fā)送短信或調節(jié)車內環(huán)境 替用戶完成日常生活中普遍存在的重復性任務 ……

媽媽再也不嫌重復設置多個日歷事項會心煩了。

最近,來自西安交通大學智能網(wǎng)絡與網(wǎng)絡安全教育部重點實驗室 (MOE KLINNS Lab)的蔡忠閩教授、宋云鵬副教授團隊(團隊主要研究方向為智能人機交互、混合增強智能、電力系統(tǒng)智能化等),基于團隊最新AI研究成果,創(chuàng)新性提出了基于視覺的移動設備任務自動化方案VisionTasker。

這項研究不僅為普通用戶提供了更智能的移動設備使用體驗,也展現(xiàn)出了對特殊需求群體的關懷與賦能。

基于視覺的移動設備任務自動化方案

團隊提出了VisionTasker,一個結合基于視覺的UI理解和LLM任務規(guī)劃的兩階段框架,用于逐步實現(xiàn)移動任務自動化。

該方案有效消除了表示UI對視圖層次結構的依賴,提高了對不同應用界面的適應性。

值得注意的是,利用VisionTasker無需大量數(shù)據(jù)訓練大模型。

VisionTasker從用戶以自然語言提出任務需求開始工作, Agent開始理解并執(zhí)行指令。

具體實現(xiàn)如下:

1、用戶界面理解

VisionTasker通過視覺的方法做UI理解來解析和解釋用戶界面。

首先Agent識別并分析用戶界面上的元素及布局,如按鈕、文本框、文字標簽等。

然后,將這些識別到的視覺信息轉換成自然語言描述,用于解釋界面內容。

2、任務規(guī)劃與執(zhí)行

接下來,Agent利用大語言模型導航,根據(jù)用戶的指令和界面描述信息做任務規(guī)劃。

將用戶任務拆解為可執(zhí)行的步驟,如點擊或滑動操作,以自動推進任務的完成。

3、持續(xù)迭代以上過程

每一步完成后,Agent都會根據(jù)最新界面和歷史動作更新其對話和任務規(guī)劃,確保每一步的決策都是基于當前上下文的。

這是個迭代的過程,將持續(xù)進行直到判斷任務完成或達到預設的限制。

用戶不僅能從交互中解放雙手,還可以通過可見提示監(jiān)控任務進度,并隨時中斷任務,保持對整個流程的控制。

首先是識別界面中的小部件和文本,檢測按鈕、文本框等元素及其位置。

對于沒有文本標簽的按鈕,利用 CLIP 模型基于視覺設計來推斷其可能功能。

隨后,系統(tǒng)根據(jù) UI 布局的視覺信息進行區(qū)塊劃分,將界面分割成多個具有不同功能的區(qū)塊,并對每個區(qū)塊生成自然語言描述。

這個過程還包括文本與小部件的匹配,確保正確理解每個元素的功能。

最終,所有這些信息被轉化為自然語言描述,為大語言模型提供清晰、語義豐富的界面信息,使其能夠有效地進行任務規(guī)劃和自動化操作。

實驗評估

實驗評估部分,該項目提供了對三種UI理解的比較分析,分別是:

GPT-4V VH(視圖層級) VisionTasker方法

對比顯示,VisionTasker在多個維度上比其他方法有顯著優(yōu)勢。

此外,在處理跨語言應用時也表現(xiàn)出了良好的泛化能力。

△ 實驗1中使用到的常見UI布局

表明VisionTasker的以視覺為基礎的UI理解方法在理解和解釋UI方面具有明顯優(yōu)勢,尤其是在面對多樣化和復雜的用戶界面時尤為明顯。

△跨四個數(shù)據(jù)集的單步預測準確性

文章還進行了單步預測實驗,根據(jù)當前的任務狀態(tài)和用戶界面,預測接下來應該執(zhí)行的動作或操作。

結果顯示,VisionTasker在所有數(shù)據(jù)集上的平均準確率達到了67%,比基線方法提高了15%以上。

真實世界任務:VisionTasker vs 人類

實驗過程中,研究人員設計了147個真實的多步驟任務來測試VisionTasker的表現(xiàn),這些任務涵蓋了國內常用的42個應用程序。

與此同時,團隊還設置了人類對比測試,由12名人類評估者手動執(zhí)行這些任務,然后VisionTasker的結果進行比較。

結果顯示,VisionTasker在大多數(shù)任務中能達到與人類相當?shù)耐瓿陕?,并且在某些不熟悉的任務中表現(xiàn)優(yōu)于人類。

△實際任務自動化實驗的結果 “Ours-qwen”是指使用開源Qwen實現(xiàn)VisionTasker框架,”O(jiān)urs”表示使用文心一言作為LLM

團隊還評估了VisionTasker在不同條件下的表現(xiàn),包括使用不同的大語言模型(LLM)和編程演示(PBD)機制。

VisionTasker 在大多數(shù)直觀任務中達到了與人類相當?shù)耐瓿陕?,在熟悉任務中略低于人類但在不熟悉任務中?yōu)于人類。

△VisionTasker逐步完成任務的展示

結論

作為一個基于視覺和大模型的移動任務自動化框架,VisionTasker克服了現(xiàn)階段移動任務自動化對視圖層級結構的依賴。

通過一系列對比實驗,證明其在用戶界面表現(xiàn)上超越了傳統(tǒng)的編程演示和視圖層級結構方法。

它在4個不同的數(shù)據(jù)集上都展示了高效的UI表示能力,表現(xiàn)出更廣泛的應用性;并在Android手機上的147個真實世界任務中,特別是在復雜任務的處理上,表現(xiàn)了出超越人類的任務完成能力。

此外,通過集成編程演示(PBD)機制,VisionTasker在任務自動化方面有顯著的性能提升。

目前,該工作已以正式論文的形式發(fā)表于2024年10月13-16日在美國匹茲堡舉行的人機交互頂級會議UIST(The ACM Symposium on User Interface Software and Technology)。

UIST是人機交互領域專注于人機界面軟件和技術創(chuàng)新的CCF A類頂級學術會議。

原文鏈接:https://dl.acm.org/doi/10.1145/3654777.3676386
項目鏈接:https://github.com/AkimotoAyako/VisionTasker

版權所有,未經授權不得以任何形式轉載及使用,違者必究。

相關知識

中國移動智能手機新功能:AI醫(yī)生為用戶健康保駕護航
“烏鎮(zhèn)時間”再啟,中國移動AI+燃爆世界互聯(lián)網(wǎng)大會!
“算力+AI” 中國移動賦能醫(yī)療健康新發(fā)展
你我的運動,正科幻起來——前沿科技激發(fā)體育產業(yè)新動能
創(chuàng)新體育活動,這所小學讓學生們動起來、玩起來、健康起來
我國社區(qū)體育設施與服務標準研究
2021中國智能可穿戴設備產業(yè)研究報告
“跑起來,動起來,讓身心更健康”
基于小數(shù)據(jù)背景下健康管家跑步機設計研究.doc
AI驅動醫(yī)療革新:開啟數(shù)智健康新時代

網(wǎng)址: AI讓手機任務自動跑起來!我國高校最新研究,簡化移動設備操作 http://www.gysdgmq.cn/newsview314445.html

推薦資訊