999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

具身智能或將引領人工智能下一波浪潮

2023-12-31 11:55:26余秀
中國教育網絡 2023年8期
關鍵詞:人工智能智能模型

文/本刊記者 余秀

當前,具身智能(Embodied Artificial Intelligence)作為人工智能領域的一個分支,正在成為學術界和產業界備受關注的一個焦點。

所謂具身智能Embodied AI ,指的是有身體并支持物理交互的智能體。英偉達(NVIDIA)創始人兼CEO 黃仁勛在ITF World 2023 半導體大會上稱,具身智能將引領下一波人工智能浪潮。在產業界,谷歌 DeepMind 推出首個控制機器人的視覺語言動作(VLA)模型 RT-2;憑借ChatGPT 取得巨大成功的OpenAI,曾經解散機器人團隊,如今投資挪威機器人初創公司One X Technologies,推出名為Neo的新型人工智能機器人。

國內政策也在推進具身智能的發展。5 月,北京市發布《北京市促進通用人工智能創新發展的若干措施》,提出探索通用智能體、具身智能和類腦智能等通用人工智能新路徑,包括推動具身智能系統研究及應用,突破機器人在開放環境、泛化場景、連續任務等復雜條件下的感知、認知、決策技術。

什么是具身智能?

根據中國計算機學會專家的定義,具身智能(Embodied Artificial Intelligence)是指一種基于物理身體進行感知和行動的人工智能系統,其通過智能體與環境的交互獲取信息、理解問題、做出決策并實現行動,從而產生智能行為和適應性。

當一位谷歌工程師發出命令“撿起滅絕動物”,RT-2 機器人便從桌子上的眾多玩偶中定位并挑選出一只恐龍。

具身智能植根于認知科學“具身認知”的概念,該概念強調身體在主體的思想和認知能力的形成中發揮的重要作用,認為身體與周圍環境之間的互動是發展認知能力的基礎。具身視角帶來了人工智能系統與物理世界交互的必要性。

機器人技術給了具身智能身體,因為相對于計算機定義輸入,機器人可以與物理世界互動。機器人技術為人工智能系統提供了具有感官和運動能力的身體。通過集成攝像頭、麥克風和觸覺傳感器等一系列傳感器,配備輪子、電動關節、夾具等執行器,人工智能能夠像人類一樣依靠感官來感知世界,與環境進行交互和探索,實現具身智能體的“看”“說”“聽”“動”等。

人工智能系統是具身智能的“頭腦”。隨著深度學習的不斷進步,具身智能的“頭腦”通常由深度神經網絡模型驅動,尤其是隨著大語言模型(LLM)的發展,結合視覺等多種傳感器的復雜多模態模型,成為一大趨勢。具有通用能力的LLM 和VLM(視覺語言模型)等模型,賦予了強大的泛化能力,使得機器人從程序執行導向轉向任務目標導向,不再受限于特定的程序執行,而能夠根據任務目標智能地采取行動。從豐富的數據和任務中學習決策和控制,它們不斷演化以適應更復雜的任務和環境。

具身智能的目標是讓具有感知和行動能力的智能體(如機器人),在與環境的交互中持續演進,逐漸產生認知能力,能夠理解、推理、學習、規劃和決策,甚至具備常識和情感,從而實現更復雜的功能。

彌合數字AI 與物理世界的距離

截至目前,人工智能取得了令人興奮的進展,但仍存有一個尚未克服的基本限制——它僅限于數字領域。現有的多數人工智能系統純粹以數字形式存在,沒有“身體”,缺乏與物理世界的直接連接。這種局限性具體體現為以下幾點:

缺乏實際存在。數字人工智能系統本質上是代碼、算法和數據。雖然它擅長處理信息和解決數字領域的復雜問題,但它缺乏有意義的與現實世界交互所需的感官輸入和物理存在。

環境意識有限。由于缺乏視覺、觸覺或聲音等感官體驗,理解物理世界的復雜性對數字人工智能系統提出了挑戰。因此,它很難有效地應對現實世界的情況。

情境理解。在物理世界中,上下文對于語義理解起著至關重要的作用。然而,主要依賴于數據和算法的數字人工智能系統在處理上下文方面經常遇到挑戰。因此,它很難理解微妙的細節并根據態勢感知做出明智的判斷。

數據依賴性。數字人工智能嚴重依賴歷史數據,這會降低其對不可預見情況的適應性。這種以數據為中心的方法可能會限制其在不斷變化的現實環境中有效響應的能力。

具身智能通過創建與現實世界交互的人工智能系統,為這些限制提供解決方案。可以說,具身智能彌合了數字AI 與現實世界的距離。

具身智能:通用人工智能(AGI)新路徑

Unimal 進化出新的手臂來適應游樂場中的生活

ChatGPT 雖然能生成符合人類邏輯的語句,但是它的原理是基于模型運算,會把大概率有用的字詞留下,無用的字詞撇去,而它對于自己生成的內容并不理解。“ChatGPT 和其他大型神經網絡模型是人工智能領域令人興奮的發展,這表明學習人類語言結構等真正困難的挑戰是可以解決的。然而,如果繼續使用相同的方法進行設計,這些類型的人工智能系統不太可能發展到可以完全像人腦一樣思考的程度。”謝菲爾德大學認知機器人學教授托尼·普雷斯科特(Tony Prescott)明確表示。

在《科學機器人(Science Robotics)》雜志上發表的一篇論文中,普雷斯科特和斯圖爾特·威爾遜博士提出,模擬生物智能(例如人腦),將人工智能融入機器人中,使它們能夠與周圍的世界互動并像人腦一樣進化,這是人工智能獲得類人認知的最有可能的方式。

通用人工智能AGI 是“智能代理理解或學習人類可以完成的任何智力任務的能力”,是人工智能領域的長期目標之一。具身智能越來越被視為實現AGI 的可行路徑。

斯坦福大學以人為本人工智能研究院(HAI)的李飛飛團隊,2021 年在《自然通訊》上發表《通過學習和進化實現具身智能(Embodied Intelligence via Learning and Evolution)》,在研究中創造了簡單的虛擬節肢動物“Unimal”,并將它們放置在模擬的游樂場中,來研究它們的學習和發展能力。實驗結果表明,具身化對智能進化的重要性:身體形態會影響虛擬生物在復雜環境的適應和學習能力,復雜環境也會促進虛擬生物形態和智能上的進化。

當被問及“人工智能發展下去能不能成為與人類相似的獨立智能行為者?”時,清華大學電子工程系教授李星提出了類人的人工智能形成的兩個要素:實體化和繁殖能力,實體化是首要要素。“人工智能必須實現實體化并具備主體性。類似于人類需對自己的行為負責,人工智能也需要一個獨立實體來承擔責任。這種實體化并不僅僅是給人工智能一個外形,還要建立人工智能思考和推理機制與實體之間的緊密聯系,類似于人的身體與頭腦之間的聯系。”

上海交大教授盧策吾認為,相對于非具身而言,具身智能具有可達性、可檢驗性、可解釋性,基本要素可測量,可用任務檢驗,可通過具身學習推斷概念,“可能是邁向通用人工智能的一個很好的起點”。 Google DeepMind 機器人和機器學習工程師基爾薩娜·戈帕拉克里希南(PG Keerthana Gopalakrishnan)明確稱對于AGI 來說,具身實體是絕對不可缺少的。

具身智能的發展成果

大多數具身智能都集中在機器人訓練和自動駕駛汽車技術上,自動駕駛車輛需要在物理空間中行動,并根據它們所看到的東西做出可能的判斷。具身智能在各種現實世界場景中證明了其有效性,一些關鍵的實際應用包括自動駕駛汽車、制造和組裝、衛生保健、搜尋及救援、太空探索、動力外骨骼等。

近期具身智能領域的創新進一步凸顯了其潛力,以下是一些顯著的成果:

Google Deepmind 發布了機器人模型RT-2(Robotic Transformer 2),是一個全新的視覺—語言—動作(VLA)模型,可以從網絡和機器人數據中學習,并將這些知識轉化為機器人控制的通用指令,它具有很強的泛化能力,可以對機器人數據中從未見過的物體或場景執行操作任務。

Meta 推出了VC-1 和ASC。VC-1 是一種人工視覺皮層,其靈感源自人類視覺皮層將視覺轉化為行動的能力。VC-1 使用日常任務視頻進行訓練,在虛擬環境中的17 項感覺運動任務中表現出色,超越了其前輩。自適應性技能協調(ASC)是一種通過協調和調整學習的視覺運動技能來完成機器人移動操作任務的方法。令人印象深刻的是,ASC 在現實環境中涉及機器人移動和操縱的復雜任務中取得了98%的成功率。

麻省理工學院和斯坦福大學的研究人員設計了一種新的機器學習方法,可用于在條件快速變化的動態環境中更有效地控制機器人,例如無人機或自動駕駛汽車。將控制理論與機器學習相結合,使這些機器人無需單獨的指令即可學習如何移動,并且可以用更少的數據獲得更好的性能。

麻省理工學院和其他地方的研究人員開發了一種技術,使人類能夠有效地微調未能完成所需任務(例如拿起一個獨特的杯子)的機器人,簡化了機器人教學過程。當機器人遇到故障時,系統會生成反事實解釋,例如建議可能導致成功的替代行動。用戶提供有關機器人失敗原因的反饋,系統利用該反饋來提高機器人的性能。這種方法顯著減少了教授機器人新任務所需的時間和精力,使其成為幫助老年人或殘疾人的通用機器人的理想選擇。

具身智能領域的不斷創新和突破,將會把智能引向新的高度,推動科技不斷邁向未來,為人類社會帶來更廣泛、更深遠的變革。

斯坦福大學李飛飛團隊發布VoxPoser系統,將大模型接入機器人,把復雜指令轉化成具體行動規劃,人類可以很隨意地用自然語言給機器人下達指令。更重要的是,通過結合大語言模型(LLM)和視覺語言模型(VLM),構建3D 值地圖,可以讓機器人在零樣本學習的情況下,理解指令,分解任務,規劃路徑,并最終實現操作任務。在該方法下進行機器人操控時,不需要做數據投喂和預訓練。

具身智能具有強大的產業潛力。2023世界機器人大會上,2000年圖靈獎獲得者、中國科學院院士、清華大學交叉信息研究院院長姚期智在談及機器人發展時表示:未來的AGI 需要有具身的實體,同真實的物理世界相交互來完成各種任務,這樣才能給產業帶來真正更大的價值。

達成具身智能還有很多問題要克服。姚期智指出,具身智能目前遇到的四大主要挑戰:第一,機器人不能夠像大語言模型一樣有一個基礎大模型直接一步到位,做到最底層的控制;第二,計算能力的挑戰。哪怕谷歌研發的Robotics Transformer模型,要做到機器人控制,距離實際需要的控制水平仍有許多事情要做;第三,如何把機器人多模態的感官感知全部融合起來,仍面臨諸多難題需要解決;第四,機器人的發展需要收集很多數據,其中也面臨很多安全隱私等方面的問題。

具身智能雖然面臨眾多挑戰,但是其潛力不可估量。克服這些問題將可能通往通用人工智能(AGI),并且產生巨大的產業價值。我們正站在一個令人興奮的時刻,具身智能領域的不斷創新和突破,將會把智能引向新的高度,推動科技不斷邁向未來,為人類社會帶來更廣泛、更深遠的變革。

猜你喜歡
人工智能智能模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
智能前沿
文苑(2018年23期)2018-12-14 01:06:06
智能前沿
文苑(2018年19期)2018-11-09 01:30:14
智能前沿
文苑(2018年17期)2018-11-09 01:29:26
智能前沿
文苑(2018年21期)2018-11-09 01:22:32
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
主站蜘蛛池模板: 日韩AV无码免费一二三区| 国产亚洲美日韩AV中文字幕无码成人| 国产簧片免费在线播放| 国产嫖妓91东北老熟女久久一| 国产一区二区网站| 久久精品中文字幕免费| 免费a级毛片18以上观看精品| 999精品在线视频| 国产超碰一区二区三区| 久久国产乱子| 精品撒尿视频一区二区三区| 免费国产无遮挡又黄又爽| 在线观看精品国产入口| 人妻一区二区三区无码精品一区| 国产美女91视频| 亚洲最大综合网| 成人毛片在线播放| 久久永久免费人妻精品| 一级高清毛片免费a级高清毛片| 久久香蕉国产线看观看亚洲片| 久久亚洲国产最新网站| 欧美色综合网站| 国产小视频a在线观看| 2024av在线无码中文最新| a色毛片免费视频| 欧美啪啪一区| 欧美一区日韩一区中文字幕页| 91小视频在线| 看av免费毛片手机播放| 四虎成人免费毛片| 香蕉久人久人青草青草| 亚洲国产欧美中日韩成人综合视频| 欧美日韩专区| jizz在线免费播放| 白丝美女办公室高潮喷水视频| 91人妻日韩人妻无码专区精品| 国产区免费精品视频| 国产免费黄| 精品国产网| 国产噜噜在线视频观看| 亚洲精品欧美日本中文字幕| 丝袜无码一区二区三区| 高清无码手机在线观看| 大陆国产精品视频| 亚洲天堂自拍| 亚洲天堂日韩在线| 亚洲精品无码日韩国产不卡| av在线手机播放| 亚洲精品视频免费观看| 国产SUV精品一区二区6| 亚洲无限乱码一二三四区| 天堂岛国av无码免费无禁网站 | 在线观看无码av免费不卡网站 | www.精品国产| 强奷白丝美女在线观看| 人妻无码一区二区视频| 99中文字幕亚洲一区二区| 久久久久国色AV免费观看性色| 19国产精品麻豆免费观看| 亚洲 欧美 中文 AⅤ在线视频| 亚洲午夜片| 久久亚洲国产最新网站| 国产精品一区二区不卡的视频| 国产18页| 无码AV高清毛片中国一级毛片| 国产菊爆视频在线观看| 2048国产精品原创综合在线| 狠狠久久综合伊人不卡| 亚洲丝袜中文字幕| 欧美中文字幕在线视频| 欧美三级自拍| 一级毛片中文字幕| 青青草国产精品久久久久| 亚洲欧洲日韩久久狠狠爱| 综合久久久久久久综合网| 伊人久久福利中文字幕| 亚洲高清无码精品| 丰满人妻中出白浆| 亚洲美女一区二区三区| 久草性视频| 亚洲一区二区三区香蕉| 成人午夜视频免费看欧美|