chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自然語(yǔ)言控制機(jī)械臂:ChatGPT與機(jī)器人技術(shù)的融合創(chuàng)新(上)

大象機(jī)器人科技 ? 來(lái)源:大象機(jī)器人科技 ? 作者:大象機(jī)器人科技 ? 2024-04-11 14:36 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1.引言:


自O(shè)penAI發(fā)布ChatGPT以來(lái),世界正迅速朝著更廣泛地將AI技術(shù)融合到機(jī)器人設(shè)備中的趨勢(shì)發(fā)展。機(jī)械手臂,作為自動(dòng)化與智能化技術(shù)的重要組成部分,在制造業(yè)、醫(yī)療、服務(wù)業(yè)等領(lǐng)域的應(yīng)用日益廣泛。隨著AI技術(shù)的進(jìn)步,機(jī)械手臂不僅能執(zhí)行復(fù)雜的操作任務(wù),還能通過(guò)自然語(yǔ)言處理技術(shù)進(jìn)行更加直觀的交互,極大提高了靈活性和用戶(hù)友好性。

就比如說(shuō)微軟的一個(gè)人工智能研究中心,研究如何用自然語(yǔ)言來(lái)控制機(jī)器人設(shè)備的一個(gè)研究,

所以我想做一個(gè)類(lèi)似的項(xiàng)目,通過(guò)允許用戶(hù)使用自然語(yǔ)言來(lái)控制機(jī)械手臂,它可以大大降低機(jī)器人編程的門(mén)檻,使得非專(zhuān)業(yè)人士也能輕松地操作和實(shí)驗(yàn)。

論文link:

https://www.microsoft.com/en-us/research/uploads/prod/2023/02/ChatGPT___Robotics.pdf

該項(xiàng)目一共分為上下兩篇,本篇文章主要內(nèi)容是整個(gè)人工智能系統(tǒng)的設(shè)計(jì)和構(gòu)建的過(guò)程,未來(lái)的下一篇文章將要介紹在開(kāi)發(fā)項(xiàng)目的過(guò)程中遇到的而困難,如何解決,以及該項(xiàng)目有什么擴(kuò)展的性的功能。

2.項(xiàng)目背景與動(dòng)機(jī):


想象如果有有一天,你命令一個(gè)機(jī)械臂“幫我收拾一下桌面,將垃圾丟到垃圾桶里”,機(jī)械臂就開(kāi)始聽(tīng)從命令,清理你的桌面的垃圾,那該是多么幸福的一件事情呀。

所以準(zhǔn)備工作,我們需要一臺(tái)小型的機(jī)械臂(主要是大的機(jī)械臂太貴了),一臺(tái)能夠上網(wǎng)的電腦,以及一顆炙熱的心!該項(xiàng)目主要是借鑒微軟的那篇改變機(jī)器人使用的研究來(lái)入手。

3.技術(shù)概覽:


前提本項(xiàng)目是基于python的環(huán)境下進(jìn)行編譯的。

首先我們先來(lái)介紹一下本項(xiàng)目會(huì)使用到的一些軟件層面上技術(shù):

ChatGPT:(整個(gè)項(xiàng)目最關(guān)鍵的核心技術(shù))
https://openai.com/chatgpt

ChatGPT是一項(xiàng)人工智能技術(shù),基于GPT(Generative Pre-trained Transformer)模型的架構(gòu),GPT是一種基于深度學(xué)習(xí)的自然語(yǔ)言處理模型,通過(guò)大規(guī)模的無(wú)監(jiān)督預(yù)訓(xùn)練和有監(jiān)督微調(diào)來(lái)實(shí)現(xiàn)語(yǔ)言理解和生成任務(wù)。

換句話(huà)來(lái)說(shuō),你可以簡(jiǎn)單人理解為你在跟一個(gè)知識(shí)十分淵博的人進(jìn)行聊天,你可以對(duì)它預(yù)設(shè)一些角色,例如“”你是一個(gè)醫(yī)生”,你就可以跟他聊醫(yī)學(xué)相關(guān)的知識(shí),但是請(qǐng)注意并不是所生成的所有聊天都是正確的需要進(jìn)行自我判斷。

wKgZomYXgSCAS1y-AAEkd4qh2CQ262.png

Speech recognition:(搭配處理自然語(yǔ)言必不可少的功能模塊)


我們這邊使用的是Google的一種語(yǔ)音識(shí)別服務(wù),Speech-to-text,它允許開(kāi)發(fā)者將語(yǔ)音轉(zhuǎn)化成文本的形式。并且它也支持多種語(yǔ)言和方言,包括但不限于英語(yǔ),西班牙語(yǔ),法語(yǔ),德語(yǔ),中文等等,可以滿(mǎn)足全球用戶(hù)的需求。

你可以進(jìn)行在線(xiàn)的嘗試語(yǔ)音轉(zhuǎn)文本:

https://cloud.google.com/speech-to-text?hl=en#features

pymycobot:(mycobot 280機(jī)械臂的控制功能模塊)


https://github.com/elephantrobotics/pymycobot

pymycobot 是大象機(jī)器人專(zhuān)門(mén)為了my系列產(chǎn)品的機(jī)械臂開(kāi)發(fā)的控制模塊,這個(gè)功能模塊的開(kāi)發(fā),大大降低了機(jī)械臂編程控制的門(mén)檻。pymycobot 提供了大量的機(jī)械臂的控制接口,例如關(guān)節(jié)控制,坐標(biāo)控制,配套的機(jī)械臂的夾爪控制等等,對(duì)機(jī)械臂變成的初學(xué)者是相當(dāng)有好的。

解釋這些技術(shù)如何合作實(shí)現(xiàn)自然語(yǔ)言控制機(jī)械手臂的功能。

接下來(lái)介紹一下硬件設(shè)備:

mycobot 280 M5Stack


mycobot 280 M5Stack 是Elephant Robotics 和M5Stack 合作的一款6自由度的協(xié)作性機(jī)器人。它外觀結(jié)構(gòu)設(shè)計(jì)小巧精致,一體式全包裹機(jī)身設(shè)計(jì),采用高精度伺服電機(jī),無(wú)任何外漏線(xiàn)纜。mycobot重量只有850g,機(jī)械臂末端最大的負(fù)載能夠達(dá)到250g,最大工作半徑達(dá)到280mm,重復(fù)定位精度能夠到0.5mm的誤差范圍內(nèi)。

wKgaomYXgZ-ARsZRABlTBMo1P8Q868.png

4.設(shè)計(jì)思路與實(shí)現(xiàn)過(guò)程:


https://www.youtube.com/watch?v=Sq1QZB5baNw&pp=ygUVY2hhdGdwdCBjb250cm9sIHJvYm90

大家可以看一下近期OpenAI發(fā)布的一條視頻,人跟機(jī)器人聊天,機(jī)器人來(lái)處理自然語(yǔ)言并且生成相對(duì)應(yīng)的動(dòng)作執(zhí)行。

也有一些其他的額機(jī)械臂也集成了類(lèi)似的場(chǎng)景。

https://www.youtube.com/watch?v=IGsYgSdrT4Y

我要做的項(xiàng)目就是類(lèi)似于這個(gè)小型版!通過(guò)自然語(yǔ)言跟機(jī)械臂進(jìn)行溝通,然后,機(jī)械臂執(zhí)行相對(duì)應(yīng)的指令。

wKgZomYXgdqAByX4AABMOJwj1WY709.png

接下來(lái)我將要說(shuō)明項(xiàng)目的過(guò)程。

語(yǔ)音識(shí)別轉(zhuǎn)文本功能speech-to-text:


為什么要用語(yǔ)音識(shí)別轉(zhuǎn)文本功能呢?用過(guò)chatgpt的人知道chatgpt有內(nèi)置的語(yǔ)音聊天的功能,但是我們要集成到PC端和機(jī)械臂當(dāng)中去使用,就不能夠使用ChatGPT的web版本,而是要在本地的計(jì)算機(jī)當(dāng)中實(shí)現(xiàn),就要用到ChatGPT的API接口。

ChatGPT API的形式的話(huà)只能夠接收“文本”的形式來(lái)使用,所以speech-to-text可以講我們講話(huà)轉(zhuǎn)化成文本的形式輸入到電腦當(dāng)中。

def speech_to_text():
   recognizer = sr.Recognizer()

   with sr.Microphone() as source:
       print("start speaking...")
       audio = recognizer.listen(source)

       try:
           # text = recognizer.recognize_google(audio, language='zh-CN')
           text = recognizer.recognize_google(audio, language='en-US')
           print("you said: " + text)
           return text
       except sr.UnknownValueError:
           print("Google Speech Recognition could not understand audio")
           return None
       except sr.RequestError as e:
           print("Could not request results from Google Speech Recognition service; {0}".format(e))
           return None
wKgZomYXgjSAFLsqAABDoQUoL74246.png

調(diào)用ChatGPT API &預(yù)訓(xùn)練


獲取了語(yǔ)音的文本形式,就可以調(diào)用API在本地跟ChatGPT進(jìn)行聊天了。以下是OpenAI 提供調(diào)用ChatGPT API的使用方法。

def generate_control_code(prompt):
   openai.api_key = ''
   prompt = f"{pre_training}The command the user wants to execute is:'{prompt}'."

   try:
       response = openai.Completion.create(
           engine="gpt-3.5-turbo",
           prompt=prompt,
           temperature=0.5,
           max_tokens=100,
           top_p=1.0,
           frequency_penalty=0.0,
           presence_penalty=0.0
       )
       code = response.choices[0].text.strip()
       return code
   except Exception as e:
       print(f"error: {e}")
       return ""

代碼當(dāng)中的API_KEY需要自己去官方申請(qǐng)(需要付費(fèi))。

可以關(guān)注一下prompt這一句話(huà),這將是要提及到的預(yù)訓(xùn)練。

 prompt = f"{pre_training}The command the user wants to execute is:'{prompt}'."


如果想要獲取精準(zhǔn)的回復(fù),需要提前給ChatGPT知道它需要干什么,要讓他干什么,按照我們的想法來(lái)輸出。我們先用web版本來(lái)進(jìn)行測(cè)試,因?yàn)锳PI的搭建比較復(fù)雜。

以下是我的prompt(針對(duì)于這個(gè)項(xiàng)目),我只想要它輸出機(jī)械臂執(zhí)行的代碼給我所以我是這么做的。

Generate Python code that matches the following requirements: 
Use an instance of the MyCobotController class robot to perform a specific action. The instance already contains methods such as move_to_zero() to return to the initial position, grab_position() to move to the grab position, and plus_x_coords(value), plus_y_coords(value), plus_z_coords(value) to move specific distances on the X, Y, and Z axes. 
You don’t need to output other textual content, just output the code directly, for example, the robot arm returns to the origin. robot.move_to_zero()

Here is what I said:
I want the robot arm to return to the origin, and then go to the position to be grabbed to perform grabbing.
wKgaomYXguyAES15AABiPBwZdfI923.png

這里可以看到能夠成功的完成我的基本需求,但是他輸出了代碼的注釋?zhuān)@會(huì)影響我們之后的結(jié)果,所以還是需要進(jìn)行修改。(讓他只輸出代碼,不要輸出注釋。)

wKgZomYXgv-AEGvNAABmUe8cNr4638.png

構(gòu)建新的機(jī)械臂API


為什么要構(gòu)建新的API呢,pymycobot不是已經(jīng)提供了嗎?

當(dāng)然,pymycobot 提供的API很全面,也很多。我們?nèi)绻o的語(yǔ)音比較復(fù)雜,ChatGPT會(huì)生成其他的復(fù)雜的代碼可能會(huì)導(dǎo)致出錯(cuò)。我根據(jù)我想要目前測(cè)試的一些需求構(gòu)建了一個(gè)新的機(jī)械臂的API。

class MyCobotController:
   def __init__(self, port, baud):
        self.mc = MyCobot(port, baud)
        self.speed = 80
        self.mode =0
        self.coords = []

   def grab_position(self):
       # self.mc.send_angles([4.83, 13.97, (-99.31), (-1.75), 4.39, (-0.26)], 80)
       self.mc.send_coords([149.2, (-48.3), 201.7, (-176.98), 4.55, (-84.66)], 80, 0)
       time.sleep(2)

   def move_to_zero(self):
       self.mc.send_angles([0,0,0,0,0,0],70)
       time.sleep(2)

   def gripper_open(self):
       self.mc.set_gripper_state(0,80,1)
       time.sleep(2)

目的是為了快速的將整個(gè)項(xiàng)目搭建起來(lái),之后還可以在豐富其中的內(nèi)容。

這么做是有原因的,比如說(shuō),要讓機(jī)械臂去到一個(gè)點(diǎn)位進(jìn)行抓取,用pymycobot的方法可能是下面這樣的:

robot.send_angles([0,0,0,0,0,0],80)
time.sleep(2)
#open gripper
robot.set_grippr_value(1,80,1)
time.sleep(1)
#clos grippr
robot.set_grippr_value(0,80,1)
time.sleep(1)


這樣的話(huà)就要輸出很多行的代碼,在其他復(fù)雜的情況下可能會(huì)導(dǎo)致出錯(cuò),重新構(gòu)建一個(gè)方法的話(huà)咱就只需要調(diào)用一個(gè)方法就可以執(zhí)行了,兩行代碼就能解決。

class Newmycobot():
   def grab_action(self):
       self.send_angles([0,0,0,0,0,0],80)
       time.sleep(2)
       #open gripper
       self.set_grippr_value(1,80,1)
       time.sleep(1)
       #clos grippr
       self.set_grippr_value(0,80,1)
       time.sleep(1)
   
robot = Newmycobot()
robot.grab_action()


5.初步成果與展示:


我們先來(lái)個(gè)快速的調(diào)試,用web版本的ChatGPT來(lái)實(shí)踐一下。

wKgZomYXhGeAOT3MAAC3Ae2WtHE000.png

復(fù)制生成的代碼去運(yùn)行。

wKgZomYXhL2AWINGAHjQGzQa6LU646.png

可以看到簡(jiǎn)單的測(cè)試是OK的。

6. 結(jié)論:
本次的記錄就到這里,整個(gè)項(xiàng)目還未完成,在未來(lái)不久的日子里我將會(huì)繼續(xù)完善這個(gè)項(xiàng)目,下一篇的內(nèi)容我會(huì)完善整個(gè)項(xiàng)目,以及分享一下在開(kāi)發(fā)的過(guò)程出現(xiàn)的一些問(wèn)題是如何進(jìn)行解決的。如果你喜歡這篇文章的話(huà),歡迎在下方留言給出你的想法。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49798

    瀏覽量

    262095
  • 機(jī)械臂
    +關(guān)注

    關(guān)注

    13

    文章

    584

    瀏覽量

    25996
  • 自然語(yǔ)言
    +關(guān)注

    關(guān)注

    1

    文章

    292

    瀏覽量

    13932
  • ChatGPT
    +關(guān)注

    關(guān)注

    31

    文章

    1596

    瀏覽量

    10125
  • 大象機(jī)器人
    +關(guān)注

    關(guān)注

    0

    文章

    86

    瀏覽量

    332
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    復(fù)合機(jī)器人對(duì)比傳統(tǒng)AGV和機(jī)械的優(yōu)勢(shì)何在?

    標(biāo)準(zhǔn)傳統(tǒng)AGV僅能解決“點(diǎn)對(duì)點(diǎn)搬運(yùn)”,機(jī)械局限于“固定工位操作”,而經(jīng)世智能復(fù)合機(jī)器人通過(guò)AGV底盤(pán)+機(jī)械+視覺(jué)系統(tǒng)+一體化
    的頭像 發(fā)表于 11-21 15:32 ?1203次閱讀
    復(fù)合<b class='flag-5'>機(jī)器人</b>對(duì)比傳統(tǒng)AGV和<b class='flag-5'>機(jī)械</b><b class='flag-5'>臂</b>的優(yōu)勢(shì)何在?

    高精度機(jī)器人控制的核心——基于 MYD-LT536 開(kāi)發(fā)板的精密運(yùn)動(dòng)控制方案

    算法與 C++ 實(shí)時(shí)模塊開(kāi)發(fā); - 可作為控制核心部署在高精度測(cè)量機(jī)器人、激光切割機(jī)械、協(xié)作機(jī)械
    發(fā)表于 11-14 15:48

    機(jī)器人競(jìng)技幕后:磁傳感器芯片激活 “精準(zhǔn)感知力”

    幫助機(jī)器人實(shí)時(shí)修正重心,大幅降低翻倒風(fēng)險(xiǎn)。 在關(guān)節(jié)運(yùn)動(dòng)控制,磁傳感器芯片實(shí)現(xiàn) “毫米級(jí)精度保障”。以昆泰芯 KTM59 系列磁編碼器的離軸應(yīng)用為例,其非接觸式磁信號(hào)捕捉技術(shù),解決了
    發(fā)表于 08-26 10:02

    海默RC系列機(jī)器人控制

    器,基于自主研發(fā)技術(shù)打造,致力于推動(dòng)機(jī)器人核心技術(shù)的持續(xù)突破。RC系列控制器/HMControllerSeriesRC80控制器RC40
    的頭像 發(fā)表于 08-01 15:35 ?953次閱讀
    海默RC系列<b class='flag-5'>機(jī)器人</b><b class='flag-5'>控制</b>器

    MT6701 磁性角度編碼器 IC:引領(lǐng)機(jī)器人控制技術(shù)創(chuàng)新

    在科技日新月異的今天,機(jī)器人技術(shù)的發(fā)展可謂是突飛猛進(jìn)。從工業(yè)生產(chǎn)線(xiàn)上不知疲倦的機(jī)械,到服務(wù)領(lǐng)域靈活貼心的智能伙伴,機(jī)器人正逐漸深入到我們生
    的頭像 發(fā)表于 07-18 17:02 ?627次閱讀

    RDK × 腿機(jī)器人:這只 “機(jī)械汪” 竟會(huì)說(shuō)人話(huà)、走花路!

    開(kāi)源:Github:https://github.com/Hello-XSJ/RDK\_vlm\_demo.git-本項(xiàng)目聚焦腿機(jī)器人在多模態(tài)環(huán)境感知、自然語(yǔ)言交互和自主行為控制方面
    的頭像 發(fā)表于 07-01 20:27 ?1020次閱讀
    RDK × 腿<b class='flag-5'>臂</b><b class='flag-5'>機(jī)器人</b>:這只 “<b class='flag-5'>機(jī)械</b>汪” 竟會(huì)說(shuō)人話(huà)、走花路!

    大象機(jī)器人攜手進(jìn)迭時(shí)空推出 RISC-V 全棧開(kāi)源六軸機(jī)械產(chǎn)品

    大象機(jī)器人成立于2016年,專(zhuān)注協(xié)作機(jī)器人研發(fā)與應(yīng)用,產(chǎn)品線(xiàn)涵蓋輕量級(jí)協(xié)作機(jī)器人、人形機(jī)器人、仿生機(jī)器人等多種形態(tài)。拳頭產(chǎn)品myCobot系
    的頭像 發(fā)表于 06-06 16:55 ?1172次閱讀
    大象<b class='flag-5'>機(jī)器人</b>攜手進(jìn)迭時(shí)空推出 RISC-V 全棧開(kāi)源六軸<b class='flag-5'>機(jī)械</b><b class='flag-5'>臂</b>產(chǎn)品

    詳細(xì)介紹機(jī)場(chǎng)智能指路機(jī)器人的工作原理

    免與行人發(fā)生碰撞,為旅客提供安全、舒適的引導(dǎo)服務(wù)。 智能交互系統(tǒng) 語(yǔ)音識(shí)別與理解 :智能指路機(jī)器人利用先進(jìn)的語(yǔ)音識(shí)別技術(shù),將旅客輸入的語(yǔ)音信號(hào)轉(zhuǎn)化為文字信息。然后,通過(guò)自然語(yǔ)言處理算法對(duì)文字進(jìn)行分析
    發(fā)表于 05-10 18:26

    大象機(jī)器人攜手進(jìn)迭時(shí)空推出 RISC-V 全棧開(kāi)源六軸機(jī)械產(chǎn)品

    大象機(jī)器人成立于2016年,專(zhuān)注協(xié)作機(jī)器人研發(fā)與應(yīng)用,產(chǎn)品線(xiàn)涵蓋輕量級(jí)協(xié)作機(jī)器人、人形機(jī)器人、仿生機(jī)器人等多種形態(tài)。拳頭產(chǎn)品myCobot系
    發(fā)表于 04-25 17:59

    控制Mercury X1和Mercury B1機(jī)械而設(shè)計(jì)的創(chuàng)新外骨骼

    人們對(duì)深度學(xué)習(xí)和機(jī)器學(xué)習(xí)等領(lǐng)域日益增長(zhǎng)的興趣。這些技術(shù)使機(jī)器人能夠自主學(xué)習(xí)和執(zhí)行人類(lèi)任務(wù),例如折疊衣服或做飯。為了實(shí)現(xiàn)這些功能,必須收集大量數(shù)據(jù),并且必須采用一種便捷的方式來(lái)控制
    的頭像 發(fā)表于 02-11 09:50 ?982次閱讀
    為<b class='flag-5'>控制</b>Mercury X1和Mercury B1<b class='flag-5'>機(jī)械</b><b class='flag-5'>臂</b>而設(shè)計(jì)的<b class='flag-5'>創(chuàng)新</b>外骨骼

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人大模型

    的設(shè)計(jì)不僅提高了機(jī)器人對(duì)環(huán)境的理解能力,還使其能夠更精準(zhǔn)地執(zhí)行復(fù)雜任務(wù)。 擴(kuò)散模型的新思路 除了大模型,擴(kuò)散模型的引入為機(jī)器人控制開(kāi)辟了新的研究方向。在以UniPi為代表的創(chuàng)新工作中,
    發(fā)表于 12-29 23:04

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】1.全書(shū)概覽與第一章學(xué)習(xí)

    ,詳細(xì)介紹了具身智能機(jī)器人的基礎(chǔ)模塊,給讀者闡明了機(jī)器人如何感知環(huán)境以及對(duì)環(huán)境進(jìn)行交互。 在第三部分,結(jié)合最新的大模型技術(shù),探討了大模型在機(jī)器人計(jì)算中的具體應(yīng)用,如:
    發(fā)表于 12-27 14:50

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    研讀《具身智能機(jī)器人系統(tǒng)》第7-9章,我被書(shū)中對(duì)大模型與機(jī)器人技術(shù)融合的深入分析所吸引。第7章詳細(xì)闡述了ChatGPT for Roboti
    發(fā)表于 12-24 15:03

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+初品的體驗(yàn)

    動(dòng)態(tài)互動(dòng)的。 該理論強(qiáng)調(diào)智能行為源于智能體的物理存在和行為能力,智能體必須具備感知環(huán)境并在其中執(zhí)行任務(wù)的能力。具身智能的實(shí)現(xiàn)涵蓋了機(jī)器學(xué)習(xí)、人工智能、機(jī)器人學(xué)、計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理及強(qiáng)化學(xué)習(xí)等領(lǐng)域
    發(fā)表于 12-20 19:17

    《具身智能機(jī)器人系統(tǒng)》第1-6章閱讀心得之具身智能機(jī)器人系統(tǒng)背景知識(shí)與基礎(chǔ)模塊

    物理交互納入智能系統(tǒng)的核心要素。 第3章是探討機(jī)器人計(jì)算系統(tǒng)。這一章節(jié)詳細(xì)闡述了自主機(jī)器人的軟硬件架構(gòu)。計(jì)算系統(tǒng)需要滿(mǎn)足機(jī)器人任務(wù)對(duì)算法的精度、實(shí)時(shí)性和功耗要求。書(shū)中介紹的多傳感器融合
    發(fā)表于 12-19 22:26