chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何搭建NLP經(jīng)典模型(含代碼)

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 作者:云不見(jiàn) ? 2021-01-18 16:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

之前整理過(guò)齋藤康毅的深度學(xué)習(xí)神作《深度學(xué)習(xí)入門(mén):基于Python的理論與實(shí)現(xiàn)》,對(duì)小白非常友好,它沒(méi)有用任何的現(xiàn)成框架(比如pyTorch、tensorFlow等等),而是直接用python自帶的庫(kù)手把手教你,從如何實(shí)現(xiàn)梯度下降開(kāi)始到手磕一個(gè)CNN經(jīng)典網(wǎng)絡(luò),讓你不再對(duì)深度學(xué)習(xí)框架的內(nèi)部機(jī)制感到神秘。

短短幾年,這位大佬再度出了“續(xù)集”—《深度學(xué)習(xí)進(jìn)階:自然語(yǔ)言處理》[1]!(可以說(shuō)是NLP入門(mén)必讀的經(jīng)典著作了?。?/p>

小齋這次的寫(xiě)作風(fēng)格和前作一樣,都是手把手教你從實(shí)現(xiàn)詞向量開(kāi)始,像搭積木一樣,再到如何實(shí)現(xiàn)經(jīng)典網(wǎng)絡(luò)NLP屆的界的經(jīng)典網(wǎng)絡(luò)RNN、LSTM、seq2seq和Attention等NLP中重要的深度學(xué)習(xí)技術(shù)。

(太感人了,這次終于要搞懂詞向量究竟是個(gè)什么鬼了?。ㄌ?/p>

凡我不能創(chuàng)造的,我就不能理解。

— 理查德·費(fèi)曼(致敬費(fèi)曼)

話不多說(shuō),這次我不再整理的和上個(gè)系列一樣那么詳細(xì)(繁冗)了(個(gè)人覺(jué)得沒(méi)必要,那樣整理還不如直接看書(shū)來(lái)的直接痛快。所以這一次我會(huì)摘取基礎(chǔ)又重要的部分,如果你想再詳細(xì)深究下去,乖,去參考原書(shū)噢!

本書(shū)用到的庫(kù):

Numpy

Matplotlib

(真的是只用了這兩個(gè)基本庫(kù)!(強(qiáng)

如果要用GPU加速運(yùn)算的話,再加一個(gè)CuPy庫(kù)。

作者強(qiáng)調(diào),自己動(dòng)手的經(jīng)驗(yàn)、花時(shí)間思考的經(jīng)驗(yàn),都是無(wú)法復(fù)制的。(所以,聽(tīng)話,要自己嘗試敲1敲代碼噢!

本書(shū)第一章為上一本書(shū)神經(jīng)網(wǎng)絡(luò)的復(fù)習(xí),咱直接跳到第二章 從詞向量開(kāi)始

正文開(kāi)始

目錄

什么是自然語(yǔ)言處理?

同義詞詞典

基于計(jì)數(shù)的方法

基于計(jì)數(shù)的方法改進(jìn)

0a476a96-58b3-11eb-8b86-12bb97331649.jpg

必做練習(xí)

  • 語(yǔ)料庫(kù)的預(yù)處理。實(shí)現(xiàn)分詞(將文本分割成單詞,以單詞為最小單元輸入給模型)

  • 單詞ID化(將單詞用ID來(lái)表示,相當(dāng)于給每一個(gè)單詞編個(gè)代號(hào),和我們學(xué)生編個(gè)學(xué)號(hào)一個(gè)意思,方便定位和管理唄)

  • 利用共現(xiàn)矩陣表示文本的詞向量。

(這些練習(xí)會(huì)在后續(xù)搭建模型的時(shí)候用得到噢!相當(dāng)于我們先造積木,之后搭網(wǎng)絡(luò)就有素材啦!本章的詞向量表示也就是對(duì)文本進(jìn)行預(yù)處理的準(zhǔn)備工作?。?/span>

注意全文的講解都是以

(存在一個(gè)問(wèn)題 —> 找到解決辦法 —> 新的解決辦法又有什么問(wèn)題 —> 又找到解決辦法 )的思路一步一步引出各種概念和解決方案的。

我們的學(xué)習(xí)過(guò)程也是如此,市面上突然出現(xiàn)的各種模型也是如此,了解它解決了什么問(wèn)題也就知道亂七八糟的各種模型為什么會(huì)出現(xiàn)了。


什么是自然語(yǔ)言處理?
  • 自然語(yǔ)言:就是我們平常使用的語(yǔ)言,如漢語(yǔ)、英語(yǔ);

  • 自然語(yǔ)言處理:就是讓機(jī)器理解人類(lèi)的語(yǔ)言,理解了人類(lèi)語(yǔ)言才能對(duì)我們的語(yǔ)言進(jìn)行進(jìn)一步解讀和分析?。ū热鐚?duì)人類(lèi)的情感進(jìn)行分析、對(duì)文本進(jìn)行分類(lèi)、能夠?qū)崿F(xiàn)人機(jī)對(duì)話等等)

在沒(méi)有深度學(xué)習(xí)的時(shí)候,專(zhuān)家們是這樣進(jìn)行詞向量的表示的:


同義詞詞典

最著名的同義詞詞典當(dāng)屬WordNet [2]啦。WordNet等同義詞詞典中對(duì)大量單詞人工的定義了同義詞和層級(jí)結(jié)構(gòu)關(guān)系等。

同義詞詞典存在的問(wèn)題

  • 難以順應(yīng)時(shí)代的變化。語(yǔ)言是活的,新詞會(huì)不斷出現(xiàn)。

  • 人力成本高,WordNet收錄了超過(guò)20W個(gè)單詞。

  • 無(wú)法表示單詞的微妙差異。即使是含義相近的單詞,也有細(xì)微的差別。比如,vintage 和retro(類(lèi)似復(fù)古的意思)雖然表示相同的含義,但是用法不同,而這種細(xì)微的差別在同義詞詞典中是無(wú)法表示出來(lái)的(讓人來(lái)解釋是相當(dāng)困難的)。

Marty:“This is heavy (棘手).”

Dr. Brown:“In the future, things are so heavy (重)?”

— 電影《回到未來(lái)》

在電影《回到未來(lái)》中,有這樣一個(gè)場(chǎng)景:從1985 年穿越回來(lái)的馬蒂和生活在1955年的的博士的對(duì)話中,對(duì)“heavy”的含義有不同的理解。如果要處理這樣的單詞變化,就需要人工不停地更新同義詞詞典。


基于計(jì)數(shù)的方法(基于統(tǒng)計(jì))

目標(biāo):從海量文本數(shù)據(jù)中自動(dòng)提取單詞含義,減少人為干擾。

  • 語(yǔ)料庫(kù)(corpus):就是我們輸入模型的大量文本,比如句子、文章等等。

這里將用一句話作為語(yǔ)料庫(kù)來(lái)闡述接下來(lái)的所有概念。

>>> text = 'you say goodbye and I say hello.'

語(yǔ)料庫(kù)的預(yù)處理

1、進(jìn)行句子的分詞,并標(biāo)記每個(gè)單詞的ID。(就像給每個(gè)學(xué)生編上學(xué)號(hào)ID一樣,方便后續(xù)指定某一個(gè)學(xué)生呀?。?/span>

>>>text=text.lower()//將所有單詞轉(zhuǎn)化為小寫(xiě)>>>text=text.replace('.','.')//使句號(hào)其和前一個(gè)單詞分開(kāi)>>>text'yousaygoodbyeandisayhello.'>>>words=text.split('')//切分句子>>>words['you', 'say', 'goodbye', 'and', 'i', 'say', 'hello', '.'] //由八個(gè)詞組成的數(shù)組

首先,使用lower()方法將所有單詞轉(zhuǎn)化為小寫(xiě),這樣可以將句子開(kāi)頭的單詞也作為常規(guī)單詞處理。然后,將空格作為分隔符,通過(guò)split(' ')切分句子??紤]到句子結(jié)尾處的句號(hào)(.),我們先在句號(hào)前插人一個(gè)空格(即用 ' .'替換'.'),再進(jìn)行分詞。

2、我們進(jìn)一步給單詞標(biāo)上 ID,以便使用單詞 ID 列表,方便為后續(xù)對(duì)每個(gè)單詞進(jìn)行操作。

將單詞列表轉(zhuǎn)化為單詞 ID 列表,然后再將其轉(zhuǎn)化為 NumPy 數(shù)組。

word_to_id={}//將單詞轉(zhuǎn)化為單詞IDid_to_word={}//將單詞ID轉(zhuǎn)化為單詞(鍵是單詞ID,值是單詞)forwordinwords:  ifwordnotinword_to_id:  //如果單詞不在word_to_id中,則分別向word_to_id和id_to_word添加新ID和單詞    new_id=len(word_to_id)    word_to_id[word]=new_id    id_to_word[new_id] = word
corpus = np.array([word_to_id[w] for w in words])

如果單詞不在 word_to_id 中,則分別向 word_to_id 和id_to_word 添加新 ID 和單詞

如下為創(chuàng)建好了單詞 ID 和單詞的對(duì)應(yīng)表

>>>id_to_word{0:'you',1:'say',2:'goodbye',3:'and',4:'i',5:'hello',6:'.'}>>>word_to_id{'you': 0, 'say': 1, 'goodbye': 2, 'and': 3, 'i': 4, 'hello': 5, '.': 6}

最后,我們將單詞列表轉(zhuǎn)化為單詞 ID 列表,然后再將其轉(zhuǎn)化為 NumPy 數(shù)組。

>>>corpusarray([0, 1, 2, 3, 4, 1, 5, 6])

將第一步和第二步封裝為一個(gè)preprocess() 函數(shù),使用這個(gè)函數(shù),可以按如下方式對(duì)語(yǔ)料庫(kù)進(jìn)行預(yù)處理。( 代碼在common/util.py)

輸入要處理的語(yǔ)料庫(kù)text,輸出corpus, word_to_id, id_to_word

>>> text = 'You say goodbye and I say hello.'>>>corpus,word_to_id,id_to_word=preprocess(text)

corpus 是單詞ID 列表,word_to_id 是單詞到單詞 ID 的字典,id_to_word 是單詞 ID 到單詞的字典。

語(yǔ)料庫(kù)的預(yù)處理已完成。這里準(zhǔn)備的 corpus、word_to_id 和 id_to_word 這 3 個(gè)變量名在本書(shū)接下來(lái)的很多地方都會(huì)用到。

接下來(lái)的目標(biāo)就是使用語(yǔ)料庫(kù)提取單詞含義,這里先使用基于計(jì)數(shù)的方法,也就是基于統(tǒng)計(jì)的方法,能夠得到詞向量?。ㄒ簿褪菍卧~表示為向量)

分布式假說(shuō)(distributional hypothesis)

  • 分布式假說(shuō)(distributional hypothesis):某個(gè)單詞的含義由它周?chē)膯卧~形成。(某個(gè)人存在的價(jià)值由它的社會(huì)屬性構(gòu)成?!蚁拐f(shuō)的)

單詞本身沒(méi)有含義,單詞含義由它所在的上下文(語(yǔ)境)形成。

比如“I drink beer.” “We drink wine.” , drink 的附近常有飲料出現(xiàn)。

另外,從“I guzzle beer.” “We guzzle wine.”可知,guzzle 和 drink 所在的語(yǔ)境相似。進(jìn)而我們可以推測(cè)出guzzle 和 drink 是近義詞(guzzle 是“大口喝”的意思) 。

基于這一假說(shuō),我們就可以通過(guò)單詞的上下文來(lái)表示該單詞。如圖,左側(cè)和右側(cè)的 2 個(gè)單詞就是上下文。

0b9659f2-58b3-11eb-8b86-12bb97331649.jpg

這里的窗口大小可以控制你需要關(guān)心多少單詞的上下文。顯而易見(jiàn),關(guān)心的上下文單詞數(shù)越多,單詞的含義越準(zhǔn)確,但是所需要的存儲(chǔ)量就越大,看你自己的取舍咯!這里簡(jiǎn)單起見(jiàn),窗口大小為1。

如何基于分布式假設(shè)使用向量表示單詞,最直截了當(dāng)?shù)膶?shí)現(xiàn)方法是對(duì)周?chē)鷨卧~的數(shù)量進(jìn)行計(jì)數(shù)。

共現(xiàn)矩陣(co-occurrence matrix)

  • 共現(xiàn)矩陣(co-occurrence matrix):用上下文共同出現(xiàn)的單詞次數(shù)作為該單詞的向量。即若兩個(gè)單詞挨著出現(xiàn)一次,次數(shù)加一。

上面已經(jīng)處理好語(yǔ)料庫(kù)了,接下來(lái)構(gòu)建共現(xiàn)矩陣,也就是計(jì)算每個(gè)單詞的上下文所包含的單詞的頻數(shù)。在這個(gè)例子中,我們將窗口大小設(shè)為 1,從單詞 ID 為 0 的 you 開(kāi)始。

單詞 you 的上下文僅有 say 這個(gè)單詞,如下圖所示。

0bfd33a2-58b3-11eb-8b86-12bb97331649.jpg

所以單詞you可表示為:

0c162f7e-58b3-11eb-8b86-12bb97331649.jpg

即可以用向量 [0, 1, 0, 0, 0, 0, 0] 表示單詞 you。其他單詞也是重復(fù)如此操作。

0c48f0f8-58b3-11eb-8b86-12bb97331649.jpg

于是得到了共現(xiàn)矩陣:

0c7b260e-58b3-11eb-8b86-12bb97331649.jpg

接下來(lái),我們來(lái)實(shí)際創(chuàng)建一下上面的共現(xiàn)矩陣。

將圖 2-7 的結(jié)果按原樣手動(dòng)輸入。

C=np.array([  [0,1,0,0,0,0,0],  [1,0,1,0,1,1,0],  [0,1,0,1,0,0,0],  [0,0,1,0,1,0,0],  [0,1,0,1,0,0,0],  [0,1,0,0,0,0,1],  [0, 0, 0, 0, 0, 1, 0], ], dtype=np.int32)

這就是共現(xiàn)矩陣。使用這個(gè)共現(xiàn)矩陣,可以獲得各個(gè)單詞的向量,如下所示。

print(C[0])#單詞ID為0的向量#[0100000]print(C[4])#單詞ID為4的向量#[0101000]print(C[word_to_id['goodbye']])#goodbye的向量# [0 1 0 1 0 0 0]

我們通過(guò)共現(xiàn)矩陣成功地用向量表示了單詞。但手動(dòng)輸入共現(xiàn)矩陣太麻煩,這一操作顯然可以自動(dòng)化。下面,我們來(lái)實(shí)現(xiàn)一個(gè)能直接從語(yǔ)料庫(kù)生成共現(xiàn)矩陣的函數(shù)。

通過(guò)函數(shù)create_co_matrix()能直接從語(yǔ)料庫(kù)生成共現(xiàn)矩陣。(代碼實(shí)現(xiàn)在common/util.py)

其中參數(shù) corpus 是單詞 ID 列表,參數(shù) vocab_ size 是詞匯個(gè)數(shù),window_size 是窗口大小。

defcreate_co_matrix(corpus,vocab_size,window_size=1):  corpus_size=len(corpus)  co_matrix = np.zeros((vocab_size, vocab_size), dtype=np.int32)
  foridx,word_idinenumerate(corpus):foriinrange(1,window_size+1):  left_idx=idx-i  right_idx=idx+i  ifleft_idx>=0:  left_word_id=corpus[left_idx]  co_matrix[word_id,left_word_id]+=1
  ifright_idx  right_word_id=corpus[right_idx]  co_matrix[word_id,right_word_id]+=1
  return co_matrix

首先,用元素為 0 的二維數(shù)組對(duì) co_matrix 進(jìn)行初始化。然后,針對(duì)語(yǔ)料庫(kù)中的每一個(gè)單詞,計(jì)算它的窗口中包含的單詞。同時(shí),檢查窗口內(nèi)的單詞是否超出了語(yǔ)料庫(kù)的左端和右端。

這樣一來(lái),無(wú)論語(yǔ)料庫(kù)多大,都可以自動(dòng)生成共現(xiàn)矩陣。之后,我們都將使用這個(gè)函數(shù)生成共現(xiàn)矩陣。

到這里我們終于第一次成功的用向量表示單詞啦!將正式邁入文本詞向量表示的道路!

寫(xiě)到這發(fā)現(xiàn)篇幅太長(zhǎng)了,為了能有更好的學(xué)習(xí)體驗(yàn),接下來(lái)共現(xiàn)矩陣存在的問(wèn)題以及改進(jìn)方式就下一篇再見(jiàn)啦!

責(zé)任編輯:xj

原文標(biāo)題:小白跟學(xué)系列之手把手搭建NLP經(jīng)典模型(含代碼)

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3810

    瀏覽量

    52253
  • 自然語(yǔ)言處理
    +關(guān)注

    關(guān)注

    1

    文章

    630

    瀏覽量

    14712
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23337

原文標(biāo)題:小白跟學(xué)系列之手把手搭建NLP經(jīng)典模型(含代碼)

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    什么是低代碼:低代碼開(kāi)發(fā)平臺(tái)詳解 5個(gè)優(yōu)質(zhì)低代碼平臺(tái)工具

    %需求高代碼增強(qiáng)”的分層適配。 低代碼的三大核心特征(新手必看) -可視化開(kāi)發(fā):界面、流程、數(shù)據(jù)模型均通過(guò)圖形化界面設(shè)計(jì),無(wú)需直面復(fù)雜代碼,像“拼積木”一樣就能完成應(yīng)用
    發(fā)表于 04-07 16:03

    模型 ai coding 比較

    glm5 可能是真的因?yàn)?資源不夠,感覺(jué)降智,速度也慢,前兩天 他們 發(fā)通知,尋求資源,目前可能不推薦 調(diào)研 我從 ? 評(píng)審維度明細(xì): 1. 代碼生成能力(權(quán)重40%) 測(cè)試目標(biāo) :模型獨(dú)立完成指定
    發(fā)表于 02-19 13:43

    手把手在1GHz單片機(jī)上支持大模型對(duì)話 | 技術(shù)集結(jié)

    本文將演示如何基于RT-Thread,在RA8P1TitanBoard上,從設(shè)備驅(qū)動(dòng)、W-iFi聯(lián)網(wǎng)到AIOT大模型部署,構(gòu)建一個(gè)端側(cè)AIoT應(yīng)用。內(nèi)容聚焦具體操作與代碼實(shí)現(xiàn),為在高性能MCU上進(jìn)
    的頭像 發(fā)表于 01-31 10:05 ?3396次閱讀
    手把手在1GHz單片機(jī)上支持大<b class='flag-5'>模型</b>對(duì)話 | 技術(shù)集結(jié)

    測(cè)試小白3分鐘上手,零代碼自動(dòng)化測(cè)試平臺(tái),15分鐘搭建自動(dòng)化測(cè)試方案

    還在為不懂代碼、搭建測(cè)試方案耗時(shí)久而發(fā)愁?ATECLOUD 零代碼自動(dòng)化測(cè)試平臺(tái),專(zhuān)為自動(dòng)化測(cè)試量身打造,小白3 分鐘就能輕松上手,15 分鐘即可完成自動(dòng)化測(cè)試方案搭建,徹底打破傳統(tǒng)測(cè)
    的頭像 發(fā)表于 09-22 17:52 ?988次閱讀
    測(cè)試小白3分鐘上手,零<b class='flag-5'>代碼</b>自動(dòng)化測(cè)試平臺(tái),15分鐘<b class='flag-5'>搭建</b>自動(dòng)化測(cè)試方案

    重塑未來(lái)農(nóng)業(yè):云平臺(tái)用“零代碼搭建了第一座智能云溫室

    應(yīng)運(yùn)而生,為溫室大棚的智能化管理提供了前所未有的解決方案,正在悄然改變著農(nóng)業(yè)生產(chǎn)的面貌。 低代碼云平臺(tái)零編程零成本搭建,拖拽式應(yīng)用開(kāi)發(fā),跨設(shè)備數(shù)據(jù)關(guān)聯(lián),實(shí)現(xiàn)豐富的行業(yè)應(yīng)用場(chǎng)景展示。讓種植戶(hù)無(wú)需編程即可快速搭建專(zhuān)
    的頭像 發(fā)表于 09-03 17:07 ?818次閱讀

    小白學(xué)大模型:國(guó)外主流大模型匯總

    數(shù)據(jù)科學(xué)AttentionIsAllYouNeed(2017)https://arxiv.org/abs/1706.03762由GoogleBrain的團(tuán)隊(duì)撰寫(xiě),它徹底改變了自然語(yǔ)言處理(NLP
    的頭像 發(fā)表于 08-27 14:06 ?1136次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:國(guó)外主流大<b class='flag-5'>模型</b>匯總

    干貨分享 | TSMaster MBD模塊全解析:從模型搭建到自動(dòng)化測(cè)試的完整實(shí)踐

    在汽車(chē)電子MBD開(kāi)發(fā)中,TSMasterMBD模塊深度集成于TSMaster先進(jìn)的總線分析、仿真與測(cè)試平臺(tái),旨在為工程師提供一套從模型自動(dòng)編譯、代碼集成到自動(dòng)化測(cè)試的端到端無(wú)縫解決方案。本文將手把手
    的頭像 發(fā)表于 08-22 20:04 ?2796次閱讀
    干貨分享 | TSMaster MBD模塊全解析:從<b class='flag-5'>模型</b><b class='flag-5'>搭建</b>到自動(dòng)化測(cè)試的完整實(shí)踐

    智能工廠場(chǎng)景零成本搭建,工業(yè)管理模式升級(jí):低代碼平臺(tái)的雙重價(jià)值

    在工業(yè)4.0浪潮下,智能工廠成為制造業(yè)轉(zhuǎn)型的核心目標(biāo),但傳統(tǒng)工業(yè)控制系統(tǒng)開(kāi)發(fā)周期長(zhǎng)、成本高、技術(shù)門(mén)檻高的問(wèn)題,讓許多中小企業(yè)望而卻步。低代碼平臺(tái)的出現(xiàn)打破了這一困境,通過(guò)可視化開(kāi)發(fā)、預(yù)制組件復(fù)用
    的頭像 發(fā)表于 08-20 16:57 ?1082次閱讀

    代碼開(kāi)發(fā)云平臺(tái)是什么?零編程零成本搭建

    聯(lián)網(wǎng)云平臺(tái)作為連接物理設(shè)備與數(shù)字世界的核心樞紐,其功能設(shè)計(jì)圍繞設(shè)備管理、數(shù)據(jù)流轉(zhuǎn)、應(yīng)用開(kāi)發(fā)、業(yè)務(wù)賦能四大維度展開(kāi)。 一、核心能力 低代碼/零代碼:通過(guò)可視化拖拽組件、預(yù)置模板、圖形化邏輯編排代替手寫(xiě)代碼,快速
    的頭像 發(fā)表于 07-31 15:25 ?862次閱讀

    轉(zhuǎn)矩閉環(huán)的異步電機(jī)微分先行PID雙模糊自整定矢量控制系統(tǒng)

    控制系統(tǒng)來(lái)改善輸出轉(zhuǎn)矩性能,并采用微分先行的 PID 雙模糊自整定控制器代替系統(tǒng)轉(zhuǎn)速和磁鏈的 門(mén) 控制器來(lái)改善控制性能的伺服系統(tǒng)。最后通過(guò) Maab/sinmink搭建模型進(jìn)行仿真,結(jié)果表明,輸出電流
    發(fā)表于 07-25 14:21

    迅為RK3576開(kāi)發(fā)板NPU環(huán)境搭建和使用rknn-toolkit2功能演示模型轉(zhuǎn)換

    迅為RK3576開(kāi)發(fā)板NPU環(huán)境搭建和使用rknn-toolkit2功能演示模型轉(zhuǎn)換
    的頭像 發(fā)表于 06-19 10:53 ?1523次閱讀
    迅為RK3576開(kāi)發(fā)板NPU環(huán)境<b class='flag-5'>搭建</b>和使用rknn-toolkit2功能演示<b class='flag-5'>模型</b>轉(zhuǎn)換

    FA模型卡片和Stage模型卡片切換

    卡片切換 卡片切換主要包含如下三部分: 卡片頁(yè)面布局:FA模型卡片和Stage模型卡片的布局都采用類(lèi)web范式開(kāi)發(fā)可以直接復(fù)用。 卡片配置文件:FA模型的卡片配置在config.json中
    發(fā)表于 06-06 08:10

    FA模型訪問(wèn)Stage模型DataShareExtensionAbility說(shuō)明

    DataShareExtensionAbility提供數(shù)據(jù)庫(kù)的讀寫(xiě)服務(wù)。 服務(wù)端由FA模型升級(jí)到Stage模型后,會(huì)導(dǎo)致FA模型的客戶(hù)端在API 9()之后的版本上無(wú)法訪問(wèn)服務(wù)端。
    發(fā)表于 06-04 07:53

    代碼革命的先鋒:aiXcoder-7B模型介紹

    ? ? 國(guó)內(nèi)開(kāi)源代碼模型 4月9日aiXcoder宣布正式開(kāi)源其7B模型Base版,僅僅過(guò)去一個(gè)禮拜,aiXcoder-7B在軟件源代碼托管服務(wù)平臺(tái)GitHub上的Star數(shù)已超過(guò)2
    的頭像 發(fā)表于 05-20 14:41 ?948次閱讀
    <b class='flag-5'>代碼</b>革命的先鋒:aiXcoder-7B<b class='flag-5'>模型</b>介紹

    KaihongOS操作系統(tǒng)FA模型與Stage模型介紹

    KaihongOS中提供了不同的開(kāi)發(fā)方式和架構(gòu)選擇,Stage模型因其在分布式應(yīng)用開(kāi)發(fā)中的優(yōu)勢(shì)而被推薦使用。 說(shuō)明:KaihongOS文檔中心中應(yīng)用開(kāi)發(fā)(開(kāi)發(fā)準(zhǔn)備、快速入門(mén)、進(jìn)階提高模塊中的示例代碼均基于Stage模型。)
    發(fā)表于 04-24 07:27