學習日記-250305

閱讀論文:Leveraging Pedagogical Theories to Understand Student Learning
Process with Graph-based Reasonable Knowledge Tracing
ps:代碼邏輯最后一點還沒理順,明天繼續
4.2 Knowledge Memory & Knowledge Tracing
代碼研究:

一般經驗值:

  • k_hop = 1~2(默認值 1)適用于大多數知識追蹤任務。
  • k_hop > 3 可能會導致模型難以優化,但適用于知識點間關系復雜的情況。
選擇 k_hop 需要權衡:
  • 太小(1)→ 只能學習局部信息,捕捉不到遠程知識關系。
  • 太大(>3)→ 可能導致信息過度傳播,使所有知識點變得相似,影響模型效果。

1. 部分代碼拆解(一)

learn_kernel_para = F.softplus(lk_tilde) * self.args.alpha  # [NK, KH]
  • lk_tilde

    • 之前通過 k_hop 傳播,整合了知識點的關聯、前置、后續信息
    • 它的形狀 [NK, KH],表示 NK 個知識點在 KH 維隱藏空間的表示。
  • F.softplus(lk_tilde)

    • Softplus(x) = log(1 + e^x)
    • 這是平滑版的 ReLU,確保 learn_kernel_para 非負
    • 作用:
      • 當 x→?∞x \to -\inftyx→?∞,Softplus 逼近 0(防止負數影響計算)。
      • 當 x→+∞x \to +\inftyx→+∞,Softplus 逼近 xxx(近似線性增長)。
  • self.args.alpha

    • alpha 是超參數,控制學習核參數的影響范圍。
    • 調節學習速率,防止 learn_kernel_para 過大或過小,影響梯度更新。

2. learn_kernel_para 的作用

learn_kernel_para 作為學習能力參數,決定:

  1. 學生在不同知識點上的學習速率(較大值表示容易學會,較小值表示難以掌握)。
  2. 如何在時間維度上影響知識狀態的更新,即影響后續 h(知識狀態)的變化。

forward() 過程中,它用于調整:

learn_exp = (-(learn_count[:, :, None].float() + 1) * delta_time * learn_kernel_para).exp()
  • learn_kernel_para 越大,學習速率越快,知識狀態更新更快。
  • learn_kernel_para 越小,學習速率越慢,知識掌握變化較小。

3. 為什么要用 Softplus

  • 保證非負性
    • learn_kernel_para 不能是負數,否則會影響學習狀態更新計算。
    • Softplus(x) 始終是正數,防止 lk_tilde 可能的負值影響學習計算。
  • 平滑版 ReLU,防止梯度消失
    • 由于 softplus(x) ≈ x 在大值時近似線性,在小值時不會變成 0,因此可以避免梯度消失問題

4. 直觀理解

如果你是一個學生:

  • learn_kernel_para 表示你的學習能力
    • learn_kernel_para → 你對該知識點的學習速度(容易掌握)。
    • learn_kernel_para → 你對該知識點的學習速度(難以掌握)。

softplus(lk_tilde) 確保:

  • 學習能力 learn_kernel_para 始終為正數,避免錯誤學習率。
  • 通過 alpha 控制學習速率,防止學習能力過大或過小。

5. 結論

? 計算學習核參數,決定知識點的學習速度。
? Softplus 確保非負,避免負學習率問題。
? 乘以 alpha 進行縮放,防止數值過大或過小。
? 影響后續知識狀態 h 的更新,使得知識點的掌握程度符合學習規律。

訓練代碼記錄:
/home/edurs/anaconda3/bin/conda run -n ma12 --no-capture-output python /home/edurs/GRKT_new/Training.py 
Training start...
Evaluation before training: AUC: 0.5757, ACC: 0.6029, 
train_loss: 0.6036, AUC: 0.7184, ACC: 0.6976,  * 0.7079
train_loss: 0.5705, AUC: 0.7471, ACC: 0.7121,  * 0.7294
train_loss: 0.5488, AUC: 0.7656, ACC: 0.7259,  * 0.7455
train_loss: 0.5316, AUC: 0.7744, ACC: 0.7319,  * 0.7529
train_loss: 0.5191, AUC: 0.7818, ACC: 0.7379,  * 0.7595
train_loss: 0.5105, AUC: 0.7843, ACC: 0.7396,  * 0.7616
train_loss: 0.5022, AUC: 0.7843, ACC: 0.7396,  * 0.7616
train_loss: 0.4948, AUC: 0.7858, ACC: 0.7401,  * 0.7626
train_loss: 0.4881, AUC: 0.7855, ACC: 0.7381,  
train_loss: 0.4831, AUC: 0.7849, ACC: 0.7402,  
train_loss: 0.4775, AUC: 0.7837, ACC: 0.7390,  
train_loss: 0.4729, AUC: 0.7841, ACC: 0.7373,  
train_loss: 0.4661, AUC: 0.7826, ACC: 0.7386,  
train_loss: 0.4608, AUC: 0.7807, ACC: 0.7379,  
train_loss: 0.4557, AUC: 0.7794, ACC: 0.7354,  
train_loss: 0.4520, AUC: 0.7774, ACC: 0.7359,  
train_loss: 0.4476, AUC: 0.7764, ACC: 0.7324,  
train_loss: 0.4460, AUC: 0.7749, ACC: 0.7349,  
train_loss: 0.4399, AUC: 0.7706, ACC: 0.7327,  
train_loss: 0.4387, AUC: 0.7706, ACC: 0.7302,  
train_loss: 0.4358, AUC: 0.7681, ACC: 0.7286,  
train_loss: 0.4308, AUC: 0.7690, ACC: 0.7300,  
train_loss: 0.4282, AUC: 0.7669, ACC: 0.7259,  
train_loss: 0.4251, AUC: 0.7659, ACC: 0.7285,  
train_loss: 0.4241, AUC: 0.7656, ACC: 0.7261,  
train_loss: 0.4236, AUC: 0.7634, ACC: 0.7231,  
train_loss: 0.4208, AUC: 0.7635, ACC: 0.7261,  
train_loss: 0.4226, AUC: 0.7642, ACC: 0.7273,  
Training stopped.
valid:	 AUC: 0.7858, ACC: 0.7401, 
test:	 AUC: 0.7881, ACC: 0.7376, 
Evaluation before training: AUC: 0.5366, ACC: 0.5602, 
train_loss: 0.6052, AUC: 0.7198, ACC: 0.6977,  * 0.7087
train_loss: 0.5703, AUC: 0.7487, ACC: 0.7145,  * 0.7314
train_loss: 0.5475, AUC: 0.7666, ACC: 0.7266,  * 0.7463
train_loss: 0.5308, AUC: 0.7754, ACC: 0.7328,  * 0.7538
train_loss: 0.5185, AUC: 0.7804, ACC: 0.7347,  * 0.7572
train_loss: 0.5090, AUC: 0.7832, ACC: 0.7374,  * 0.7599
train_loss: 0.5016, AUC: 0.7833, ACC: 0.7372,  
train_loss: 0.4947, AUC: 0.7855, ACC: 0.7408,  * 0.7628
train_loss: 0.4885, AUC: 0.7844, ACC: 0.7375,  
train_loss: 0.4822, AUC: 0.7842, ACC: 0.7397,  
train_loss: 0.4761, AUC: 0.7830, ACC: 0.7383,  
train_loss: 0.4693, AUC: 0.7820, ACC: 0.7365,  
train_loss: 0.4657, AUC: 0.7815, ACC: 0.7354,  
train_loss: 0.4616, AUC: 0.7800, ACC: 0.7357,  
train_loss: 0.4558, AUC: 0.7780, ACC: 0.7346,  
train_loss: 0.4526, AUC: 0.7779, ACC: 0.7337,  
train_loss: 0.4470, AUC: 0.7760, ACC: 0.7338,  
train_loss: 0.4444, AUC: 0.7722, ACC: 0.7310,  
train_loss: 0.4405, AUC: 0.7709, ACC: 0.7313,  
train_loss: 0.4380, AUC: 0.7722, ACC: 0.7290,  
train_loss: 0.4349, AUC: 0.7713, ACC: 0.7283,  
train_loss: 0.4299, AUC: 0.7679, ACC: 0.7293,  
train_loss: 0.4296, AUC: 0.7678, ACC: 0.7266,  
train_loss: 0.4280, AUC: 0.7672, ACC: 0.7281,  
train_loss: 0.4243, AUC: 0.7671, ACC: 0.7291,  
train_loss: 0.4211, AUC: 0.7678, ACC: 0.7275,  
train_loss: 0.4169, AUC: 0.7625, ACC: 0.7234,  
train_loss: 0.4130, AUC: 0.7620, ACC: 0.7232,  
Training stopped.
valid:	 AUC: 0.7855, ACC: 0.7408, 
test:	 AUC: 0.7833, ACC: 0.7349, 
Evaluation before training: AUC: 0.5521, ACC: 0.5002, 
train_loss: 0.6095, AUC: 0.7193, ACC: 0.7016,  * 0.7104
train_loss: 0.5721, AUC: 0.7458, ACC: 0.7158,  * 0.7307
train_loss: 0.5501, AUC: 0.7644, ACC: 0.7284,  * 0.7462
train_loss: 0.5339, AUC: 0.7746, ACC: 0.7325,  * 0.7533
train_loss: 0.5218, AUC: 0.7804, ACC: 0.7388,  * 0.7593
train_loss: 0.5121, AUC: 0.7826, ACC: 0.7404,  * 0.7612
train_loss: 0.5046, AUC: 0.7839, ACC: 0.7417,  * 0.7625
train_loss: 0.4974, AUC: 0.7840, ACC: 0.7407,  
train_loss: 0.4908, AUC: 0.7857, ACC: 0.7433,  * 0.7642
train_loss: 0.4847, AUC: 0.7846, ACC: 0.7412,  
train_loss: 0.4796, AUC: 0.7831, ACC: 0.7383,  
train_loss: 0.4739, AUC: 0.7832, ACC: 0.7390,  
train_loss: 0.4689, AUC: 0.7799, ACC: 0.7381,  
train_loss: 0.4647, AUC: 0.7810, ACC: 0.7382,  
train_loss: 0.4595, AUC: 0.7800, ACC: 0.7358,  
train_loss: 0.4555, AUC: 0.7751, ACC: 0.7348,  
train_loss: 0.4504, AUC: 0.7745, ACC: 0.7323,  
train_loss: 0.4462, AUC: 0.7725, ACC: 0.7313,  
train_loss: 0.4417, AUC: 0.7738, ACC: 0.7307,  
train_loss: 0.4392, AUC: 0.7714, ACC: 0.7304,  
train_loss: 0.4345, AUC: 0.7686, ACC: 0.7302,  
train_loss: 0.4325, AUC: 0.7668, ACC: 0.7277,  
train_loss: 0.4290, AUC: 0.7670, ACC: 0.7250,  
train_loss: 0.4246, AUC: 0.7689, ACC: 0.7300,  
train_loss: 0.4245, AUC: 0.7686, ACC: 0.7294,  
train_loss: 0.4236, AUC: 0.7614, ACC: 0.7202,  
train_loss: 0.4191, AUC: 0.7616, ACC: 0.7248,  
train_loss: 0.4169, AUC: 0.7586, ACC: 0.7238,  
train_loss: 0.4185, AUC: 0.7566, ACC: 0.7239,  
Training stopped.
valid:	 AUC: 0.7857, ACC: 0.7433, 
test:	 AUC: 0.7898, ACC: 0.7377, 
Evaluation before training: AUC: 0.5531, ACC: 0.4871, 
train_loss: 0.6087, AUC: 0.7160, ACC: 0.6958,  * 0.7058
train_loss: 0.5707, AUC: 0.7437, ACC: 0.7116,  * 0.7275
train_loss: 0.5492, AUC: 0.7626, ACC: 0.7252,  * 0.7436
train_loss: 0.5327, AUC: 0.7743, ACC: 0.7335,  * 0.7536
train_loss: 0.5202, AUC: 0.7794, ACC: 0.7379,  * 0.7584
train_loss: 0.5098, AUC: 0.7832, ACC: 0.7376,  * 0.7601
train_loss: 0.5018, AUC: 0.7849, ACC: 0.7421,  * 0.7632
train_loss: 0.4944, AUC: 0.7850, ACC: 0.7387,  
train_loss: 0.4873, AUC: 0.7852, ACC: 0.7406,  
train_loss: 0.4814, AUC: 0.7839, ACC: 0.7390,  
train_loss: 0.4760, AUC: 0.7811, ACC: 0.7369,  
train_loss: 0.4698, AUC: 0.7809, ACC: 0.7356,  
train_loss: 0.4633, AUC: 0.7786, ACC: 0.7362,  
train_loss: 0.4585, AUC: 0.7761, ACC: 0.7322,  
train_loss: 0.4527, AUC: 0.7716, ACC: 0.7324,  
train_loss: 0.4491, AUC: 0.7728, ACC: 0.7310,  
train_loss: 0.4448, AUC: 0.7711, ACC: 0.7314,  
train_loss: 0.4418, AUC: 0.7675, ACC: 0.7279,  
train_loss: 0.4386, AUC: 0.7657, ACC: 0.7287,  
train_loss: 0.4351, AUC: 0.7661, ACC: 0.7277,  
train_loss: 0.4299, AUC: 0.7676, ACC: 0.7285,  
train_loss: 0.4267, AUC: 0.7639, ACC: 0.7256,  
train_loss: 0.4275, AUC: 0.7627, ACC: 0.7255,  
train_loss: 0.4257, AUC: 0.7621, ACC: 0.7242,  
train_loss: 0.4228, AUC: 0.7605, ACC: 0.7230,  
train_loss: 0.4185, AUC: 0.7584, ACC: 0.7213,  
train_loss: 0.4204, AUC: 0.7558, ACC: 0.7217,  
Training stopped.
valid:	 AUC: 0.7849, ACC: 0.7421, 
test:	 AUC: 0.7846, ACC: 0.7337, 
Evaluation before training: AUC: 0.5620, ACC: 0.5893, 
train_loss: 0.6024, AUC: 0.7216, ACC: 0.6950,  * 0.7081
train_loss: 0.5709, AUC: 0.7468, ACC: 0.7105,  * 0.7284
train_loss: 0.5480, AUC: 0.7672, ACC: 0.7211,  * 0.7438
train_loss: 0.5309, AUC: 0.7777, ACC: 0.7293,  * 0.7531
train_loss: 0.5190, AUC: 0.7827, ACC: 0.7327,  * 0.7573
train_loss: 0.5088, AUC: 0.7850, ACC: 0.7351,  * 0.7597
train_loss: 0.5013, AUC: 0.7860, ACC: 0.7350,  * 0.7600
train_loss: 0.4950, AUC: 0.7885, ACC: 0.7351,  * 0.7614
train_loss: 0.4875, AUC: 0.7873, ACC: 0.7363,  
train_loss: 0.4816, AUC: 0.7864, ACC: 0.7344,  
train_loss: 0.4755, AUC: 0.7879, ACC: 0.7366,  * 0.7618
train_loss: 0.4702, AUC: 0.7847, ACC: 0.7331,  
train_loss: 0.4658, AUC: 0.7847, ACC: 0.7327,  
train_loss: 0.4599, AUC: 0.7841, ACC: 0.7325,  
train_loss: 0.4559, AUC: 0.7840, ACC: 0.7328,  
train_loss: 0.4513, AUC: 0.7830, ACC: 0.7312,  
train_loss: 0.4479, AUC: 0.7793, ACC: 0.7301,  
train_loss: 0.4456, AUC: 0.7804, ACC: 0.7310,  
train_loss: 0.4404, AUC: 0.7781, ACC: 0.7285,  
train_loss: 0.4398, AUC: 0.7785, ACC: 0.7280,  
train_loss: 0.4377, AUC: 0.7758, ACC: 0.7285,  
train_loss: 0.4323, AUC: 0.7776, ACC: 0.7260,  
train_loss: 0.4294, AUC: 0.7728, ACC: 0.7283,  
train_loss: 0.4264, AUC: 0.7763, ACC: 0.7278,  
train_loss: 0.4243, AUC: 0.7720, ACC: 0.7260,  
train_loss: 0.4242, AUC: 0.7744, ACC: 0.7267,  
train_loss: 0.4271, AUC: 0.7748, ACC: 0.7263,  
train_loss: 0.4237, AUC: 0.7718, ACC: 0.7247,  
train_loss: 0.4210, AUC: 0.7713, ACC: 0.7267,  
train_loss: 0.4149, AUC: 0.7706, ACC: 0.7250,  
train_loss: 0.4127, AUC: 0.7695, ACC: 0.7239,  
Training stopped.
valid:	 AUC: 0.7879, ACC: 0.7366, 
test:	 AUC: 0.7851, ACC: 0.7369, 
Test result of all the experiments.
AUC:
0.7881
0.7833
0.7898
0.7846
0.7851
ACC:
0.7376
0.7349
0.7377
0.7337
0.7369Average results:
valid:	 AUC: 0.7860, ACC: 0.7406, 
test:	 AUC: 0.7862, ACC: 0.7362, Process finished with exit code 0

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/896976.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/896976.shtml
英文地址,請注明出處:http://en.pswp.cn/news/896976.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

【AI大模型】DeepSeek + Kimi 高效制作PPT實戰詳解

目錄 一、前言 二、傳統 PPT 制作問題 2.1 傳統方式制作 PPT 2.2 AI 大模型輔助制作 PPT 2.3 適用場景對比分析 2.4 最佳實踐與推薦 三、DeepSeek Kimi 高效制作PPT操作實踐 3.1 Kimi 簡介 3.2 DeepSeek Kimi 制作PPT優勢 3.2.1 DeepSeek 優勢 3.2.2 Kimi 制作PPT優…

【ESP-ADF】在 VSCode 安裝 ESP-ADF 注意事項

1.檢查網絡 如果您在中國大陸安裝,請使用魔法上網,避免無法 clone ESP-ADF 倉庫。 2.VSCode 安裝 ESP-ADF 在 VSCode 左側活動欄選擇 ESP-IDF:explorer,展開 advanced 并點擊 Install ESP-ADF 然后會出現選擇 ESP-ADF 安裝目錄。 如果出現…

關于2023新版PyCharm的使用

考慮到大家AI編程的需要,建議大家安裝新版Python解釋器和新版PyCharm,下載地址都可以官網進行: Python:Download Python | Python.org(可以根據需要自行選擇,建議選擇3.11,保持交流版本一致&am…

輕松部署 Stable Diffusion WebUI 并實現局域網共享訪問:解決 Conda Python 版本不為 3.10.6 的難題

這篇博文主要為大家講解關于sd webui的部署問題,大家有什么不懂的可以隨時問我,如果沒有及時回復,可聯系:1198965922 如果后續大家需要了解怎么用代碼調用部署好的webui的接口,可以在評論區留言哦,博主可以…

Leetcode 103: 二叉樹的鋸齒形層序遍歷

Leetcode 103: 二叉樹的鋸齒形層序遍歷 問題描述: 給定一個二叉樹,返回其節點值的鋸齒形層序遍歷(即第一層從左到右,第二層從右到左,第三層從左到右,依此類推)。 適合面試的解法:廣…

Linux中的進程間通信的方式及其使用場景

在 Linux 系統中,進程間通信(Inter-Process Communication, IPC)是指不同進程之間傳遞數據、共享信息的機制。Linux 提供了多種進程間通信的方式,每種方式都有不同的特點和使用場景。以下是常見的幾種進程間通信方式及其應用場景&…

springBoot集成emqx 實現mqtt消息的發送訂閱

介紹 我們可以想象這么一個場景,我們java應用想要采集到電表a的每小時的用電信息,我們怎么拿到電表的數據?一般我們會想 直接 java 后臺發送請求給電表,然后讓電表返回數據就可以了,事實上,我們java應用發…

vue Table 表格自適應窗口高度,表頭固定

當表格內縱向內容過多時&#xff0c;可選擇固定表頭。 代碼很簡單&#xff0c;其實就是在table 里面定一個 height 屬性即可。 <template><el-table:data"tableData"height"250"borderstyle"width: 100%"><el-table-columnprop…

多線程-JUC

簡介 juc&#xff0c;java.util.concurrent包的簡稱&#xff0c;java1.5時引入。juc中提供了一系列的工具&#xff0c;可以更好地支持高并發任務 juc中提供的工具 可重入鎖 ReentrantLock 可重入鎖&#xff1a;ReentrantLock&#xff0c;可重入是指當一個線程獲取到鎖之后&…

【每日學點HarmonyOS Next知識】Web Header更新、狀態變量嵌套問題、自定義彈窗、stack圓角、Flex換行問題

【每日學點HarmonyOS Next知識】Web Header更新、狀態變量嵌套問題、自定義彈窗、stack圓角、Flex換行問題 1、HarmonyOS 有關webview Header無法更新的問題&#xff1f; 業務A頁面 打開 webivew B頁面&#xff0c;第一次打開帶了header請求&#xff0c;然后退出webview B頁面…

【ATXServer2】Android無法正確顯示手機屏幕

文章目錄 現象原因分析與解決排查手機內部minicap 解決minicap問題查看移動端Android SDK版本查看minicap支持版本單次方案多次方案 最后問題-如何支持Android SDK 32 現象 原因分析與解決 由于atxserver2在與Android動終端的鏈接過程中使用了agent&#xff1a;atxserver2-and…

【前端跨域】CORS:跨域資源共享的機制與實現

在現代Web開發中&#xff0c;跨域資源共享&#xff08;Cross-Origin Resource Sharing&#xff0c;簡稱CORS&#xff09;是一種非常重要的技術&#xff0c;用于解決瀏覽器跨域請求的限制 CORS允許服務器明確指定哪些外部源可以訪問其資源&#xff0c;從而在保證安全的前提下實…

【設計模式】單例模式|餓漢模式|懶漢模式|指令重排序

目錄 1.什么是單例模式&#xff1f; 2.如何保證單例&#xff1f; 3.兩種寫法 &#xff08;1&#xff09;餓漢模式&#xff08;早創建&#xff09; &#xff08;2&#xff09;懶漢模式&#xff08;緩執行&#xff0c;可能不執行&#xff09; 4.應用場景 &#x1f525;5.多…

RocketMQ順序消費機制

RocketMQ的順序消費機制通過生產端和消費端的協同設計實現&#xff0c;其核心在于局部順序性&#xff0c;即保證同一隊列&#xff08;MessageQueue&#xff09;內的消息嚴格按發送順序消費。以下是詳細機制解析及關鍵源碼實現&#xff1a; 一、順序消費的核心機制 1. 生產端路…

【JavaEE】-- 多線程(初階)4

文章目錄 8.多線程案例8.1 單例模式8.1.1 餓漢模式8.1.2 懶漢模式 8.2 阻塞隊列8.2.1 什么是阻塞隊列8.2.2 生產者消費者模型8.2.3 標準庫中的阻塞隊列8.2.4 阻塞隊列的應用場景8.2.4.1 消息隊列 8.2.5 異步操作8.2.5 自定義實現阻塞隊列8.2.6 阻塞隊列--生產者消費者模型 8.3 …

【C++設計模式】第四篇:建造者模式(Builder)

注意&#xff1a;復現代碼時&#xff0c;確保 VS2022 使用 C17/20 標準以支持現代特性。 分步驟構造復雜對象&#xff0c;實現靈活裝配 1. 模式定義與用途 核心目標&#xff1a;將復雜對象的構建過程分離&#xff0c;使得同樣的構建步驟可以創建不同的表示形式。 常見場景&am…

vuex中的state是響應式的嗎?

在 Vue.js 中&#xff0c;Vuex 的 state 是響應式的。這意味著當你更改 state 中的數據時&#xff0c;依賴于這些數據的 Vue 組件會自動更新。這是通過 Vue 的響應式系統實現的&#xff0c;該系統使用了 ES6 的 Proxy 對象來監聽數據的變化。 當你在 Vuex 中定義了一個 state …

若依框架中的崗位與角色詳解

若依框架中的崗位與角色詳解 一、核心概念與定位 崗位&#xff08;Post&#xff09; 業務職能導向&#xff1a;崗位是用戶在組織架構中的職務標識&#xff08;如“開發人員”“項目經理”&#xff09;&#xff0c;用于描述工作職責而非直接控制權限。崗位與部門關聯&#xff…

SQL經典常用查詢語句

1. 基礎查詢語句 1.1 查詢表中所有數據 在SQL中&#xff0c;查詢表中所有數據是最基本的操作之一。通過使用SELECT * FROM table_name;語句&#xff0c;可以獲取指定表中的所有記錄和列。例如&#xff0c;假設有一個名為employees的表&#xff0c;包含員工的基本信息&#xf…

EP 架構:未來主流方向還是特定場景最優解?

DeepSeek MoE架構采用跨節點專家并行&#xff08;EP&#xff09;架構&#xff0c;在提升推理系統性能方面展現出巨大潛力。這一架構在發展進程中也面臨諸多挑戰&#xff0c;其未來究竟是會成為行業的主流方向&#xff0c;還是僅適用于特定場景&#xff0c;成為特定領域的最優解…