ChatGPT 4.0使用之論文閱讀

文章目錄

    • 閱讀環境準備
      • 打開AskYourPDF
      • 進入主站
    • 粗讀論文
      • 直接通過右側邊框進行提問
      • 選中文章內容翻譯或概括
      • 插圖的理解
    • 總結

擁有了GPT4.0之后,最重要的就是學會如何充分發揮它的強大功能,不然一個月20美元的費用花費的可太心疼了(家境貧寒,哭)。這里簡單記錄一下GPTs插件:AskYourPDF的使用。

注意:這個只能作為論文閱讀的輔助工具,可以幫你快速的過一下文章,GPT給出的結果并不一定完全準確,尤其是理論推導部分,想要深入學習文章的內容必須得自己看文章內容。而且實測插件對中文的支持不友好。

閱讀環境準備

很多同學可能不會注冊ChatGPT4.0,可以參考一下鏈接
https://zhuanlan.zhihu.com/p/684660351
https://chenmmm07.github.io/chenmmm07/2024/02/03/gpt-register/

打開AskYourPDF

點擊網頁端左側邊欄”探索GPTs“,單擊該插件

進入主站


剛開始提問它會詢問你是否訪問AskYourPDF主網站,直接點擊確認

然后會先給你一個回答,回答的后面會給一個主站的鏈接,點擊進入


進入主站后點擊對應的文章并新建會話

粗讀論文

可以在右上角選擇適合自己的語言,推薦英文,中文的效果會差很多,甚至直接無法回答

直接通過右側邊框進行提問

選中文章內容翻譯或概括


輸出的內容會在右邊欄進行展示。比較難受的是當你使用中文時這些操作可能是無法執行的,提示”抱歉,我無法提供中文答案“,對于文中內容的理解也不如使用英文提問。

插圖的理解

可以點擊”explain images“,截取想要的圖片提問,實測使用英文prompt效果確實會好很多,以下是具體例子:

  • 中文prompt:請描述這幅圖具體做了什么,要求:解釋每個模塊的輸入輸出,并回答該模塊的作用
  • 英文prompt:Please describe what exactly this diagram does, and ask for an explanation of the inputs and outputs of each module, and an answer about what the module does
替代文本
截圖內容
  • 中文回答
這幅圖展示的是Transformer模型的整體架構,包括編碼器(左側)和解碼器(右側)。編碼器:
- 輸入:序列的輸入嵌入(Input Embedding)。
- 過程:輸入嵌入會與位置編碼(Positional Encoding)相結合,使模型能捕捉到序列中詞匯的順序信息。之后,輸入會通過N層相同的結構,每層包含兩個子模塊:多頭注意力機制(Multi-Head Attention)和前饋全連接網絡(Feed Forward)。每個子模塊的輸出都會經過一個殘差連接(Add & Norm)。
- 輸出:編碼器的輸出是輸入序列的一個高層次的表征,這個表征會傳遞給解碼器。解碼器:
- 輸入:序列的輸出嵌入(Output Embedding)。
- 過程:輸出嵌入首先經過右移(shifted right),同樣結合位置編碼后輸入到解碼器的N層結構中。每層包括三個子模塊:屏蔽的多頭注意力機制(Masked Multi-Head Attention)、多頭注意力機制(和編碼器的輸出有關聯)及前饋全連接網絡。與編碼器類似,每個子模塊都有一個殘差連接。
- 輸出:解碼器的輸出經過線性變換(Linear)和softmax函數,得到最終的輸出概率分布(Output Probabilities),即對下一個可能輸出的預測。每個模塊的作用:
- 多頭注意力(Multi-Head Attention):讓模型在計算注意力時能夠綜合不同子空間的信息。
- 前饋全連接網絡(Feed Forward):每個位置上應用相同的全連接網絡,用于非線性變換。
- 殘差連接和
  • 英文回答
This diagram represents the model architecture of the Transformer, a neural network architecture that relies entirely on self-attention mechanisms for natural language processing tasks.The Transformer consists of two main sections: the encoder (on the left) and the decoder (on the right).**Encoder:**
- Inputs: The raw input tokens are first converted into fixed-size vectors through the "Input Embedding" layer.
- Positional Encoding: These vectors are then combined with "Positional Encoding" to retain the order of the tokens.
- Multi-Head Attention: This module allows the encoder to focus on different positions of the input sequence, enabling the model to learn the relevance of all other tokens with respect to each token in the sequence.
- Add & Norm: The output of the multi-head attention is normalized and added back to the input (residual connection) to facilitate deep stacking of layers without the vanishing gradient problem.
- Feed Forward: A feed-forward neural network is applied to each position separately and identically; this consists of two linear transformations and a ReLU activation in between.
- The components from Multi-Head Attention to Feed Forward are stacked N times (as depicted by Nx), which allows for greater abstraction of the input features at each level.**Decoder:**
- Outputs (shifted right): The target sequence tokens are similarly embedded and positionally encoded. However, they are shifted right to ensure the prediction for position `i` can only depend on positions before `i`.
- Masked Multi-Head Attention: This module is similar to the encoder's multi-head attention but prevents each position from attending to subsequent positions during training to preserve the auto-regressive property.
- Multi-Head Attention: In this layer, the decoder attends to the encoder's output. This allows the decoder to focus on relevant parts of the input sequence.
- Add & Norm: Similar to the encoder, the outputs of attention layers are normalized and added back to the input of that layer.
- Feed Forward: As with the encoder, a position-wise feed-forward network is applied.
- The components from Masked Multi-Head Attention to Feed Forward are also stacked N times.
- Linear: A final linear transformation converts the decoder output to a size suitable for the next step.
- Softmax: The linear layer's output is converted to a probability distribution over possible output tokens using a softmax function.The final output is the probability distribution of the next token in the sequence, given the previous tokens in the output sequence and the entire

總結

對于不介意看英文的同學來說是一個很不錯的工具,只可惜對中文的支持還是比較欠缺,當然這個不是插件的問題,而是GPT本身對中文就不夠友好,希望之后的版本可以加強一下這方面吧

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/718198.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/718198.shtml
英文地址,請注明出處:http://en.pswp.cn/news/718198.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

WP外貿營銷型網站模板

WordPress外貿獨立站主題 簡潔實用的WordPress外貿獨立站主題,適合時尚服裝行業搭建wordpress企業官網使用。 零件配件WordPress外貿建站模板 汽車行業零配件WordPress外貿建站模板,賣配件、零件的外貿公司可以使用的WordPress主題。 https://www.jia…

RocketMQ—消費者的兩種消費模式

RocketMQ—消費者的兩種消費模式 RocketMQ消息消費的模式分為兩種:負載均衡模式和廣播模式,負載均衡模式表示多個消費者交替消費同一個主題里面的消息;廣播模式表示每個每個消費者都消費一遍訂閱的主題的消息。 負載均衡模式 CLUSTERING 集…

vue2 element 實現表格點擊詳情,返回時保留查詢參數

先直觀一點,上圖 列表共5條數據,準備輸入Author過濾條件進行查詢 進入查看詳情頁,就隨便搞了個按鈕 啥都沒調啦 點擊返回后 一開始準備用vuex做這個功能,后來放棄了,想到直接用路由去做可能也不錯。有時間再整一套…

一篇文章了解和使用Map和Set(HashMap/TreeMap/HashSet/TreeSet)

[本節目標] *掌握HashMap/TreeMap/HashSet/TreeSet的使用 *掌握了解HashSet和HashSet背后的哈希原理和簡單的實現 1. 搜索樹 1.1 概念 二叉搜索樹又稱二叉排序樹,它或者是一顆空樹,或者是具有以下性質的二叉樹: 1.若它的左子樹不為空,則左子樹上所有節點的值都…

【一起學習Arcade】(2):Geometry函數

第二篇記錄下Geometry函數,相對于其它語言,Arcade對Geometry的支持是一大亮點,這使得它的上限被大大提高了。 三、Geometry函數 1、Angle【角度】 單位為度(0-360),正北為90度,只考慮x-y平面。…

07OpenCV 圖像模糊

文章目錄 圖像掩膜操作模糊原理均值濾波高斯濾波中值濾波雙邊濾波算子代碼 圖像掩膜操作 圖像掩膜操作 模糊原理 Smooth/Blur是圖像處理中最簡單和常用的操作之一 使用操作的原因之一就是為了給圖像預處理時候減低噪聲 圖像噪聲是指存在于圖像數據中的不必要的或多余的干擾信…

RK3568開發筆記-qt程序運行報錯Failed to move cursor on screen

目錄 前言 一、qt程序運行報錯 二、異常解決 總結 前言 最近在進行 RK3568 平臺上的 Qt 程序開發時&

使用 Docker 部署 MrDoc 在線文檔管理系統

1)MrDoc 介紹 MrDoc 簡介 MrDoc 覓思文檔:https://mrdoc.pro/ MrDoc 使用手冊:https://doc.mrdoc.pro/p/user-guide/ MrDoc 可以創建各類私有化部署的文檔應用。你可以使用它進行知識管理、構建團隊文庫、制作產品手冊以及在線教程等。 Mr…

在Java中如何使用Lambda表達式進行函數式編程

在Java中如何使用Lambda表達式進行函數式編程 在Java中,使用Lambda表達式進行函數式編程主要涉及以下幾個步驟: 理解函數式接口: 函數式接口是一個只有一個抽象方法的接口。Java 8引入了FunctionalInterface注解,用于標記這樣的接…

linux安全--DNS欺騙,釣魚網站搭建

目錄 一,實驗準備 首先讓client能上網 1)實現全網互通,實現全網互通過程請看 2)SNAT源地址轉換 3)部署DHCP服務 4)配置DHCP服務 5)啟動服務 6)安裝DNS服務 7)DNS配置 8)啟動DNS…

【Python筆記-設計模式】策略模式

一、說明 策略模式是一種行為設計模式,它定義了一系列算法,將每個算法封裝起來,并使它們可以互相替換。 (一) 解決問題 在需要根據不同情況選擇不同算法或策略,規避不斷開發新需求后,代碼變得非常臃腫難以維護管理。…

如何將圖片保存成視頻(imageio、opencv和ffmpeg)

測試下來發現,imageio 速度比 cv2 的要慢,所以普通保存推薦 cv2,要gpu加速需要額外配置或者修改 imageio 底層也是調用的ffmpeg,以下是python代碼 import imageio import os# 讀取要保存為視頻的圖片 images [] for filename …

UE 打包窗口及鼠標狀態設置

UE 打包窗口及鼠標狀態設置 打包后鼠標不鎖定 顯示鼠標圖標 打包后設置窗口模式 找到打包路徑下的配置文件GameUserSettings,設置相關項目 FullscreenMode0表示全屏模式,1表示窗口全屏模式,2表示窗口模式

模型部署 - BevFusion - (1) - 思路總結

模型部署實踐 - BevFusion 思路總結一、網絡結構 - 總結1.1、代碼1.2、網絡流程圖1.3、模塊大致梳理 二、Onnx 的導出 -總體思路分析三、優化思路總結 學習 BevFusion 的部署,看了很多的資料,這篇博客進行總結和記錄自己的實踐 思路總結 對于一個模型我…

【代碼】Android|獲取壓力傳感器、屏幕壓感數據(大氣壓、原生和Processing)

首先需要分清自己需要的是大氣壓還是觸摸壓力,如果是大氣壓那么就是TYPE_PRESSURE,可以參考https://source.android.google.cn/docs/core/interaction/sensors/sensor-types?hlzh-cn。如果是觸摸壓力就是另一回事,我需要的是觸摸壓力。 不過…

軟考 系統分析師系列知識點之系統分析的任務、難點與要求(1)

所屬章節: 第10章. 系統分析 第1節. 系統分析概述 系統分析階段也稱為邏輯設計階段,其任務是根據系統設計書所確定的范圍,對現有系統進行詳細設計調查,描述現有系統的業務流程,指出現有系統的局限性和不足之處&#x…

Qt+libhv實現各類網絡通信方式(TCP-UDP-HTTP-WebSocket)

文章目錄 TCP通信服務端客戶端UDP通信服務端客戶端HTTP通信服務端客戶端WebSocket通信服務端客戶端參考項目下載為了實現程序的跨進程和跨主機通信,我們通常會采用網絡通信進行數據傳輸。常用的通信方式包括TCP/UDP、HTTP、WebSocket等,這些網絡通信方式各有優劣有的是短連接…

事故預測 | Matlab基于FuzzySVR模糊支持向量機多特征變量事故預測

事故預測 | Matlab基于FuzzySVR模糊支持向量機多特征變量事故預測 目錄 事故預測 | Matlab基于FuzzySVR模糊支持向量機多特征變量事故預測預測效果基本描述程序設計參考資料 預測效果 基本描述 Matlab基于FuzzySVR模糊支持向量機多特征變量事故預測 運行環境: Matlab2023及以 上…

C++經典日期類實現

學完C類和對象以及四個默認成員函數&#xff0c;就可以來嘗試自己實現一下日期類。完成日期類的各種功能&#xff0c;并加強自己的代碼能力。 日期類實現 定義一個日期類 // 文件:Date.h #pragma once #include <iostream> using std::cout; using std::endl;//定義日…

C語言數組作為函數參數

有兩種情形&#xff1b; 一種是數組元素作為函數實參&#xff1b;一種是數組名作為函數參數&#xff1b; 新建一個VC6單文檔工程&#xff1b; void printshz(int , CDC* , int , int ); double getav(int a[5]); ...... void CShzcshView::OnDraw(CDC* pDC) {CShzcshDoc* pDo…