聽說你還在糾結自己沒訪問量?成不了“博客專家”?

一、提高瀏覽量的技巧

相信很多人都這么想過:“我文章寫的這么好,怎么就沒人看呢?”;

或者這樣想過:“這文章寫得明明比我爛很多,憑什么這么多瀏覽量?”;

雖然在我看來這是極其嚴重的內耗,對自己一點幫助都沒有,但是自己認認真真寫的東西沒人看,確實比較打擊信心和熱情,既然如此,我就在文章開頭分享幾個提高瀏覽量的小技巧。但是請你有時間可以把這篇文章看到最后。

1-1、一個博眼球的標題

俗話說得好,一個好的開頭是成功的一半。而對于博客這個東西,如果以瀏覽量、點贊等等數據來衡量是否成功(當然我并不贊同這個觀點),那么好的標題確實是成功的一半。

這在博客主頁、app、公眾號得到了很好地體現,就算是短視頻運營,軟文推廣等其它方面,標題也是一樣重要,甚至比技術博客更重要。

如圖,這是我在CSDN隨便截圖兩張,可以看到,基本上獲得很大流量曝光的文章都有一個非常吸引人的標題。

這個吸引人不一定是所有人,也可以是吸引特定的群體,比如“32歲被裁”就很吸引有被裁員焦慮和“中年危機”的朋友;

在這里我給出一種標題格式(但是我是沒寫過):

第一步:震驚/重磅/牛/刷爆了/熱議!

第二步:專家研究出.../被瘋傳.../月入50k.../熱點新聞等等,

第三步:總結,如:不看后悔一輩子!不看錯過50K!等等。。。

雖然我每次看這種文章標題都特別想笑,但是架不住有些人喜歡啊。

如果你分享一個技術干貨,標題叫做:“Java基礎知識總結”,你覺得有人看嗎?

如果改成:“震驚!專家十年心血總結十萬字Java干貨!不看后悔一輩子!”,你覺得哪個更吸引人?

(我忍不住想笑hhhhhh)

1-2 重視SEO

除了少數有固定閱讀人群的自媒體,大部分文章都是靠百度搜到的,這方面CSDN做得相當不錯,因為你百度計算機知識,CSDN的博客基本在前面,其他博客平臺都要靠后,這也是我在CSDN寫文章的原因。

1)多添加標題可以通過SEO(搜索引擎優化)提高百度等搜索引擎收錄你的這篇博客的機率,這里需要了解SEO的一些知識:你的文檔格式會被轉換成HTML?格式,其中標題被轉換成<h>標簽,搜索過程中搜索引擎會優先匹配HTML文檔中以下標簽

<h1></h1>
<h2></h2>
<h3></h3>
...
<h6></h6>
<em></em>
<title></title>

2)把自己想象成需要你這篇博客的內容來解決問題的人,在搜索時最可能搜索哪些關鍵字,將這些關鍵字作為你的標題可以讓你的博客在搜索結果列表中更靠前。

3)不要二次修改博客標題:有時候博客已經發布了又覺得標題取得不太好,于是想著修改標題,這么做的直接結果就是已經被搜索引擎收錄的網址會被消除,原先的搜素排序優先級直接就作廢了。

1-3 鏈接

在自己文章中多添加其它相關文章的鏈接,各個文章可以互相幫助,提高訪問,同時方便讀者查找相關內容。

1-4多平臺

我見過一些人在很多平臺有賬號,然后互相引流,所有號都受益。

1-5首頁推薦

CSDN是比較人性化的,支持系統自動推薦和主動申請推薦,詳情自行了解,或者問我。

?

二、為什么寫博客

?

但是,我想提醒各位,你寫博客的目的到底為了什么。

瀏覽量很高?很多人稱贊?排名靠前?成為博客專家成為吹牛的資本?

都不是。

1)對知識點的總結、回顧、思考的過程:你會發現在這個過程中,你會對知識有更深的理解,更深的印象。從小老師就告訴過我們:能講給別人聽,才是真的學會了。

2)自己以后能用到:你去年學的東西,今年可能忘掉很多(像我這種記憶力就真的完全不記得了),如果你總結起來,之后方便復習。俗話說得好,好記性不如爛筆頭。

3)驅動學習:誰都會有懶惰的心,今天規劃好要學習什么東西,結果全部被碎片時間淹沒,被游戲等等好玩的事情淹沒。

但是,如果有這么一群粉絲時不時問你:“啥時候更新個文章?”,或者看著排名、瀏覽量等數據一點點上漲,是不是就有再學一點的沖動?

?

總之,這一切都是為了讓你成為更好的自己,而不是那些虛的東西,訪問量、頭銜、徽章。

?

三、不忘初心

? ? ? ? 如果你為這些數據煩惱,覺得沒人看你的文章真的受打擊,你可以加一下CSDN的QQ群,那里天天有很多人,有很多人求贊或者互相點贊,為了增加粉絲互相關注,為了提高訪問量發自己的文章,進群后你可能會接觸到你想要的知識,或者可以讓你的博客數據全方位上漲一些(比如多幾個粉絲,多幾十個瀏覽量,多幾個點贊),但是這也就是極限了,不可能給你帶來更多的數據。

? ? ? ? 我很久以前也是其中的一員,我會為了瀏覽量到處發自己的文章,我為了多幾個粉絲去互相關注,我為了多幾個贊去互相點贊。現在想想有點可笑和可憐,自己寫博客的原因已經在第二部分文字列出,而我卻為了這些虛名浪費時間,有這些時間我可能會多刷幾道leetcode,我可能又多讀了幾頁書,或者突然有了優化HashMap的靈感,或者和對象多看了一集動漫也好。

? ? ? ? 我見到有些人為了自己文章訪問量不夠多,在群里給CSDN提意見,我見到有些人,幾乎天天在群內求贊求關注,一小時發一次,我都不知道時間可以這樣不值錢,這樣浪費。

? ? ? ? 所以,如果你是一個學生,或者一個處于學習上升期的人來說(知識到了瓶頸通過文章掙零花錢的忽略),我并不建議你使用我文章第一部分的那些東西,可能對你的文章稍微有點幫助,但是一篇文章的成功與否根本不在于訪問量。我的建議是耐住寂寞,一篇一篇寫,一點一點學,你會迎來自己的各種爆發期。之前我用了一年時間寫博客,訪問量都達不到十萬,現在半年時間,各種數據對于我來說基本是爆炸增長,每月不寫文章,訪問量也會漲五位數,但是我還是我,我的知識儲備并沒有因為獎學金、編程比賽牌子、博客數據增長這些東西而增長一點。

四、我的總結

希望榮譽或者數據,是激勵而不是影響你的東西,在你拿獎學金那一刻,在你拿到ACM牌子那一刻,在你瀏覽量破百萬那一刻,難道你本身的知識會有一點增長?

虛心看、虛心學、不要因為心理活動影響自己。

技術和知識是拿來用的,而不是用來拿獎或者其它東西。

?

聽說可以提高申請專家成功概率的方法

雖然我不是專家,但是也不要噴我是標題黨哈哈,因為確實有點用。

1)你的榮譽:如果你申請的時候注明你其他平臺的成就,會容易一些,比如最近看見的敖丙。(其他博客平臺的數據、各種可課程平臺等等)

2)你的身份:大廠工作經歷、名校博士、大學老師等等(比如姚期智過來申請專家,就這三個字就通過了,不用一篇文章一個訪問哈哈)

3)文章質量:很重要,注意深度廣度,用心寫,你收獲的不止是一個專家那么簡單。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:
http://www.pswp.cn/news/444687.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/444687.shtml
英文地址,請注明出處:http://en.pswp.cn/news/444687.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

推薦系統(6)-注意力機制+深度推薦模型、強化學習推薦系統

注意力機制深度推薦模型、強化學習推薦系統1.AFM -20172.DIN-20173.DIEN-20194. DRN-20181.AFM -2017 Attention factorization machines–浙江大學–基于模型結構的改進 引入注意力機制FM&#xff0c; 可視為NFM模型的改進。給特征交叉池化后的特征向量施加不同的注意力權重。…

Caffe安裝的坑整理

怎么說了,入了深度學習的坑,就要踩一踩才算你入門,這里我整理了我在安裝學習caffe自己遇到的坑: 1.Caffe-GPU編譯問題:nvcc fatal : Unsupported gpu architecture compute_20 仔細查看了一下 Makefile.config 中 CUDA_ARCH 設置未按規定設置: # CUDA architecture se…

leetcode74. 搜索二維矩陣 ,你見過嗎

編寫一個高效的算法來判斷 m x n 矩陣中&#xff0c;是否存在一個目標值。該矩陣具有如下特性&#xff1a; 每行中的整數從左到右按升序排列。 每行的第一個整數大于前一行的最后一個整數。 示例 1: 輸入: matrix [ [1, 3, 5, 7], [10, 11, 16, 20], [23, 30, 34,…

pytorch學習 入門篇(一)

PyTorch 是什么? 它是一個基于 Python 的科學計算包, 其主要是為了解決兩類場景: NumPy 的替代品, 以使用 GPU 的強大加速功能一個深度學習研究平臺, 提供最大的靈活性和速度Tensors(張量) Tensors 與 NumPy 的 ndarrays 非常相似, 除此之外還可以在 GPU 上使用張量來加速…

關系數據庫——范式/反范式的利弊權衡和建議

范式&#xff08;避免數據冗余和操作異常&#xff09; 函數依賴 A->B A和B是兩個屬性集&#xff0c;來自同一關系模式&#xff0c;對于同樣的A屬性值&#xff0c;B屬性值也相同 平凡的函數依賴 X->Y&#xff0c;如果Y是X的子集 非平凡的函數依賴 X->Y&#xff…

pytorch學習入門 (二) Variable(變量)

Variable&#xff08;變量&#xff09; autograd.Variable 是包的核心類. 它包裝了張量, 并且支持幾乎所有的操作. 一旦你完成了你的計算, 你就可以調用 .backward() 方法, 然后所有的梯度計算會自動進行. 你還可以通過 .data 屬性來訪問原始的張量, 而關于該 variable&#…

Linux(x)-

Ubuntu裝機后的基礎應用

pytorch入門學習(三) 神經網絡

神經網絡可以使用 torch.nn 包構建. autograd 實現了反向傳播功能, 但是直接用來寫深度學習的代碼在很多情況下還是稍顯復雜,torch.nn 是專門為神經網絡設計的模塊化接口. nn 構建于 Autograd 之上, 可用來定義和運行神經網絡. nn.Module 是 nn 中最重要的類, 可把它看成是一個…

leetcode1033. 移動石子直到連續

三枚石子放置在數軸上&#xff0c;位置分別為 a&#xff0c;b&#xff0c;c。 每一回合&#xff0c;我們假設這三枚石子當前分別位于位置 x, y, z 且 x < y < z。從位置 x 或者是位置 z 拿起一枚石子&#xff0c;并將該石子移動到某一整數位置 k 處&#xff0c;其中 x &…

pytorch學習 訓練一個分類器(五)

訓練一個分類器 就是這個, 你已經看到了如何定義神經網絡, 計算損失并更新網絡的權重. 現在你可能會想, 數據呢? 一般來說, 當你不得不處理圖像, 文本, 音頻或者視頻數據時, 你可以使用標準的 Python 包將數據加載到一個 numpy 數組中. 然后你可以將這個數組轉換成一個 to…

Git(6)-Git配置文件、底層操作命令

Git基本命令1. 常用(迷糊)命令-冷知識2. git 配置2.1 設置 配置文件2.2 查看 配置文件--git config -l2.3 移除 配置文件設置--unset2.3 命令別名 --alias3.git 對象 &#xff08;git底層操作命令&#xff09;3.1 初始化一個版本庫3.2 新建一個簡單的blob 對象3.3 基于散列值查…

【軟考中級】網絡工程師:8.網絡安全

本章考察內容比較廣泛&#xff0c;考題對知識點都會有所涉及。 8.1 網絡安全的基本概念 8.1.1 網絡安全威脅的類型 竊聽 這種情況發生在廣播式網絡系統中&#xff0c;每個節點都可以讀取數據&#xff0c;實現搭線竊聽、安裝通信監視器和讀取網上的信息等。 假冒 當一個實體…

leetcode9 回文數

判斷一個整數是否是回文數。回文數是指正序&#xff08;從左向右&#xff09;和倒序&#xff08;從右向左&#xff09;讀都是一樣的整數。 示例 1: 輸入: 121 輸出: true 示例 2: 輸入: -121 輸出: false 解釋: 從左向右讀, 為 -121 。 從右向左讀, 為 121- 。因此它不是一個…

caffe各層參數詳解

在prototxt文件中,層都是用layer{}的結構表示,而里面包含的層的參數可以在caffe.proto文件中找到,比如說Data類型的結構由message DataParameter所定義,Convolution類型的結構由message ConvolutionParameter所定義。 具體說明下: name表示該層的名稱type表示該層的類型,…

caffe網絡結構圖繪制

繪制網絡圖通常有兩種方法&#xff1a; 一種是利用python自帶的draw_net.py&#xff0c;首先安裝兩個庫&#xff1a; sudo apt-get install graphviz sudo pip install pydot 接下來就可以用python自帶的draw_net.py文件來繪制網絡圖了。 draw_net.py執行時帶三個參數&…

Git(7)-Git commit

Git提交1.識別不同的提交1.1絕對提交名-ID1.2 引用和符號引用--HEAD2.查看提交的歷史記錄-git log3.提交圖-gitk4.提交的范圍4.1 X..Y4.1 X...Y5.查找bad 提交--git bisect6.查看代碼修改者-git blame命令概覽git commit -a # 直接提交修改和刪除文件有效加了-a&#xff0c;在 …

leetcode111. 二叉樹的最小深度

給定一個二叉樹&#xff0c;找出其最小深度。 最小深度是從根節點到最近葉子節點的最短路徑上的節點數量。 說明: 葉子節點是指沒有子節點的節點。 示例: 給定二叉樹 [3,9,20,null,null,15,7], 3 / \ 9 20 / \ 15 7 返回它的最小深度 2. 思路&#xff1a…

Caffe將圖像數據轉換成leveldb/lmdb

Caffe中convert_imageset projrct將圖像數據轉換成Caffe能讀取的數據格式leveldb/lmdb -gray=true //whether read gray image -shuffle=true //whether mix order -resize_height=28 -resize_width=28 -backend=lmdb …

leetcode155. 最小棧

設計一個支持 push&#xff0c;pop&#xff0c;top 操作&#xff0c;并能在常數時間內檢索到最小元素的棧。 push(x) -- 將元素 x 推入棧中。 pop() -- 刪除棧頂的元素。 top() -- 獲取棧頂元素。 getMin() -- 檢索棧中的最小元素。 示例: MinStack minStack new MinStack()…

理解Caffe的網絡模型

目錄 1. 初見LeNet原始模型2. Caffe LeNet的網絡結構3. 逐層理解Caffe LeNet 3.1 Data Layer3.2 Conv1 Layer3.3 Pool1 Layer3.4 Conv2 Layer3.5 Pool2 Layer3.6 Ip1 Layer3.7 Relu1 Layer3.8 Ip2 Layer3.9 Loss Layer 1. 初見LeNet原始模型 Fig.1. Architecture of original …