下面我們我們來利用AI,來用GO+Python寫個爬蟲系統。
幫我寫一個Python語言爬取數據寫入Mysql的案例,信息如下:
1、Mysql數據庫地址是:192.168.1.20 ,mysql用戶名是:root, Mysql密碼是:123456,要操作
的數據庫是:ginxiaomi
2、要爬取的網址是http://bbs.itying.com/
3、需要把爬取的每一條新聞信息寫入到artice表,article表有id,title,status字段
pip install requests beautifulsoup4 pymysql
import requests
from bs4 import BeautifulSoup
import pymysql
# 數據庫連接配置
db_config = {
'host': '192.168.1.20',
'user': 'root',
'password': '123456',
'database': 'ginxiaomi',
'charset': 'utf8mb4',
'cursorclass': pymysql.cursors.DictCursor
}
# 連接到MySQL數據庫
connection = pymysql.connect(**db_config)
try:
with connection.cursor() as cursor:
# 假設URL
url = 'http://bbs.itying.com/'
# 發送HTTP請求
response = requests.get(url)
response.raise_for_status() # 如果請求失敗,拋出HTTPError異常
# 解析HTML
soup = BeautifulSoup(response.text, 'html.parser')
# 假設每個新聞項都在一個class為'news-item'的div中
news_items = soup.find_all('div', class_='topic_title_wrapper')
for item in news_items:
# 假設每個新聞項有title和status(這里status可能需要根據實際頁面結構進行調整)
title = item.find('a').get_text(strip=True) if item.find('a') else ''
status = '1' # 假設每個新聞都是激活狀態,具體需要根據實際頁面調整
# 插入數據到MySQL
sql = "INSERT INTO article (title, status) VALUES (%s, %s)"
cursor.execute(sql, (title, status))
# 提交事務
connection.commit()
print(cursor.rowcount, "record inserted.")
finally:
connection.close()
print("Done.")
不了解AI基礎知識的同學可能看不懂,可以看看下面的視頻了全面來了解,通過對AI的學習,我們會發現AI的能力遠超我們的想象。(說明:前1-9講是DeepSeek學習內容,需要全面學習AI編程的話可以從第10講開始學)
【2025年新版】DeepSeek教程
前面我們也有詳細分析Prompt提示詞在多個領域的應用,從熱點追蹤、活動策劃、文章撰寫及實體抽取,到內容解釋與優化、評論與說說創作,再到結合AI助手生成短視頻;同時,Prompt提示詞還可以快速輔助完成周報、簡歷、郵件及情書等文檔撰寫,并有效整理文檔資料。針對運營編輯崗位,課程提供了文案支持、內容審核與輿情分析、數據分析及商業計劃書撰寫的Prompt技巧。此外,還深入講解了利用Prompt生成PPT、思維導圖,以及借助Mermaid.js生成圖表、流程圖、序列圖、時間線圖的方法。在編程領域,課程涵蓋了AI編寫前端、Flutter、嵌入式及Python、Go、Node.js等多種語言代碼的Prompt應用,并擴展到Nodejs、Golang、Python結合MYSQL的Prompt爬蟲系統開發。最后,課程還傳授了AI編程Prompt技巧,包括接口文檔生成、代碼解釋、代碼與注釋生成、語法檢查、服務器命令解析、錯誤排查咨詢,以及簡歷、報告、周報等文檔撰寫的Prompt高效方法,助力學員在任何場景中能游刃有余的使用Prompt Engineering。