廣度發散:讓AI給出時代或今日或你關注的熱點事件
比如采集新聞頭條,根據內容或標題,以不同的角度,或各種人群的角色,生成50篇簡短的文章。一下就能占傳統的搜索引擎。這是AI最擅長的【千人千面,海量生成】。
2022年,根據MIT Technology Review的報道,十大科技大事件如下:
-
密碼的終結:新的認證方式,如通過電子郵件發送的鏈接、推送通知或生物識別掃描,正在取代傳統密碼,提供更簡便、更安全的訪問方式【12?來源】。
-
新冠病毒變種追蹤:先進的基因組測序和全球監測能力改善了對新冠病毒變種的追蹤和識別【13?來源】。
-
長效電網電池:基于鐵的電池作為電網儲能的更便宜、更實用的選擇,支持著日益增長的可再生能源使用【14?來源】。
-
蛋白質折疊的人工智能:AI系統AlphaFold2在蛋白質結構的理解上取得了重大進展,這對各種疾病的藥物設計至關重要【15?來源】。
-
瘧疾疫苗:世界衛生組織批準了一種新的瘧疾疫苗,這是針對寄生蟲感染的首個疫苗,每年可以挽救成千上萬的生命【16?來源】。
-
權益證明:這種驗證加密貨幣交易的新方法比傳統方法更節能,大幅減少了電力消耗【17?來源】。
-
針對新冠的藥物:輝瑞公司開發出針對新冠病毒的有效藥物,包括新的變種,為最終結束大流行提供了可能的途徑【18?來源】。
-
實用的聚變反應堆:磁技術的突破使無限、無碳電力的聚變能源成為可能,逐步接近現實【19?來源】。
-
人工智能的合成數據:公司正在創建合成數據以訓練AI,旨在避免數據混亂、偏見和隱私問題【20?來源】。
-
碳移除工廠:在冰島開設的全球最大碳移除工廠,是減少大氣中二氧化碳以緩解氣候變化的一步【21?來源】。
這些突破代表了從能源和醫療保健到人工智能和環境保護等多個領域的重大進展。
深度發散:像智慧樹一樣發散 不斷的長出新枝和新葉子。也有點像爬蟲。
根據內容或標題生成的二級內容當成新的熱點的再生成50篇簡短的文章。就這樣迭代。深度也有了。
“密碼的終結” 是指在數字安全領域,傳統的密碼輸入方式正在被更先進、更安全的認證方法所取代。這一變化主要得益于以下幾個方面的技術進步:
-
多因素認證(MFA):這種方法結合了多種身份驗證手段,如密碼、手機上的認證應用或推送通知,以及生物識別等。MFA增加了安全性,因為即使其中一個認證因素被泄露或破解,其他因素仍然可以阻止未授權訪問。
-
生物識別技術:生物識別技術使用獨特的生理或行為特征來驗證用戶的身份,如指紋、面部識別、虹膜掃描甚至是心跳模式。生物識別提供了一種便捷且難以偽造的身份驗證方式。
-
基于移動設備的認證:隨著智能手機的普及,許多系統現在使用手機作為身份驗證工具。例如,系統可能會發送一次性密碼(OTP)到用戶的手機,或者通過推送通知要求用戶確認登錄嘗試。
-
硬件安全密鑰:這些小型物理設備(如YubiKey)可以插入計算機或通過NFC與手機連接。它們生成一個無法復制的登錄密鑰,為用戶提供一種安全的登錄方式。
-
單點登錄(SSO)和聯合認證:這些技術允許用戶使用一組憑據安全地訪問多個服務和應用程序。例如,使用Google或Facebook賬戶登錄不同的網站和服務。
-
行為分析和人工智能:一些高級系統使用AI來分析用戶的行為模式(如打字方式、使用習慣等),以識別非法登錄嘗試。
這些技術的發展和應用表明,我們正越來越多地依賴于非傳統密碼的認證方式,這些方法不僅提高了安全性,還提供了更便捷的用戶體驗。然而,這并不意味著密碼會完全消失,但它們的重要性和普遍性正在逐漸減少。【12?來源】
幫助我們更全面地更深入的理解復雜的全球性問題和現象。
步驟1:用python寫個爬蟲 爬取百度熱點并入數據庫
因為個人沒有那么多數據,得依靠大的機構,比如百度熱點、微博頭條等。只是獲取,存數據庫(熱點,級別,狀態,時間)。要使用 Python 編寫一個爬蟲來爬取百度熱點并將其存儲到數據庫中,您需要遵循幾個步驟。首先,確保您有 Python 環境和所需的庫,如 `requests` 用于發送網絡請求和 `BeautifulSoup` 用于解析 HTML。接著,選擇一個數據庫來存儲數據,例如 SQLite 或 MySQL,并確保安裝了相應的 Python 庫。以下是一個簡單的示例來說明這個過程:
1. 安裝所需的庫
確保安裝了 requests
、beautifulsoup4
和 sqlite3
(如果您使用的是 SQLite)。您可以使用以下命令安裝它們(如果尚未安裝):
pip install requests beautifulsoup4
sqlite3
是 Python 的一部分,因此不需要額外安裝。
2. 編寫爬蟲代碼
import requests
from bs4 import BeautifulSoup
import sqlite3# 爬取百度熱點
def fetch_baidu_hotspots():url = "http://top.baidu.com/buzz?b=1&c=513&fr=topbuzz_b1" # 百度熱點 URL,可能需要更新headers = {'User-Agent': 'Mozilla/5.0'}response = requests.get(url, headers=headers)soup = BeautifulSoup(response.content, 'html.parser')hotspots = []for item in soup.find_all("tr")[1:]: # 跳過標題行title = item.find("a").get_text().strip()hotspots.append(title)return hotspots# 將熱點保存到數據庫
def save_to_database(hotspots):conn = sqlite3.connect('hotspots.db')c = conn.cursor()# 創建表c.execute('''CREATE TABLE IF NOT EXISTS hotspots (title TEXT)''')# 插入數據for title in hotspots:c.execute("INSERT INTO hotspots (title) VALUES (?)", (title,))conn.commit()conn.close()# 主函數
def main():hotspots = fetch_baidu_hotspots()save_to_database(hotspots)print("熱點已保存到數據庫。")if __name__ == "__main__":main()
注意事項
- 反爬蟲措施:網站可能有反爬蟲措施。示例中使用了簡單的 User-Agent,但可能需要更復雜的處理。
- 數據結構:這個示例假設每個熱點只有標題。如果需要更多信息,需要修改數據提取邏輯和數據庫結構。
- 數據庫配置:如果使用的是其他數據庫系統(如 MySQL),需要安裝相應的庫并修改數據庫連接和操作代碼。
請根據您的具體需求調整這些代碼。
報錯不要緊,思路是對的,就只需AI來改改。跟蹤發現是已經獲得了內容,html解析不對。
1.1python幫我從下面html中解析出“博士后當交警15年后突然火了”這個標題
<div class="category-wrap_iQLoo horizontal_1eKyQ"><a class="img-wrapper_29V76" href="https://www.baidu.com/s?wd=%E5%8D%9A%E5%A3%AB%E5%90%8E%E5%BD%93%E4%BA%A4%E8%AD%A615%E5%B9%B4%E5%90%8E%E7%AA%81%E7%84%B6%E7%81%AB%E4%BA%86&sa=fyb_news&rsv_dl=fyb_news" target="_blank"><div class="index_1Ew5p c-index-bg16"> 16 <!--194--></div><img src="https://fyb-1.cdn.bcebos.com/fyb/de6163834f53ca92c1273fff98ac9078.jpeg?x-bce-process=image/resize,m_fill,w_256,h_170" alt=""><div class="border_3WfEn"></div></a><div class="trend_2RttY hide-icon"><div class="img-wrap_JPOmE trend-icon_1Z3Cd"><img src="//fyb-pc-static.cdn.bcebos.com/static/asset/icon-same_886375f242bd1538af21a9721f16b170.png"><!--197--></div><div class="hot-index_1Bl1a"> 3415632 </div><div class="text_1lUwZ"> 熱搜指數 </div></div><!--195--><img class="line_3-bzA" src="//fyb-pc-static.cdn.bcebos.com/static/asset/line-bg@2x_95cb5a089159c6d5a959a596d460d60a.png"><div class="content_1YWBm"><a href="https://www.baidu.com/s?wd=%E5%8D%9A%E5%A3%AB%E5%90%8E%E5%BD%93%E4%BA%A4%E8%AD%A615%E5%B9%B4%E5%90%8E%E7%AA%81%E7%84%B6%E7%81%AB%E4%BA%86&sa=fyb_news&rsv_dl=fyb_news" class="title_dIF3B " target="_blank"><div class="c-single-text-ellipsis"> 博士后當交警15年后突然火了 <!--198--></div><div class="c-text hot-tag_1G080"></div><!--199--></a><!--s-frag--><div class="hot-desc_1m_jR small_Uvkd3 "><a href="https://www.baidu.com/s?wd=%E5%8D%9A%E5%A3%AB%E5%90%8E%E5%BD%93%E4%BA%A4%E8%AD%A615%E5%B9%B4%E5%90%8E%E7%AA%81%E7%84%B6%E7%81%AB%E4%BA%86&sa=fyb_news&rsv_dl=fyb_news" class="look-more_3oNWC" target="_blank">查看更多></a></div><div class="hot-desc_1m_jR large_nSuFU "><a href="https://www.baidu.com/s?wd=%E5%8D%9A%E5%A3%AB%E5%90%8E%E5%BD%93%E4%BA%A4%E8%AD%A615%E5%B9%B4%E5%90%8E%E7%AA%81%E7%84%B6%E7%81%AB%E4%BA%86&sa=fyb_news&rsv_dl=fyb_news" class="look-more_3oNWC" target="_blank">查看更多></a></div><!--/s-frag--><!--201--></div></div>要使用 Python 解析 HTML 并提取特定信息,您可以使用 `BeautifulSoup` 庫,它是一個強大的庫,專門用于解析 HTML 和 XML 文檔。以下是一個簡單的示例代碼,展示了如何提取您提供的 HTML 片段中的標題“博士后當交警15年后突然火了”。首先,確保您的環境中安裝了 `beautifulsoup4`。如果尚未安裝,您可以通過運行 `pip install beautifulsoup4` 來安裝它。接下來是解析 HTML 并提取標題的代碼:```python
from bs4 import BeautifulSoup# 這是您提供的 HTML 片段
html_content = '''
<div class="category-wrap_iQLoo horizontal_1eKyQ"><!-- ... 其他內容 ... --><div class="content_1YWBm"><a href="https://www.baidu.com/s?wd=%E5%8D%9A%E5%A3%AB%E5%90%8E%E5%BD%93%E4%BA%A4%E8%AD%A615%E5%B9%B4%E5%90%8E%E7%AA%81%E7%84%B6%E7%81%AB%E4%BA%86&sa=fyb_news&rsv_dl=fyb_news" class="title_dIF3B " target="_blank"><div class="c-single-text-ellipsis"> 博士后當交警15年后突然火了 <!--198--></div><!-- ... 其他內容 ... --></a><!-- ... 其他內容 ... --></div>
</div>
'''# 使用 BeautifulSoup 解析 HTML
soup = BeautifulSoup(html_content, 'html.parser')# 查找包含標題的 div 元素
title_div = soup.find('div', class_='c-single-text-ellipsis')# 提取并打印標題文本
if title_div:title = title_div.get_text(strip=True)print(title)
else:print("標題未找到")
這段代碼首先創建了一個 BeautifulSoup
對象來解析 HTML。然后,它使用 find
方法查找具有特定類名('c-single-text-ellipsis'
)的 div
元素。最后,它提取并打印出該元素的文本內容。如果無法找到相應的元素,它將打印“標題未找到”。
最終成功:
import requests
from bs4 import BeautifulSoup
import sqlite3# 爬取百度熱點
def fetch_baidu_hotspots():url = "https://top.baidu.com/board?tab=realtime" # 百度熱點 URL,可能需要更新headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36 Edg/119.0.0.0","Accept-Encoding": "gzip, deflate, br"}response = requests.get(url, headers=headers)# 打開一個文件,如果文件不存在則創建它with open('response.txt', 'w', encoding='utf-8') as file:# 向文件中寫入內容file.write(str(response.text))soup = BeautifulSoup(response.content, 'html.parser')hotspots = []titleList = soup.find_all('div', class_='c-single-text-ellipsis')# print(titleList)for item in titleList[1:]: # 跳過標題行title = item.get_text().strip()hotspots.append(title)# print(title);return hotspots# 將熱點保存到數據庫
def save_to_database(hotspots):conn = sqlite3.connect('hotspots.db')c = conn.cursor()# 創建表c.execute('''CREATE TABLE IF NOT EXISTS hotspots (title TEXT)''')# 插入數據for title in hotspots:c.execute("INSERT INTO hotspots (title) VALUES (?)", (title,))conn.commit()conn.close()# 主函數
def main():hotspots = fetch_baidu_hotspots()print(hotspots)if len(hotspots) > 0 : save_to_database(hotspots)print("熱點已保存到數據庫。")else:print("未找到熱點。")
if __name__ == "__main__":main()
步驟2:千問千面,從不同的角度問相同的事情,得出不同的看法。
比如 以一個哲學家的角度,如何看待“博士后當交警15年后突然火了”,這一步需要用到chatGPT API接口。
using Newtonsoft.Json;
using System.Text;class Program
{static readonly HttpClient client = new HttpClient();static async Task Main(){try{// 設置 API 密鑰string apiKey = "";client.DefaultRequestHeaders.Add("Authorization", $"Bearer {apiKey}");// 構建請求體var requestData = new{model ="gpt-3.5-turbo-1106",messages = new[] { new { role = "system",content = "以一個哲學家的角度,如何看待“博士后當交警15年后突然火了”" }, }, temperature = 1,max_tokens = 600};string json = JsonConvert.SerializeObject(requestData);StringContent content = new StringContent(json, Encoding.UTF8, "application/json");// 發送請求HttpResponseMessage response = await client.PostAsync("https://api.openai.com//v1/chat/completions", content);// 獲取響應string responseString = await response.Content.ReadAsStringAsync();Console.WriteLine(responseString);// 解析contentdynamic data= JsonConvert.DeserializeObject(responseString);var choices=data.choices;if (choices!=null){foreach (var choice in choices){var message = choice.message;Console.WriteLine($"content: {message.content}");}}}catch (HttpRequestException e){Console.WriteLine("\nException Caught!");Console.WriteLine("Message :{0} ", e.Message);}}
}
GPT4是不是越來越難用了,問一下就要證明自己是不是人類。不知道什么原因12月4日升級windows為11后就開始這樣。這樣還怎么拿它做項目?還怎么增協助,時間精力都浪費在證明自己是不是人類。
步驟3:根據熱點向下深挖,無窮無盡
以經濟學的角度如何看待“人力資本的投資與回報”