?
?
重要信息
時間:2025年2月21日-23日
地點:中國杭州
官網:http://www.ic-gaiis.org
簡介
2025年第二屆生成式人工智能與信息安全將于 2025年2月21日-23日在中國杭州舉行。主要圍繞“生成式人工智能與信息安全”的最新研究展開,緊密聚焦AI的熱點和難點問題,深入剖析信息安全核心技術。
生成式人工智能與信息安全的關系主要體現在以下幾個方面:
-
數據安全:生成式人工智能通常需要大量的訓練數據,這些數據可能包含敏感信息。確保這些數據在收集、存儲和傳輸過程中的安全是關鍵。
-
知識產權保護:生成式人工智能創作的作品可能侵犯他人的知識產權。因此,對人工智能生成內容的版權和知識產權保護需要明確規范。
-
隱私保護:人工智能可能用于分析個人數據,采集過程中需要遵循隱私保護原則,防止數據泄露。
-
防范惡意利用:生成式人工智能也可能被用于生成虛假信息、網絡攻擊等惡意行為,需要采取措施防范。
主席
Prof.?Dong Xu,?University of Missouri-Columbia, USA??(AAAS Fellow, AIMBE Fellow)?(H-index: 84)
姚信威教授,浙江工業大學
程序委員會主席
吳小俊教授,江南大學 (H-index: 64)
Prof. Azlan Mohd Zain, Universiti Teknologi Malaysia, Malaysia?(H-index: 38)
陳志奎教授,大連理工大學 (H-index: 34)
Prof.?J.M.Corchado, University of Salamanca, Spain?(H-index: 112)
出版主席
Prof.?Nagaraja G.S, RV College of Engineering, India(IEEE Senior Member)
宣傳主席
陳雷 副教授,山東大學
?
? ? | 張磊教授,重慶大學(國家級青年人才,IEEE Senior Member,H-index:71) 張磊,重慶大學微電子與通信工程學院教授,博士生導師,國家級高層次青年人才,人社部第三批香江學者計劃入選者,重慶市杰出青年科學基金獲得者,重慶市高層次人才特殊支持計劃入選者,入選斯坦福大學發布的全球前2%頂尖科學家“終身科學影響力”、“年度科學影響力”雙榜單。主要研究多模態人工智能、計算機視覺、魯棒機器學習、大模型高效遷移、視覺-語言大模型等。承擔了國家自然科學基金委等項目課題20余項,發表學術論文160余篇,ESI全球前1%高被引論文10篇,出版學術專著1部,谷歌學術顯示引用過萬次,發明專利近20項。獲得吳文俊人工智能自然科學獎、吳文俊人工智能優秀青年獎等獎項。目前是IEEE 高級會員、中國計算機學會(CCF)杰出會員,擔任國內外多個期刊編委 |
? | Prof. Azlan Mohd Zain, Universiti Teknologi Malaysia, Malaysia(H-index: 38) Azlan Mohd Zain目前是馬來西亞理工大學計算學院工程學院的教授。他也是馬來西亞理工大學大數據研究中心的主任。作為一名學術人員,他成功指導了25多名研究生,并獲得了20多項研究資助,以支持研究生。他發表了100多篇研究論文。他曾受邀在五次以上的國際會議上擔任主旨發言人,在多個委員會任職,并在三種國際期刊的編委會任職。 |
? | 胡亮教授,同濟大學 胡亮,同濟大學計算機科學與技術學院,教授,博導。上海海外 高層次人才,國家海 外 高層次青年人才。研究領域包括機器學習、推薦系統、人機協同、數據科學、隱私計算,以及跨學科交叉融合的新一代智能技術。發表超過100篇高水平學術論文,包括WWW、IJCAI、AAAI、ICDM、TOIS、TKDE、NeurIPS、ICML等。在眾多高水平人工智能國際會議(IJCAI、AAAI、ICDM、CIKM、KDD、CVPR等)擔任程序委員會委員,并擔任十余個著名人工智能和數據科學相關的國際期刊的審稿人,包括ACM CSUR、IEEE TKDE、ACM TOIS、IEEE TPAMI等。以聯席主席身份在IEEE ICDM、DSAA等多個著名國際學術會議上組織了關于人工智能、神經網絡和推薦系統的多個研討會和特別專題在IJCAI、AAAI、KDD、SIGIR、ICDM、WWW等多個頂級人工智能及數據科學會議上,進行了近10個關于智能推薦系統的專題報告(Tutorial)。主持和參與多項國家級科研項目。 |
期刊名稱:Human-Centric Intelligent Systems (HCIN)
期刊簡介:Human-Centric Intelligent Systems(HCIN) 是一本完全開放獲取的國際期刊,致力于傳播關于以人為本的智能系統的最新研究成果,涵蓋其所有理論和實踐應用,同時提供關于以人為本計算和分析的前沿理論與算法見解。
范圍:以人為本的 AI;以人為本的數據和管理;信息傳播和建模;擴散源識別和網絡分析;社會影響力分析;社區檢測和動態、虛假信息和錯誤信息檢測;用戶建模、個性化和推薦;負責任的 AI、公平性和可解釋性。
?
主題
深度學習
自然語言處理
算法應用
計算機視覺
視覺識別
模式識別
強化學習
生成對抗網絡
生成建模技術
語言預訓練
視覺預訓練
聯合預訓練
自回歸模型
生成式人工智能的合法使用
信息和隱私保護
入侵檢測技術
安全檢測和監控技術
解密和加密技術
其他信息見官網?
名詞解釋?
生成式人工智能(Generative AI)與信息安全之間的關系和影響是當前技術領域一個熱點話題。生成式AI主要是指能夠生成新的數據(如文本、圖像、音頻等)的人工智能技術,最著名的例子包括像我這樣的語言模型(如GPT系列)和圖像生成模型(如DALL·E)。這些技術有很多應用場景,包括內容創作、數據增強、自動化等,但它們也帶來了新的信息安全挑戰和風險。
1. 生成式AI的潛在安全風險
生成式AI可能帶來一些信息安全問題,主要包括:
- 假新聞和虛假信息:生成式AI可以用來自動生成文本、文章或社交媒體內容,這些內容可能被用來傳播虛假信息、政治宣傳或誤導性新聞,從而對公眾輿論、政治穩定或社會信任構成威脅。
- 深度偽造(Deepfake):生成式AI可以用來創造高度逼真的虛假圖像、視頻或聲音。例如,AI可以合成某個名人的假視頻,甚至模仿其聲音。這些技術可能被用于詐騙、勒索、惡意攻擊等。
- 網絡釣魚攻擊:生成式AI可以被用來創建看起來非常真實的釣魚郵件或假冒網站,誘使受害者透露敏感信息(如銀行賬戶、密碼等)。
- 自動化惡意代碼生成:黑客可能利用生成式AI自動編寫惡意代碼或攻擊腳本,從而降低攻擊的難度并提高攻擊效率。這可能導致更多的零日漏洞被利用,甚至出現更復雜、難以檢測的攻擊方式。
2. 生成式AI對信息安全的積極影響
盡管存在風險,生成式AI也可以在信息安全領域發揮積極作用:
- 增強檢測和防御:生成式AI可以幫助創建更強大的入侵檢測系統(IDS)和防火墻。例如,AI可以生成模擬的攻擊流量,用于測試網絡防御系統的漏洞,提升對新型攻擊的防范能力。
- 自動化安全報告生成:生成式AI可以自動化生成安全報告和漏洞分析,幫助安全團隊快速識別系統中的潛在問題,減少人工工作量,提高響應速度。
- 惡意代碼識別:通過生成與已知惡意軟件相似的代碼,AI可以幫助開發出更強大的反病毒軟件或安全工具,增強對新型惡意軟件的識別能力。
3. 信息安全的挑戰
由于生成式AI的快速發展,信息安全領域需要重新審視現有的防護措施:
- 合成內容的識別:隨著深度偽造技術的進步,如何有效識別生成內容成為一個重要挑戰。例如,如何區分真實的圖像和AI生成的圖像,或如何檢測AI生成的虛假文本。
- 隱私問題:生成式AI可能在生成數據時泄露敏感信息。例如,語言模型可能會不小心生成包含私人信息(如姓名、地址、電話等)的文本,這對數據隱私構成風險。
- 技術濫用:與所有新技術一樣,生成式AI也有被濫用的風險。需要制定新的法律、道德標準和技術規范,以確保生成式AI不會對社會造成負面影響。
4. 應對策略
為了應對生成式AI帶來的信息安全問題,可以采取一些應對策略:
- 加強法規和政策:政府和監管機構需要出臺更完善的法律和政策來應對生成式AI帶來的新風險,制定關于AI生成內容的透明度要求,防止惡意使用。
- 提升AI安全意識:企業和用戶需要增強對生成式AI潛在風險的認識,提高防范意識,加強信息安全教育,識別釣魚攻擊、假新聞等。
- 技術對抗手段:研發針對生成式AI技術的防護技術,例如深度偽造檢測、自動化內容驗證工具等,幫助組織和用戶抵御AI生成的虛假信息和惡意內容。
總之,生成式AI與信息安全密切相關,既帶來了新的安全挑戰,也提供了新的安全工具和解決方案。隨著技術的進一步發展,如何平衡創新與風險將是一個長期且復雜的課題。
?
?
?