2025 TAICA-人工智慧倫理 II :安全、隱私與社會影響

  • 0.0
  • 4 學生
  • 報名時間 : 2025/12/01 - 2026/12/31
  • 開課時間 : 2025/12/15 - 2026/12/31
  • 課程費用 : 免費

報名課程

介紹

🚀 人工智慧倫理 II :安全、隱私與社會影響|看見 AI 世界背後的風險與責任

 

如果你已經學過基本的 AI 倫理,懂偏誤、懂公平、懂技術如何帶來社會議題——那麼,是時候往下一步邁進了!

 

甘偵蓉老師的「人工智慧倫理 II :安全、隱私與社會影響」將帶你進入 AI 風險、隱私、安全、治理與生成式 AI 的核心議題🔎

這門進階課程開始,我們不只討論「AI 為什麼重要」,我們討論 AI 的危險從哪裡來、如何預防,以及誰該負責。

 

✨ 課程亮點

 

🔐  風險與責任:AI 出錯,誰要負責?

 • 從真實案例探討不同型態的傷害與責任歸屬

 • 為什麼「AI 的錯」不是一句話就能解決?

 • AI 產品研發中的風險、漏洞與產業挑戰

 

🛡️ 安全(Safety)vs. 資安(Security)一次釐清!

 • 什麼叫做 AI safety?和駭客攻擊的 security 有何不同?

 • AI 的「安全」問題分成哪些類型?

 • 了解 AI 潛在傷害、模型行為異常、資料風險與修正循環


🕵️‍♂️  隱私,不只是資料外洩那麼簡單。

 • 人類隱私的四種類型

 • 監控、推論隱私、演算法剖析的風險

 • 在AI時代,我們如何保護自己的隱私?


📊  從倫理原則到落地實作:AI 如何真正變得負責任?

 • 原則到實務(principle-to-practice)的困境

 • 實務中常見的價值衝突與落差

 • 政策、框架、科學研究如何共同治理風險


🧪  生成式 AI:便利背後的難題與隱憂

 • 生成式 AI 的分類與發展隱憂

 • 對學習者、學習行為與認知能力的潛在傷害

 • 專業素養、學術倫理與工具使用界線


💬  Chatbot 與情感操控:AI 應該跟你談心事、甚至戀愛嗎?

 • Chatbot 的情感操控風險

 • 我們為什麼會對機器產生情緒依附?

 • 如何維持心理與資訊安全?


🎓  你將具備的能力

 ✔ 能分析 AI 傷害機制與責任歸屬

 ✔ 了解安全、資安與治理之間的差異

 ✔ 判斷 AI 隱私風險與社會影響

 ✔ 了解生成式 AI 的議題與隱憂

 ✔ 評估 AI 技術在公共行政事務、教育、產業中的利害關係

 ✔ 成為能監督、提問、思辨的 AI 世代公民!

章節

* 以下章節為預覽,請點報名後點選開始上課,進入課程

常見問題

線上成績單 :
此課程不提供線上成績單,僅供成績顯示

學習履歷 :
此課程不提供學習履歷


此課程沒有設定常見問題

講師

teacher Picture

甘偵蓉

AI科技倫理、實踐倫理、人權與政治哲學 | 查看講師

評價

0.0

平均評價

本課程尚未有人來評價

預覽影片 & 簡介

2025 TAICA-人工智慧倫理 II :安全、隱私與社會影響