關于“大學生對人工智能倫理的認知與態(tài)度調研”的調查問卷

你好,我們正在進行一項關于“大學生對人工智能倫理的認知與態(tài)度”的調查問卷,懇請你用幾分鐘時間幫忙填答。本問卷實行匿名制,所有數據僅用于調研,請放心填寫。題目選項無對錯之分,請按自己的實際情況填寫。非常感謝你的配合與參與!
1. 你的性別
2. 你所在的年級
3. 你的專業(yè)
4. 你是否了解“人工智能倫理”的基本概念
5. 你主要通過哪些渠道獲取人工智能倫理相關信息
6. 你對以下人工智能倫理問題的熟悉程度如何
  • 非常熟悉
  • 比較熟悉
  • 一般了解
  • 不太熟悉
  • 完全不了解
算法歧視
隱私保護
責任歸屬問題
7. 請根據你的實際經歷或觀察,回答以下問題:1→5 表示 從未遇到→頻繁遇到
  • 1
  • 2
  • 3
  • 4
  • 5
求職平臺算法推薦偏好特定性別/院校背景
教育類APP根據經濟狀況推送差異化內容
社交媒體對特定群體言論的限流或標簽化
信貸平臺因地域/學校降低信用評分
電商平臺基于消費能力展示不同價格
8. 對于以下關于“算法歧視”的描述,你的看法是:1→5 表示 非常不同意→非常同意
  • 1
  • 2
  • 3
  • 4
  • 5
算法產生的結果對某個人或個體存在歧視性的判定或評估
數據偏見必然導致算法歧視(如性別、種族、地域歧視)
算法歧視是當前人工智能應用中最嚴重的問題
普通用戶有能力發(fā)現(xiàn)算法歧視現(xiàn)象
算法歧視比人為歧視更隱蔽且難以察覺
9. 你認為解決算法歧視問題的關鍵措施是
10. 對于以下關于“隱私保護”的描述,你的看法是:1→5 表示 非常不同意→非常同意
  • 1
  • 2
  • 3
  • 4
  • 5
大部分用戶在使用時清楚知道AI技術可能如何收集和使用自己的個人數據(如人臉識別、社交平臺推薦)
犧牲部分隱私以換取便利是值得的
企業(yè)應默認關閉用戶數據收集功能
政府應禁止AI企業(yè)存儲敏感個人信息
用戶有權要求徹底刪除被AI系統(tǒng)使用過的數據
11. 你是否會采取以下隱私保護行為:1→5 表示 從不→總是
  • 1
  • 2
  • 3
  • 4
  • 5
閱讀AI產品的隱私條款
關閉APP的數據追蹤權限
使用虛擬身份注冊AI服務
向平臺投訴數據濫用行為
12. 你認為人工智能應用中誰應承擔隱私保護的主要責任
13. 你認為保護隱私的有效措施是
14. 請根據您的了解程度,對以下責任歸屬相關概念進行評分:1→5 表示 完全不了解→非常了解
  • 1
  • 2
  • 3
  • 4
  • 5
“黑箱算法”對責任追溯的影響
現(xiàn)行法律對AI事故的覆蓋范圍
多方協(xié)作系統(tǒng)中的責任分攤原則
自動駕駛事故中的倫理困境
15. 對于以下關于“責任歸屬問題”的描述。你的看法是:1→5 表示 非常不同意→非常同意
  • 1
  • 2
  • 3
  • 4
  • 5
現(xiàn)有法律足以界定人工智能相關責任
應該為人工智能系統(tǒng)設立獨立的“倫理委員會”或“責任追溯機制”
人工智能倫理責任應通過保險機制轉移
AI開發(fā)者應對系統(tǒng)所有潛在風險負責
16. 當人工智能系統(tǒng)引發(fā)事故(如自動駕駛事故、醫(yī)療誤診),責任應如何劃分
更多問卷 復制此問卷